Por favor, use este identificador para citar o enlazar este ítem: https://www.innovacioneducativa.unam.mx:8443/jspui/handle/123456789/7528
Título : Taller y entorno de aprendizaje de procesos y herramientas de big data para alumnos de las licenciaturas en ingeniería en computación y ciencia de datos
Autor : MENDOZA GONZALEZ, OMAR
HERNANDEZ CABRERA, JESUS
Fecha de publicación : 2020
Resumen : En la actualidad una de las carreras con mayor futuro y empuje es la carrera de ciencia de datos, de la cual la FES Aragón es partícipe, actualmente la carrera de ingeniería en computación, no se cuenta con una infraestructura para el procesamientos de grandes volúmenes de datos ni con cursos específicos para el área. Existen proyectos en la facultad de diferentes disciplinas, como ingeniería Mecánica, ingeniería Electrónica, ingeniería Industrial, ingeniería Civil, Derecho, que requieren procesamiento de información tipo big data, y que provienen de distintas problemáticas como impacto urbano, proyecto de baches, tránsito municipal, líneas de producción industrial, seguimiento de redes sociales. La principal problemática es que en la FES Aragón no se cuenta con materiales didácticos para la enseñanza aprendizaje de herramientas, procesos y entornos Big Data, por ejemplo: Prácticas de laboratorio, Manuales de instalación y/o configuración de un entorno Big Data, Memorias o notas de las tecnologías relacionadas con el tema. El objetivo principal del proyecto es la generación de materiales didácticos, cursos, talleres y manuales para la configuración y explotación de entornos big data; y como un segundo objetivo, se pretende sentar las bases para iniciar una línea de investigación relacionada con los paradigmas de programación y tratamiento de datos en el área de big data; así como la aplicación de conceptos de ingeniería de software y de bases de datos en la realización de soluciones Big Data.
URI : https://www.innovacioneducativa.unam.mx:8443/jspui/handle/123456789/7528
metadata.dc.contributor.responsible: MENDOZA GONZALEZ, OMAR
metadata.dcterms.callforproject: 2020
metadata.dc.coverage.temporal: 2020-2022
metadata.dcterms.educationLevel: nivel superior
metadata.dcterms.educationLevel.SEP: Licenciatura
metadata.dc.description.objective: Objetivo general: Generar un entorno de enseñanza-aprendizaje de los procesos, herramientas y tecnologías Big Data, soportados por entregables concretos como son talleres, cursos, material didáctico, recursos en línea y un entorno de trabajo en la nube con la implementación de un framework de procesamiento distribuido y paralelo de grandes volúmenes de datos, disponible para alumnos y académicos de nivel licenciatura de la UNAM. Objetivos específicos: "- Implementación de un framework de procesamiento distribuido y paralelo de grandes volúmenes de datos. - Elaborar material didáctico que sirva de guía para el aprendizaje sobre procesos y herramientas utilizados en big data. - Impartir cursos periódicos sobre procesos y herramientas utilizados en Big Data. - Impartir talleres prácticos del uso de herramientas utilizadas en Big Data. - Implementar un MOOC (Massive Online Open Courses) que sirva como un repositorio en línea de los temas impartidos en los cursos y talleres propuestos."
metadata.dc.description.strategies: A continuación se presenta las directrices a seguir para la realización del Proyecto a) Búsqueda de información en bases de datos y artículos científicos arbitrados, así como en los sitios oficiales de fabricantes y organizaciones que administre el desarrollo de herramientas para big data a fin de actualizar el contenido del marco teórico de cada uno de los curso y talleres a diseñar, así como de las aplicaciones de los conceptos de big data en general. b) Desarrollo del contenido de los curso y talleres y de los temas que integrarán el material didáctico y los recurso en línea . -Se analizará y seleccionará el material del punto a) para establecer el estado del arte referente a la creación de un framework de trabajo para Big Data. -Se generará un reporte técnico de las características con las cuales debe contar el framework. -En base a esta información, Se delimitará la configuración ideal para las metas del año 1 y las metas del año 2. c) Contratación de los servicios de cómputo en la nube en donde se implementará el framework de trabajo para big data. -Análisis de factibilidad de tecnologías. -Selección de la tecnología que ofrezca la mejor opción de costo beneficio. -Contratación del servicio. d) Configuración del framework de trabajo para big data -Creación de cluster de computadoras. -Creación de recurso de almacenamiento(Storage). -Instalación de software e) Pruebas de operación del framework de trabajo para big data -Análisis de los casos de prueba. -Configuración de los entornos de prueba. -Ejecución de los casos de prueba para la generación de material didáctico. -Escritura de reporte técnico de las pruebas de operación. f) Generación del material didáctico, que se incluirá en el repositorio de recursos digitales g) Impartir los curso y talleres presenciales. -Programación de los talleres y cursos con el apoyo de la división de las Ciencias Físico-Matemáticas de la Facultad y la carrera de Ingeniería en Computación. -Solicitar sala de cómputo con conexión a internet para tener acceso al Framework Big Data. -Publicar la convocatoria para que los alumnos se inscriban. -Preparar la sala de cómputo con el software cliente para acceso al Framework. -Impartir los cursos y talleres en las fechas establecidas previamente. h) Para el recurso MOOC: -Realizar un análisis de requerimientos del sistema para cursos masivos en línea. - Seleccionar la plataforma para instalar y configurar el sistema MOOC. - Instalar y configurar el sistema MOOC. - Crear los cursos en línea. - Publicar en dicho sistema los materiales didácticos para la impartición del curso y taller de Big Data. - Administración de profesores y alumnos durante la impartición de los cursos. -Generar un reporte final del uso del MOOC del periodo.
metadata.dc.description.goals: Primer año: Las metas que se pretenden alcanzar durante el primer año del proyecto son las siguientes: 1) Contar con una infraestructura tecnológica para la implementación de un framework de procesamiento distribuido y paralelo de grandes volúmenes de datos. 2) Contar con material didáctico que sirva de guía para el aprendizaje sobre procesos y herramientas utilizados en Big Data. 2.1.- Un Tutorial tipo manual para el curso de conceptos de Big Data y temas relacionados. 2.2.- Un cuaderno de prácticas para los talleres intersemestrales. 3) Se impartirán dos cursos en los periodos intersemestrales sobre procesos y herramientas utilizados en Big Data 4) Impartir dos talleres prácticos, uno por cada uno de los semestres del periodo anual, con las temáticas del uso de herramientas utilizadas para la ingesta, almacenamiento, procesamiento y análisis de datos en Big Data 5) Se implementará un MOOC utilizando los recursos y herramientas disponibles en el dominio aragon.unam.mx, que sirva como un repositorio en línea de los temas impartidos en los cursos y talleres propuestos. 6) Se implementará una página web para la publicación de los materiales: El tutorial tipo manual y el cuaderno de prácticas en formato digital. Segundo año: Las metas que se pretenden alcanzar durante el segundo año del proyecto son las siguientes: 1) Se impartirán dos cursos en los periodos intersemestrales sobre procesos y herramientas utilizados en big data 2) Se impartir dos talleres prácticos, uno por cada uno de los semestres del periodo anual, con las temáticas del uso de herramientas utilizadas para la ingesta, procesamientos y análisis de datos en big data 3) Presentar el proyecto y sus productos entregables en un simposio y un congreso (preferentemente internacional) afines al área 4) Escribir un artículo sobre el desarrollo del proyecto y publicarlo en una publicación arbitrada
metadata.dc.description.selfAssessment: Se alcanzaron los objetivos propuestos, todos los productos fueron desarrollados con resultados satisfactorios que impactan positivamente a la preparación académica de los alumnos de nivel licenciatura de la UNAM que se inscribieron a los cursos y talleres que se impartieron en ambos periodos. Se cumplió con el objetivo principal el cuál consiste en suplir una deficiencia en infraestructura para la enseñanza aprendizaje de temas de Big data en la FES Aragón; y al mismo tiempo formar alumnos y profesores expertos en esta área con un enfoque teórico-práctico, cuya demanda en la industria se ha incrementado notoriamente en los últimos años. Hoy en día en la FES Aragón se cuenta con una comunidad académica con conocimientos en Big Data, se tienen casos de alumnos que una vez que tomaron nuestros cursos pudieron aplicar para ofertas de trabajo y académicas en Big Data exitosamente. Estos resultados son el principio, se pretende fortalecer y complementar los productos resultantes del actual proyecto PAPIME, mantener la comunidad ya creada y avanzar al siguiente nivel de conocimiento necesario, agregando nuevas herramientas Big Data.
metadata.dc.description.goalsAchieved: Configuración de una imagen máquina virtual propia, basada en el sistema operativo Ubuntu con un cluster uninodo basado en el entorno Hadoop y las herramientas de ingesta y procesamiento de datos que se usan para los cursos y talleres y está disponible para distribucion libre para los alumnos y académicos de nivel licenciatura de la UNAM. Construcción de un cluster físico para el procesamiento de datos masivos utilizando placas Raspberry pi 4 como nodos de datos y un entorno de hadoop propio configurado particularmente para este proyecto, disponible para uso de alumnos y académicos de nivel licenciatura de la UNAM en proyectos académicos. Generación de Material didáctico intregrado por un manual para el curso de conceptos de Big Data y temas relacionados, un Manual del participante para el curso de introducción a Big Data integrado 2 módulos, 15 secciones, 14 evaluaciones, 68 páginas, un cuaderno de prácticas integrado por seis prácticas las cuales abarcan los temas Hadoop, HDFS, MapReduce, Apache Hive, Apache Sqoop, Apache Flume, Apache Flume y HUE. Inscripción de 99 alumnos en las diversas ediciones del curso “Big Data, introducción, entorno y herramientas” y del Taller práctico “Introducción a Big Data”. Diseño, construcción y publicación de un MOOC de autoaprendizaje con el contenido del curso “Big Data, introducción, entorno y herramientas” y acceso al cuaderno de práctica y a la imagen de máquina virtual con la configuración del entorno Hadoop para tratamiento de datos masivos. Presentación del trabajo de avance de investigación titulado “Implementación de un ecosistema de Big Data para el aprendizaje del uso de herramientas para el procesamiento de datos masivos dirigido a Alumnos de Ingeniería.” en el XIV Congreso Internacional Multidisciplinario de Investigación en la Facultad de Estudios Superiores Aragón de la UNAM. Presentación del artículo titulado “Big Data Processes and Tools Learning Environment for Bachelor's Degree Students in Computer Engineering.” en el Congreso Internacional Interdisciplinario de Energías Renovables, Mantenimiento Industrial, Mecatrónica e Informática (CIERMMI 2021) y publicación en la Revista de Tecnología y Educación. Tesis de maestría con título “Una guía para planear proyectos PAPIME basada en la metodología del PMI establecida en la guía PMBOK” la cual se encuentra en su versión final y en espera de concluir los trámites para examen de grado.
metadata.dcterms.provenance: Facultad de Estudios Superiores (FES) Aragón
metadata.dc.subject.DGAPA: Ciencias de la computación
metadata.dc.type: Proyecto PAPIME
metadata.dc.contributor.coresponsible: HERNANDEZ CABRERA, JESUS
Aparece en las colecciones: 1. Área de las Ciencias Físico Matemáticas y de las Ingenierías

Ficheros en este ítem:
No hay ficheros asociados a este ítem.


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.