Por favor, use este identificador para citar o enlazar este ítem: https://www.innovacioneducativa.unam.mx:8443/jspui/handle/123456789/7528
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.coverage.spatialMéxico-
dc.coverage.temporal2020-2022-
dc.date.accessioned2023-12-05T00:41:13Z-
dc.date.available2023-12-05T00:41:13Z-
dc.date.issued2020-
dc.identifier.urihttps://www.innovacioneducativa.unam.mx:8443/jspui/handle/123456789/7528-
dc.description.abstractEn la actualidad una de las carreras con mayor futuro y empuje es la carrera de ciencia de datos, de la cual la FES Aragón es partícipe, actualmente la carrera de ingeniería en computación, no se cuenta con una infraestructura para el procesamientos de grandes volúmenes de datos ni con cursos específicos para el área. Existen proyectos en la facultad de diferentes disciplinas, como ingeniería Mecánica, ingeniería Electrónica, ingeniería Industrial, ingeniería Civil, Derecho, que requieren procesamiento de información tipo big data, y que provienen de distintas problemáticas como impacto urbano, proyecto de baches, tránsito municipal, líneas de producción industrial, seguimiento de redes sociales. La principal problemática es que en la FES Aragón no se cuenta con materiales didácticos para la enseñanza aprendizaje de herramientas, procesos y entornos Big Data, por ejemplo: Prácticas de laboratorio, Manuales de instalación y/o configuración de un entorno Big Data, Memorias o notas de las tecnologías relacionadas con el tema. El objetivo principal del proyecto es la generación de materiales didácticos, cursos, talleres y manuales para la configuración y explotación de entornos big data; y como un segundo objetivo, se pretende sentar las bases para iniciar una línea de investigación relacionada con los paradigmas de programación y tratamiento de datos en el área de big data; así como la aplicación de conceptos de ingeniería de software y de bases de datos en la realización de soluciones Big Data.-
dc.description.sponsorshipDirección General de Asuntos del Personal Académico (DGAPA)-
dc.languagees-
dc.rightsTodos los derechos son propiedad de la Universidad Nacional Autónoma de México (UNAM)-
dc.titleTaller y entorno de aprendizaje de procesos y herramientas de big data para alumnos de las licenciaturas en ingeniería en computación y ciencia de datos-
dc.typeProyecto PAPIME-
dcterms.bibliographicCitationMENDOZA GONZALEZ, OMAR ; HERNANDEZ CABRERA, JESUS. (2020). Taller y entorno de aprendizaje de procesos y herramientas de big data para alumnos de las licenciaturas en ingeniería en computación y ciencia de datos. (Proyecto PAPIME). Dirección General de Asuntos del Personal Académico (DGAPA). UNAM. México.-
dcterms.educationLevelnivel superior-
dcterms.provenanceFacultad de Estudios Superiores (FES) Aragón-
dc.identifier.papimePE105720-
dc.subject.keywordsAmbiente virtual-
dc.subject.keywordsBigdata-
dc.subject.keywordsCiencia de datos-
dc.subject.keywordsCursos Big Data-
dc.subject.keywordsHadoop-
dc.subject.keywordsProcesamiento-
dc.subject.keywordsTaller de datos-
dc.contributor.responsibleMENDOZA GONZALEZ, OMAR-
dc.contributor.coresponsibleHERNANDEZ CABRERA, JESUS-
dc.description.objectiveObjetivo general: Generar un entorno de enseñanza-aprendizaje de los procesos, herramientas y tecnologías Big Data, soportados por entregables concretos como son talleres, cursos, material didáctico, recursos en línea y un entorno de trabajo en la nube con la implementación de un framework de procesamiento distribuido y paralelo de grandes volúmenes de datos, disponible para alumnos y académicos de nivel licenciatura de la UNAM. Objetivos específicos: "- Implementación de un framework de procesamiento distribuido y paralelo de grandes volúmenes de datos. - Elaborar material didáctico que sirva de guía para el aprendizaje sobre procesos y herramientas utilizados en big data. - Impartir cursos periódicos sobre procesos y herramientas utilizados en Big Data. - Impartir talleres prácticos del uso de herramientas utilizadas en Big Data. - Implementar un MOOC (Massive Online Open Courses) que sirva como un repositorio en línea de los temas impartidos en los cursos y talleres propuestos."-
dc.description.strategiesA continuación se presenta las directrices a seguir para la realización del Proyecto a) Búsqueda de información en bases de datos y artículos científicos arbitrados, así como en los sitios oficiales de fabricantes y organizaciones que administre el desarrollo de herramientas para big data a fin de actualizar el contenido del marco teórico de cada uno de los curso y talleres a diseñar, así como de las aplicaciones de los conceptos de big data en general. b) Desarrollo del contenido de los curso y talleres y de los temas que integrarán el material didáctico y los recurso en línea . -Se analizará y seleccionará el material del punto a) para establecer el estado del arte referente a la creación de un framework de trabajo para Big Data. -Se generará un reporte técnico de las características con las cuales debe contar el framework. -En base a esta información, Se delimitará la configuración ideal para las metas del año 1 y las metas del año 2. c) Contratación de los servicios de cómputo en la nube en donde se implementará el framework de trabajo para big data. -Análisis de factibilidad de tecnologías. -Selección de la tecnología que ofrezca la mejor opción de costo beneficio. -Contratación del servicio. d) Configuración del framework de trabajo para big data -Creación de cluster de computadoras. -Creación de recurso de almacenamiento(Storage). -Instalación de software e) Pruebas de operación del framework de trabajo para big data -Análisis de los casos de prueba. -Configuración de los entornos de prueba. -Ejecución de los casos de prueba para la generación de material didáctico. -Escritura de reporte técnico de las pruebas de operación. f) Generación del material didáctico, que se incluirá en el repositorio de recursos digitales g) Impartir los curso y talleres presenciales. -Programación de los talleres y cursos con el apoyo de la división de las Ciencias Físico-Matemáticas de la Facultad y la carrera de Ingeniería en Computación. -Solicitar sala de cómputo con conexión a internet para tener acceso al Framework Big Data. -Publicar la convocatoria para que los alumnos se inscriban. -Preparar la sala de cómputo con el software cliente para acceso al Framework. -Impartir los cursos y talleres en las fechas establecidas previamente. h) Para el recurso MOOC: -Realizar un análisis de requerimientos del sistema para cursos masivos en línea. - Seleccionar la plataforma para instalar y configurar el sistema MOOC. - Instalar y configurar el sistema MOOC. - Crear los cursos en línea. - Publicar en dicho sistema los materiales didácticos para la impartición del curso y taller de Big Data. - Administración de profesores y alumnos durante la impartición de los cursos. -Generar un reporte final del uso del MOOC del periodo.-
dc.description.goalsPrimer año: Las metas que se pretenden alcanzar durante el primer año del proyecto son las siguientes: 1) Contar con una infraestructura tecnológica para la implementación de un framework de procesamiento distribuido y paralelo de grandes volúmenes de datos. 2) Contar con material didáctico que sirva de guía para el aprendizaje sobre procesos y herramientas utilizados en Big Data. 2.1.- Un Tutorial tipo manual para el curso de conceptos de Big Data y temas relacionados. 2.2.- Un cuaderno de prácticas para los talleres intersemestrales. 3) Se impartirán dos cursos en los periodos intersemestrales sobre procesos y herramientas utilizados en Big Data 4) Impartir dos talleres prácticos, uno por cada uno de los semestres del periodo anual, con las temáticas del uso de herramientas utilizadas para la ingesta, almacenamiento, procesamiento y análisis de datos en Big Data 5) Se implementará un MOOC utilizando los recursos y herramientas disponibles en el dominio aragon.unam.mx, que sirva como un repositorio en línea de los temas impartidos en los cursos y talleres propuestos. 6) Se implementará una página web para la publicación de los materiales: El tutorial tipo manual y el cuaderno de prácticas en formato digital. Segundo año: Las metas que se pretenden alcanzar durante el segundo año del proyecto son las siguientes: 1) Se impartirán dos cursos en los periodos intersemestrales sobre procesos y herramientas utilizados en big data 2) Se impartir dos talleres prácticos, uno por cada uno de los semestres del periodo anual, con las temáticas del uso de herramientas utilizadas para la ingesta, procesamientos y análisis de datos en big data 3) Presentar el proyecto y sus productos entregables en un simposio y un congreso (preferentemente internacional) afines al área 4) Escribir un artículo sobre el desarrollo del proyecto y publicarlo en una publicación arbitrada-
dc.description.goalsAchievedConfiguración de una imagen máquina virtual propia, basada en el sistema operativo Ubuntu con un cluster uninodo basado en el entorno Hadoop y las herramientas de ingesta y procesamiento de datos que se usan para los cursos y talleres y está disponible para distribucion libre para los alumnos y académicos de nivel licenciatura de la UNAM. Construcción de un cluster físico para el procesamiento de datos masivos utilizando placas Raspberry pi 4 como nodos de datos y un entorno de hadoop propio configurado particularmente para este proyecto, disponible para uso de alumnos y académicos de nivel licenciatura de la UNAM en proyectos académicos. Generación de Material didáctico intregrado por un manual para el curso de conceptos de Big Data y temas relacionados, un Manual del participante para el curso de introducción a Big Data integrado 2 módulos, 15 secciones, 14 evaluaciones, 68 páginas, un cuaderno de prácticas integrado por seis prácticas las cuales abarcan los temas Hadoop, HDFS, MapReduce, Apache Hive, Apache Sqoop, Apache Flume, Apache Flume y HUE. Inscripción de 99 alumnos en las diversas ediciones del curso “Big Data, introducción, entorno y herramientas” y del Taller práctico “Introducción a Big Data”. Diseño, construcción y publicación de un MOOC de autoaprendizaje con el contenido del curso “Big Data, introducción, entorno y herramientas” y acceso al cuaderno de práctica y a la imagen de máquina virtual con la configuración del entorno Hadoop para tratamiento de datos masivos. Presentación del trabajo de avance de investigación titulado “Implementación de un ecosistema de Big Data para el aprendizaje del uso de herramientas para el procesamiento de datos masivos dirigido a Alumnos de Ingeniería.” en el XIV Congreso Internacional Multidisciplinario de Investigación en la Facultad de Estudios Superiores Aragón de la UNAM. Presentación del artículo titulado “Big Data Processes and Tools Learning Environment for Bachelor's Degree Students in Computer Engineering.” en el Congreso Internacional Interdisciplinario de Energías Renovables, Mantenimiento Industrial, Mecatrónica e Informática (CIERMMI 2021) y publicación en la Revista de Tecnología y Educación. Tesis de maestría con título “Una guía para planear proyectos PAPIME basada en la metodología del PMI establecida en la guía PMBOK” la cual se encuentra en su versión final y en espera de concluir los trámites para examen de grado.-
dc.description.area1. Área de las Ciencias Físico Matemáticas y de las Ingenierías-
dc.description.selfAssessmentSe alcanzaron los objetivos propuestos, todos los productos fueron desarrollados con resultados satisfactorios que impactan positivamente a la preparación académica de los alumnos de nivel licenciatura de la UNAM que se inscribieron a los cursos y talleres que se impartieron en ambos periodos. Se cumplió con el objetivo principal el cuál consiste en suplir una deficiencia en infraestructura para la enseñanza aprendizaje de temas de Big data en la FES Aragón; y al mismo tiempo formar alumnos y profesores expertos en esta área con un enfoque teórico-práctico, cuya demanda en la industria se ha incrementado notoriamente en los últimos años. Hoy en día en la FES Aragón se cuenta con una comunidad académica con conocimientos en Big Data, se tienen casos de alumnos que una vez que tomaron nuestros cursos pudieron aplicar para ofertas de trabajo y académicas en Big Data exitosamente. Estos resultados son el principio, se pretende fortalecer y complementar los productos resultantes del actual proyecto PAPIME, mantener la comunidad ya creada y avanzar al siguiente nivel de conocimiento necesario, agregando nuevas herramientas Big Data.-
dcterms.educationLevel.SEPLicenciatura-
dcterms.callforproject2020-
dc.subject.DGAPACiencias de la computación-
dc.description.productsMOOC (cursos online masivos y abiertos).MOOC para los cursos, talleres y distribución de contenido producido en el proyecto: Actualmente se tiene una versión completa del MOOC Todo el contenido del MOOC basado en el manual Herramienta de autoevaluación Calificación de la autoevaluación Seccion de administración de cursos El MOOC está desarrollado con las siguientes herramientas Lenguaje PHP y Framework Laravel Base de datos MySql HTML5 Bootstrap Se encuentra publicado en la siguiente dirección http://ingenieria.aragon.unam.mx/papime105720/-
dc.description.productsTaller.Taller 1.- Para el uso del framework de procesamiento distribuido y paralelo de grandes volúmenes de datos: El temario del taller práctico es el siguiente Introducción a Big Data Apache Hadoop Ecosistema Hadoop HDFS Mapreduce Hive Flume Sqoop Instalación de Hadoop Instalación de las herramientas del ecosistema Hadoop -Se han impartido dos ediciones del taller en los siguientes periodos 8 de abril al 31 de julio de 2020 algunas de las sesiones fueron en formato remoto en dos horarios, de 11:00 a 13:00 y el segundo grupo de 17:00 a 19:00 horas los días viernes. -Este taller permitió obtener las primeras versiones del manual de usuario y del cuaderno de prácticas y la capacitación de los alumnos que participan como becarios en el proyecto.-
dc.description.productsCurso.Curso 2.- teórico práctico Big Data para la extracción de información para la toma de decisiones: En el intersemestral 2021-2 se impartió la cuarta versión del curso en el periodo del 09 al 13 de agosto 2021 con un total de 19 alumnos inscritos de los cuales solo 15 cubrieron los requisitos para obtener la constancia.-
dc.description.productsCurso.Curso 1.- Curso teórico Big Data para la extracción de información para la toma de decisiones.: - Se han llevado a cabo tres ediciones del curso “Big Data, introducción, entorno y herramientas” en los siguientes periodos En el intersemestral 2020-1 se impartieron en dos grupos diferentes en los periodos del 24 al 28 de agosto y del 31 de agosto al 4 de septiembre con una asistencia de 15 alumnos por grupos. En el intersemestral 2020-2 se impartió la tercer versión del curso en el periodo del 08 al 12 de febrero con un total de 29 inscritos de los cuales solo 20 cubrieron los requisitos para obtener la constancia-
dc.description.productsTaller.Taller 2.- Para el uso del framework de procesamiento distribuido y paralelo de grandes volúmenes de datos: El temario del taller práctico es el siguiente Introducción a Big Data Apache Hadoop Ecosistema Hadoop HDFS Mapreduce Hive Flume Sqoop Instalación de Hadoop Instalación de las herramientas del ecosistema Hadoop -Se impartió el taller en el periodo del 9 al 13 de agosto de 2021.-
dc.description.productsTutorial (manual, guía, etc.).Manual técnico para la implementación(Instalación y configuración) de tecnologías para el uso de Big Data: Configuración del entorno de trabajo para Big Data, consistente en una instancia de máquina virtual que contiene la configuración del framework y las herramientas a utilizar. Descarga el ISO de Ubuntu 18.04. Dirección: https://releases.ubuntu.com/18.04/ubuntu-18.04.6-desktop-amd64.iso Descarga de Hadoop versión 3.1.3. https://hadoop.apache.org/release/3.1.3.html Apache Sqoop 1.4.7. https://downloads.apache.org/sqoop/1.4.7/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz Apache Flume 1.9. https://downloads.apache.org/flume/1.9.0/apache-flume-1.9.0-bin.tar.gz Apache Hive 3.1.2. https://downloads.apache.org/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz HUE 4.1. https://github.com/cloudera/hue/archive/refs/tags/release-4.10.0.zip MySQL 5.1.45 conector para java. https://cdn.mysql.com//Downloads/Connector-J/mysql-connector-java-5.1.49.tar.gz-
dc.description.productsPráctica.Material didáctico para los talleres: -Un cuaderno de prácticas integrado por seis prácticas las cuales abarcan: Familiarización con el entorno HDFS, y el algoritmo mapreduce Introducción a HDFS Introducción al algoritmo MapReduce Entender el funcionamiento de MapReduce y HDFS Apache Hive Uso del entorno Apache Hive Ejemplo con una tabla basada en el formato csv Ejemplo con una tabla basada en el formato avro Apache Sqoop Introducción a la herramienta Apache Sqoop Ejemplo de ingesta de datos desde bases de datos relacionales Apache Sqoop Ejemplos de los diferentes comandos de Sqoop Apache Flume Introducción a Flume Ingesta de datos con agentes flume Escritura de datos HDFS con agentes flume Apache Flume y HUE Fragmentación de datos con agentes flume Familiarización con el entorno HUE.-
dc.description.productsTutorial (manual, guía, etc.).Guia, Material didáctico para cursos: -Un Tutorial tipo manual para el curso de conceptos de Big Data y temas relacionados. -Manual del participante para el curso de introducción a Big Data integrado por los siguientes elementos 2 módulos 15 secciones 14 evaluaciones 68 páginas.-
dc.description.productsPlataforma digital.Un framework de procesamiento distribuido y paralelo de grandes volúmenes de datos.: La disponibilidad de una imagen máquina virtual basada en el entorno Hadoop y las herramientas de ingesta y procesamiento de datos masivos la comunidad académica de nivel licenciatura de la UNAM. Existencia de un cluster físico para el procesamiento de datos masivos al que pueden acceder los alumnos inscritos en los cursos y talleres de este proyecto PAPIME que deseen realizar practicas del tema y/o los académicos con alguna necesidad de Big Data con previa solicitud. Publicación de Material didáctico y un cuaderno de prácticas para que los interasados en los temas Hadoop, HDFS, MapReduce, Apache Hive, Apache Sqoop, Apache Flume, Apache Flume y HUE puedan consultarlo mediante la inscripción a un MOOC. Capacitación de alumnos y académicos interesados en temas BigData en la FES Aragón en especial y en la comunidad UNAM en general.-
dc.description.objectivesAchievedTodos los objetivos planteados en el proyecto fueron cubiertos y puestos en operación los cuales incluye: Primer Año 1.- Infraestructura tecnológica. Construcción de un cluster físico utilizando 8 placas Raspberry pi 4 y un entorno de hadoop propio configurado para este proyecto. Se cuenta con una imagen de máquina virtual para el Namenode y una imagen de máquina virtual para los datanodes y el cluster es funcional. -Una imagen máquina virtual está basada en el sistema operativo Ubuntu con un cluster uninodo basado en el entorno Hadoop y las herramientas de ingesta y procesamiento de datos que se usan para los cursos y talleres disponible para distribución a los alumnos. 2.- Material didáctico. -Un Tutorial tipo manual para el curso de conceptos de Big Data y temas relacionados. -Manual del participante para el curso de introducción a Big Data. -Un cuaderno de prácticas. 3.- Cursos intersemestrales. Se han realizado cuatro ediciones del curso “Big Data, introducción, entorno y herramientas” en los periodos intersemestrales: 2020-1, 2020-2, 2021-2 con un total de 99 alumnos inscritos. 4.- Talleres prácticos. El temario del taller práctico es el siguiente Introducción a Big Data. Apache Hadoop, Ecosistema Hadoop, HDFS, Mapreduce, Apache Hive, Apache Flume. Apache Sqoop.-Se han impartido dos ediciones del taller.-Este taller permitió obtener las primeras versiones del manual de usuario y del cuaderno de prácticas y la capacitación de los alumnos que participan como becarios en el proyecto. 5.- MOOC. Se tiene una versión completa del MOOC, todo el contenido del MOOC basado en el manual, Herramienta de autoevaluación, Calificación de la autoevaluación, Sección de administración de cursos, El MOOC está desarrollado con herramientas para un entorno WEB, Se encuentra publicado en: http://ingenieria.aragon.unam.mx/papime105720/ 6.- Página web para la publicación de los materiales. La página tiene acceso a los siguientes recursos: Curso Autogestionado, Material Didáctico http://ingenieria.aragon.unam.mx/papime105720/ Segundo año Cursos intersemestrales En el intersemestral 2020-2 se impartió la tercera versión. En el intersemestral 2021-2 se impartió la cuarta versión. Talleres práctico Presentación en la modalidad de avance de investigación el trabajo “Implementación de un ecosistema de Big Data para el aprendizaje del uso de herramientas para el procesamiento de datos masivos dirigido a Alumnos de Ingeniería.” en el XIV Congreso Internacional Multidisciplinario de Investigación en la FES Aragón, UNAM Presentación del artículo “Big Data Processes and Tools Learning Environment for Bachelor's Degree Students in Computer Engineering.” en el CIERMMI 2021 Este artículo fue publicado en la Revista de Tecnología y Educación con los siguientes datos título “Bigdata, Workshop, Education”. paginas 1-5, en Journal of Technology and Education, V-5 N-14, with ISSN: 2523-0360. Journal editado por ECORFAN-Mexico, 10.35429/JTAE.2021.14.5-
dc.description.outcomesLa disponibilidad de una imagen máquina virtual basada en el entorno Hadoop y las herramientas de ingesta y procesamiento de datos masivos la comunidad académica de nivel licenciatura de la UNAM. Existencia de un cluster físico para el procesamiento de datos masivos al que pueden acceder los alumnos inscritos en los cursos y talleres de este proyecto PAPIME que deseen realizar practicas del tema y/o los académicos con alguna necesidad de Big Data con previa solicitud. Publicación de Material didáctico y un cuaderno de prácticas para que los interasados en los temas Hadoop, HDFS, MapReduce, Apache Hive, Apache Sqoop, Apache Flume, Apache Flume y HUE puedan consultarlo mediante la inscripción a un MOOC. Capacitación de alumnos y académicos interesados en temas BigData en la FES Aragón en especial y en la comunidad UNAM en general.-
Aparece en las colecciones: 1. Área de las Ciencias Físico Matemáticas y de las Ingenierías

Ficheros en este ítem:
No hay ficheros asociados a este ítem.


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.