Por favor, use este identificador para citar o enlazar este ítem: https://www.innovacioneducativa.unam.mx:8443/jspui/handle/123456789/6153
Título : Observación y exploración de las emociones generadas en el proceso de aprendizaje a través del estudio de las facciones faciales.
Autor : RAMIREZ REIVICH, ALEJANDRO CAUAHTEMOC
CORONA LIRA, MARIA DEL PILAR
Fecha de publicación : 2018
Resumen : Como resultado de una de las investigaciones realizadas con anterioridad, la presente propuesta plantea el estudio in situ de las emociones generadas en el proceso de aprendizaje a través del estudio de las facciones faciales de los alumnos involucrados en la clases de Introducción a la Ingeniería mecánica, Diseño del Producto, Diseño de elementos de máquinas e Ingeniería de Diseño. Lo anterior con el fin de optimizar la incorporación del conocimiento en las prácticas de diseño llevadas a cabo por los estudiantes de la Facultad de Ingeniería de la UNAM, utilizando herramientas tecnológicas como la visión artificial y el uso de algoritmos.
URI : http://132.248.161.133:8080/jspui/handle/123456789/6153
metadata.dc.contributor.responsible: RAMIREZ REIVICH, ALEJANDRO CAUAHTEMOC
metadata.dc.coverage.temporal: 2018-2019
metadata.dcterms.educationLevel.SEP: Licenciatura
metadata.dc.description.objective: a) Explorar y delimitar las emociones generadas durante el proceso de aprendizaje a través del estudio de sus facciones faciales durante la interacción entre ellos mismos, el profesor, y los objetos de conocimiento manejados en el aula. b) Diseñar un modelo de instrumentación portátil de un aula para la observación y captura de imágenes correspondientes a las expresiones faciales y corporales (verbales y no verbales) de un grupo de alumnos en el proceso de aprendizaje de las materias de “Introducción a la Ingeniería Mecánica”, “Diseño del producto”, “Diseño de elementos de máquinas” e “Ingeniería de Diseño”. c) Delimitar secuencias de aprendizaje en el aula para su posterior exploración y análisis. d) Construir una base de datos con imágenes gestuales que permitan construir parámetros de categorización y análisis de las emociones expresadas en gestos, movimientos oculares y lenguaje corporal. e) Interpretación de los indicios no verbales. f) Diseñar y elaborar métricas para evaluar el nivel de concentración del alumnado en vinculación con el tema o la actividad desarrollada en clase durante el momento de la toma de imágenes gestuales. g) Entender e identificar los momentos de mayor creatividad durante las actividades en el aula mediante el análisis y triangulación de la información obtenida. h) Diseñar una aplicación digital que contribuya a la generación del material necesario para brindar a los alumnos herramientas que favorezcan el desarrollo de su propio proceso de diseño. i) Difundir los resultados obtenidos por medio de la publicación de un artículo en una revista o en un congreso a nivel nacional.
metadata.dc.description.hypothesis: a) La evaluación y caracterización de las facciones faciales puede servir como métodos para identificar el nivel de aprendizaje de los alumnos. b) El uso de la visión artificial permite el estudio objetivo de elemntos considerados hasta el momento como subjetivos y difíciles de caracterizar y evaluar, como es el caso de las gesticulaciones faciales y las emociones. c) En el ámbito de la visión artificial, los algoritmos pueden ser entrenados para detectar elementos emocionales vinculados al proceso enseñanza-aprendizaje, logrando cuantificar y determinar rasgos de la conducta que indiquen diferencias en las etapas de un mismo proceso. c) Si logramos generar métricas para cuantificar el nivel de interés, la creatividad, así como los tiempos y las emociones involucradas en la solución de problemas en el aula, seremos capaces de desarrollar herramientas que detonen el potencial innovador de los alumnos, así como replantear cambios en la imparticipación de la docencia o los programas de estudio. Esto con miras a impactar, en un futuro, en los índices de desarrollo de tecnología e innovación.
metadata.dc.description.strategies: El presente proyecto pretende el uso de este tipo de tecnologías recientes en materia de detección facial, no sólo para generar métricas del nivel de interés de los alumnos, sino también para observar y explorar las emociones involucradas en la asimilación e incorporación del conocimiento adquirido en el aula a través de la captura, procesamiento y análisis de sus expresiones faciales. Lo anterior, permitirá definir secuencias de aprendizaje y vincularlas con los elementos no verbales manifestados por los alumnos. El aprendizaje automático es un tipo de inteligencia artificial (AI) que proporciona a las computadoras la capacidad de aprender, sin ser programadas explícitamente. El aprendizaje profundo, también llamado redes neuronales profundas, es una de las ramas del aprendizaje automático. Éste último se había propuesta desde la década de los sesenta, pero se dejó de lado por la falta de recursos de cómputo adecuados. Es a partir del año 2010 gracias a los avances en materia de cómputo, que se retoma este tipo de aprendizaje. La visión artificial es una de las áreas donde el Aprendizaje Profundo proporciona una mejora considerable en comparación con algoritmos más tradicionales. Actualmente para problemas de visión artificial en aprendizaje profundo, como el reconocimiento de imágenes, se utilizan las Redes Neuronales Convolucionales debido a gran su tasa de éxito. Las Redes Neuronales Convolucionales son muy similares a las redes neuronales ordinarias. La diferencia es que este tipo de redes trabajan modelando de forma consecutiva pequeñas piezas de información, donde en cada capa se extrae y procesa información útil para una siguiente capa, de tal forma que es capaz de obtener como resultado un aprendizaje minucioso de la información de entrada y poder extraer conclusiones relevantes. Por ejemplo, la primera capa detectará ciertos patrones que den lugar al objeto que se quiere detectar y las capas más profundas tratarán de combinar esos patrones para detectar la posición, iluminación o patrones más específicos que ayuden a reconocer al objeto deseado. Las capas finales tratarán de hacer coincidir la imagen de entrada con los patrones detectados en las capas intermedias para realizar una predicción del reconocimiento del objeto. En el ámbito de la visión artificial para que los algoritmos aprendan a detectar objetos y patrones en las imágenes de forma automática, han de entrenarse previamente con un conjunto grande de imágenes etiquetadas, llamadas clases. En nuestro caso significa que debemos de tener una base de datos (imágenes) donde nosotros calificaremos y etiquetaremos las imágenes muestra que le indicarán al algoritmo a que clase pertenece la imagen mostrada. Esta base de datos se estará desarrollando y mejorando con el tiempo, debido a la documentación y grabación de video de los alumnos en las clases a observar. Con esta información se entrenará a la red neuronal convolucional y se verá su desempeño en el entrenamiento, en la validación y en la prueba del modelo. Para probar nuestro modelo, es decir la red neuronal, se le deberán mostrar un conjunto de imágenes de las mismas clases pero que no hayan sido utilizadas en el entrenamiento. Con ese conjunto de imágenes se podrá saber la precisión de nuestro modelo al reconocer imágenes nuevas. Esto significa que se pondrán en práctica varios modelos de aprendizaje profundo, entrenando al modelo no solo con los datos obtenidos de la observación sino con datos de otras bases de datos que puedan ser útiles para el estudio. Se realizará una evaluación del modelo cada cierto tiempo para evaluar el desempeño y mejorarlo, además de ir incrementando la cantidad de información de nuestra base de datos para obtener un mejor entrenamiento después de cada evaluación. Para desarrollar los modelos, se utilizará el software Tensorflow con el lenguaje de programación Python 3.5. Tensorflow es una biblioteca de código abierto para aprendizaje autómatico desarrollado por Google. Es actualmente una de las plataformas más populares para construir y entrenar redes neuronales. Tensorflow es capaz de ejecutarse en varios CPU y GPU y está disponible en todas las plataformas, de escritorio y móviles. Por otro, la información recabada por este sistema será triangulada con la obtenida por medio de métodos cualitativos de investigación social, como encuestas, entrevistas a profundidad, obervación participante, entre otras. Asimismo, se llevará a cabo la caracterización de las interacciones sociales y de las secuencias de aprendizaje como resultado de las mismas.
Observar, entender, caracterizar y evaluar las facciones faciales de diversos grupos de alumnos de la Facultad de Ingeniería como método para identificar el nivel de aprendizaje.
metadata.dc.description.goals: De acuerdo a la descripción de Paul Ekman, existen seis emociones básicas las cuales han adquirido un estatus especial dentro de la comunidad científica: enojo, disgusto, miedo, felicidad, tristeza y sorpresa. Se ha tratado de analizar éstas para mejorar la interacción humano máquina en los últimos años, tratando de que la máquina identifique estas emociones y modifique su comportamiento dependiendo la emoción del usuario, permitiendo que esta relación/interacción se produzca de manera natural. Siendo así, se decidió utilizar como herramienta la Inteligencia Artificial para ayudar a analizar el comportamiento no verbal en las aulas de la Facultad de Ingeniería. Dentro del contexto de la Inteligencia Artificial, se enmarca el Machine Learning o Aprendizaje de Máquina, que tiene como principio el aprendizaje humano. La idea principal está basada en crear programas capaces de aprender información no estructurada en forma de ejemplos o mejor dicho, en la creación de modelos analíticos de forma automática. El Aprendizaje de Máquina y el Aprendizaje Profundo en combinación con la proliferación de Big Data, presentan interesantes propuestas y soluciones a problemas presentes en varios campos de aplicación, sobre todo en lo referente a Visión por Computadora. De este modo, fue posible alcanzar las siguientes metas: a) Diseño conceptual de un modelo de instrumentación portátil propuesto por el equipo de trabajo, el cual une la visión por computadora y el Aprendizaje de Máquina para la recolección y procesamiento de imágenes (rostros de los alumnos) para lograr el objetivo explorar las facciones faciales de los alumnos en las aulas. b) Elaboración de métricas que permiten, en lo general, evaluar el nivel de atención-concentración de los alumnos en el aula de clases. c) Diseño de una aplicación digital que proporciona herramientas a los alumnos para la solución de problemas de diseño y fomenta la innovación en el mismo, como producto de las observaciones de obtención de información en el contexto universitarios. d) Realización de una manual de apoyo que responde tanto a los requerimientos observados y análisis de la infomación del contexto del alumno, como con algunos de los objetivos de la materia "Ingeniería Mecánica". Éste, resalta de forma clara aquellas etapas del proceso de diseño que se consideran clave en el proceso de desarrollo de proyectos y para la innovación de productos. Como resultado del proyecto se encontró que las actividades relacionadas con la solución de retos de diseño fomenta la creatividad de los alumnos y estimula procesos de neuroaprendizaje profundo (como se detalla más adelante). e) Desarrollo y presentación del artículo titulado “Explorando métricas afectivas y emocionales en aulas universitarias: un estudio de desarrollo y validación”, el cual fue presentado en el XXIV Congreso Internacional Anual de la Sociedad Mexicana de Ingeniería Mecánica y está publicado en las Memorias de dicho congreso.
metadata.dc.description.selfAssessment: Durante el desarrollo del proyecto se buscó la manera más óptima de explorar y delimitar las emociones generadas durante el proceso de aprendizaje a través del estudio de las facciones faciales de los alumnos en el contexto del saón de clase, sin embargo, esto no fue tarea fácil. Se consideró una muestra constituida por alumnos universitarios que cursan los primeros semestres de la Facultad de Ingeniería de la UNAM, a la cual se grabó (con consentimiento del alumno y el profesor), entrevistó y encuestó para obtener información de corte cualitativo útil para el estudio y de gran ayuda para el entrenamiento del modelo de Aprendizaje Profundo. El desarrollo de un modelo de instrumentación portátil sirvió como primer acercamiento para la obtención de datos in situ, y esto permitió alcazar las metas planteadas y los objetivos delimitados al inicio del proyecto de manera exploratoria y general: explorarar y caracterizar emociones, identificar momentos de mayor creatividad, ver secuencias de aprendizaje, analizar en forma general indicios de lenguaje no verbal y diseñar herramientas que contribuyan no sólo a la formación profesional de los alumnos en términos de conocimiento adquirido, sino también a la generación de contextos creativos y al desarrollo de proyectos innovadores basados en procesos de diseño bien caracterizados y justificados. Sin embargo, el equipo encontró varias limitantes que afectaron algunos alcances del proyecto. Entre las mayores limitantes se encuentran las condiciones específicas de las aulas universitarias. La iluminación, el tamaño del aula, el diseño del aula y la configuración de los asientos son grandes factores que afectan al observar los rostros de los alumnos; así como también el lugar dónde se colocaba la cámara, el factor psicológico en los alumnos de saber que están siendo grabados (lo cual los llevaba a cubrir parcialemente su rostro con sus manos), la temporalidad del semestre (período de evaluaciones). Inclusive, algunos alumnos y profesores que se mostraron renuentes a ser grabados debido a temas de confidencialidad de los datos. Estos factores implican dificultades de las cuales no es posible tener un control y afectaron la obtención de imágenes de calidad. Otro factores importantes es que las emociones reportadas en la literatura para detección de emociones via Visión por computadora, no se adapta del todo a este proyecto. Es muy delgada la línea entre una cara neutral y una cara de aburrimiento. O también, una cara de concentración y una neutral. Igualmente, una cara de confusión pudiera llegar a confundirse con una de tristeza, entro otros ejemplos. Esto llevó al equipo a determinar que tal vez no debería de centrarse el estudio en las emociones como tal reportadas en la literatura, sino que debido a las dinámicas en el aula deberíamos enfocarnos en los estados de ánimo de los alumnos. El equipo definió aburrimiento, somnolencia, distracción, alegría, concentración y atención.
metadata.dc.description.goalsAchieved: a) Diseño de un modelo de instrumentación portátil de un aula para la observación y captura de imágenes correspondientes a las expresiones faciales y corporales. b) Elaboración de métricas para evaluar el nivel de concentración del alumnado. c) Diseño de una aplicación digital que contribuya a la generación del material necesario para brindar a los alumnos herramientas que favorezcan el desarrollo de su propio proceso de diseño. d) Producción de material de apoyo (tipo manual) para los estudiantes de la materia "Introducción a la Ingeniería Mecánica". e) Elaboración de un artículo para la difusión de los resultados del proyecto en una revista o un congreso nacional.
metadata.dcterms.provenance: Facultad de Ingeniería
metadata.dc.subject.DGAPA: Ingenierías
metadata.dc.type: Proyecto PAPIME
metadata.dc.contributor.coresponsible: CORONA LIRA, MARIA DEL PILAR
Aparece en las colecciones: 1. Área de las Ciencias Físico Matemáticas y de las Ingenierías

Ficheros en este ítem:
No hay ficheros asociados a este ítem.


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.