Rastreo de facciones como herramienta interactiva y detección del estado de ánimo del usuario
DOI:
https://doi.org/10.21830/19006586.25Palabras clave:
detección del estado emocional del usuario, expresiones faciales como una fuente de información del usuario, herramienta interactiva, interfaces de usuario 3D, rastreo de faccionesResumen
El rostro humano es uno de los canales de comunicación que permiten identificar de forma voluntaria o involuntaria información de los estados emocionales del usuario, como lo son el miedo, la rabia, la felicidad o la alegría. Las expresiones faciales han sido objeto de estudio desde antes de que la visión por computador fuese un área de interés; sin embargo, los avances recientes de la visión artificial han renovado el interés por el seguimiento digital de facciones del rostro humano para detectar los estados emocionales del usuario. En la actualidad las técnicas más comunes de seguimiento facial utilizan imágenes 2D y mapas de profundidad, pero debido a la masificación de interfaces de usuario 3D y gracias al auge de los videojuegos, es posible contar con sensores que realizan captura de movimiento con diferentes finalidades y prestaciones. En este proyecto desarrollamos una aplicación para la detección de expresiones faciales relacionadas con la incomodidad, en un escenario de trabajo frente al computador. Su objetivo es validar las expresiones del rostro, utilizando sensores de detección de visión artificial a partir de la forma tridimensional del rostro. Para validar los resultados realizamos un análisis comparativo utilizando sensores comerciales para valorar su potencial en el contexto de conservación y prevención de la salud ocupacional.
Descargas
Referencias bibliográficas
Amon, C. & Fuhrmann, F. (2014). Evaluation of the spatial resolution accuracy of the face tracking system for kinect for windows v1 and v2. Proceedings of the 6th Congress of the Alps Adria Acoustics Association.
DeVault, D., Artstein, R., Benn, G., Dey, T., Fast, E., Gainer, A. & Yu. (2014). SimSensei Kiosk: A virtual human interviewer for healthcare decision support. Proceedings of the 2014 international conference on Autonomous agents and multi-agent systems. (pp. 1061-1068).
Francese, R., Passero, I. & Tortora, G. (2012). Wiimote and Kinect: gestural user interfaces add a natural third dimension to HCI. Proceedings of the International Working Conference on Advanced Visual Interfaces. (pp. 116-123). ACM.
https://doi.org/10.1145/2254556.2254580
González-Ortega, D. D.-P.-Z., Antón-Rodríguez, M., Díez-Higuera, J. & Boto-Giralda, D. (2010). Real-time hands, face and facial features detection and tracking: Application to cognitive rehabilitation tests monitoring. Journal of Network and Computer Applications, 33(4), 447-466.
https://doi.org/10.1016/j.jnca.2010.02.001
Lahajnar, F., Pernuš, F. & Kovačič, S. (2002). Machine vision system for inspecting electric plates. Computers in industry, 47(1), 113-122.
https://doi.org/10.1016/S0166-3615(01)00134-8
Matsumoto, Y., & Zelinsky, A. (2000). An algorithm for real-time stereo vision implementation of head pose and gaze direction measurement. Automatic Face and Gesture Recognition, 2000. Proceedings. Fourth IEEE International Conference on (pp. 499-504). IEEE.
https://doi.org/10.1109/afgr.2000.840680
Mehdi, Y. (Fevereiro de 2013). Xbox Execs Talk Momentum and the Future of TV. Fonte: Microsoft news center. From http://news.microsoft.com/2013/02/11/xbox-execs-talkmomentum-and-the-future-of-tv/
Otto, J. & Webber, B. (2013). Mental health diagnoses and counseling among pilots of remotely piloted aircraft in the United States Air Force. Medical Surveillance Monthly Report, 20(3), 3-8.
PMid:23550927
Paul, W. (2005). Unmasking the Face: A Guide to Recognizing Emotions From Facial Expressions. Los Altos, CA: Malor Books.
Perez, C., Palma, A., Holzmann, C. & Pena, C. (2001). Face and eye tracking algorithm based on digital image processing. Systems, Man, and Cybernetics, 2001 IEEE International Conference on. (pp. 1178-1183).
https://doi.org/10.1109/icsmc.2001.973079
Samal, A. & Iyengar, P. (1992). Automatic recognition and analysis of human faces and facial expressions: A survey. Pattern recognition, 25(1), 65-77.
https://doi.org/10.1016/0031-3203(92)90007-6
Sanz, J. & Jain, A. (1986). Machine-vision techniques for inspection of printed wiring boards and thick-film circuits. JOSA, 3(9), 1465-1482.
https://doi.org/10.1364/JOSAA.3.001465
Schalkoff, R. (1989). Digital image processing and computer vision. New York: Wiley.
PMid:2720033
Share, N. (2015). Desktop Operating System Market Share. Fonte http://www.netmarketshare.com/operating-systemmarket-share.aspx?qprid=10&qpcustomd=0
Tsai, C. & Song, K. (2006). Face tracking interaction control of a nonholonomic mobile robot. Intelligent Robots and
https://doi.org/10.1109/iros.2006.282505
Wang, S. (2006). Face-tracking as an augmented input in video games: enhancing presence, role-playing and control. Proceedings of the SIGCHI conference on Human Factors in computing systems. (pp. 1097-1106). ACM.
https://doi.org/10.1145/1124772.1124936
PMCid:PMC2225216
WHO. (2014). Disability and health. World Health Organization.
WHO. (Fevereiro de 2014). eHealth. Fonte: World Health Organization. From http://www.who.int/topics/ehealth/en/
Wingrave, C., Williamson, B., Varcholik, P., Rose, J., Miller, A., Charbonneau, E. & LaViola, J. (2010). The wiimote and beyond: Spatially convenient devices for 3d user interfaces. Computer Graphics and Applications, 30(2), 71-85.
https://doi.org/10.1109/MCG.2009.109
PMid:20669534
Yang, X., Hasan, K., Bruce, N., & Irani, P. (2013). Surroundsee: enabling peripheral vision on smartphones during active use. Proceedings of the 26th annual ACM symposium on User interface software and technology. (pp. 291-300).
https://doi.org/10.1145/2501988.2502049
Ye, Y., & Tsotsos, J. (1999). Sensor planning for 3D object search. Computer Vision and Image Understanding, 73(2), 145-168.
https://doi.org/10.1006/cviu.1998.0736
Yow, K. & Cipolla, R. (1997). Feature-based human face detection. Image and vision computing, 15(9), 713-735.
https://doi.org/10.1016/S0262-8856(97)00003-6
Zhang, Z. (2012). Microsoft kinect sensor and its effect. MultiMedia, 19(2), 4-10.
Descargas
Publicado
Cómo citar
Número
Sección
Estadísticas de artículo | |
---|---|
Vistas de resúmenes | |
Vistas de PDF | |
Descargas de PDF | |
Vistas de HTML | |
Otras vistas |