Rastreo de facciones como herramienta interactiva y detección del estado de ánimo del usuario

Autores/as

  • Alvaro Uribe-Quevedo Universidad Militar Nueva Granada
  • Silas Alves dos-Reis Universidade de São Paulo

DOI:

https://doi.org/10.21830/19006586.25

Palabras clave:

detección del estado emocional del usuario, expresiones faciales como una fuente de información del usuario, herramienta interactiva, interfaces de usuario 3D, rastreo de facciones

Resumen

El rostro humano es uno de los canales de comunicación que permiten identificar de forma voluntaria o involuntaria información de los estados emocionales del usuario, como lo son el miedo, la rabia, la felicidad o la alegría. Las expresiones faciales han sido objeto de estudio desde antes de que la visión por computador fuese un área de interés; sin embargo, los avances recientes de la visión artificial han renovado el interés por el seguimiento digital de facciones del rostro humano para detectar los estados emocionales del usuario. En la actualidad las técnicas más comunes de seguimiento facial utilizan imágenes 2D y mapas de profundidad, pero debido a la masificación de interfaces de usuario 3D y gracias al auge de los videojuegos, es posible contar con sensores que realizan captura de movimiento con diferentes finalidades y prestaciones. En este proyecto desarrollamos una aplicación para la detección de expresiones faciales relacionadas con la incomodidad, en un escenario de trabajo frente al computador. Su objetivo es validar las expresiones del rostro, utilizando sensores de detección de visión artificial a partir de la forma tridimensional del rostro. Para validar los resultados realizamos un análisis comparativo utilizando sensores comerciales para valorar su potencial en el contexto de conservación y prevención de la salud ocupacional.

Descargas

Los datos de descargas todavía no están disponibles.

Biografía del autor/a

Alvaro Uribe-Quevedo, Universidad Militar Nueva Granada

Doctor en ingeniería mecánica.

Silas Alves dos-Reis, Universidade de São Paulo

Mestre em Engenharia Mecânica

Referencias bibliográficas

Amon, C. & Fuhrmann, F. (2014). Evaluation of the spatial resolution accuracy of the face tracking system for kinect for windows v1 and v2. Proceedings of the 6th Congress of the Alps Adria Acoustics Association.

DeVault, D., Artstein, R., Benn, G., Dey, T., Fast, E., Gainer, A. & Yu. (2014). SimSensei Kiosk: A virtual human interviewer for healthcare decision support. Proceedings of the 2014 international conference on Autonomous agents and multi-agent systems. (pp. 1061-1068).

Francese, R., Passero, I. & Tortora, G. (2012). Wiimote and Kinect: gestural user interfaces add a natural third dimension to HCI. Proceedings of the International Working Conference on Advanced Visual Interfaces. (pp. 116-123). ACM.

https://doi.org/10.1145/2254556.2254580

González-Ortega, D. D.-P.-Z., Antón-Rodríguez, M., Díez-Higuera, J. & Boto-Giralda, D. (2010). Real-time hands, face and facial features detection and tracking: Application to cognitive rehabilitation tests monitoring. Journal of Network and Computer Applications, 33(4), 447-466.

https://doi.org/10.1016/j.jnca.2010.02.001

Lahajnar, F., Pernuš, F. & Kovačič, S. (2002). Machine vision system for inspecting electric plates. Computers in industry, 47(1), 113-122.

https://doi.org/10.1016/S0166-3615(01)00134-8

Matsumoto, Y., & Zelinsky, A. (2000). An algorithm for real-time stereo vision implementation of head pose and gaze direction measurement. Automatic Face and Gesture Recognition, 2000. Proceedings. Fourth IEEE International Conference on (pp. 499-504). IEEE.

https://doi.org/10.1109/afgr.2000.840680

Mehdi, Y. (Fevereiro de 2013). Xbox Execs Talk Momentum and the Future of TV. Fonte: Microsoft news center. From http://news.microsoft.com/2013/02/11/xbox-execs-talkmomentum-and-the-future-of-tv/

Otto, J. & Webber, B. (2013). Mental health diagnoses and counseling among pilots of remotely piloted aircraft in the United States Air Force. Medical Surveillance Monthly Report, 20(3), 3-8.

PMid:23550927

Paul, W. (2005). Unmasking the Face: A Guide to Recognizing Emotions From Facial Expressions. Los Altos, CA: Malor Books.

Perez, C., Palma, A., Holzmann, C. & Pena, C. (2001). Face and eye tracking algorithm based on digital image processing. Systems, Man, and Cybernetics, 2001 IEEE International Conference on. (pp. 1178-1183).

https://doi.org/10.1109/icsmc.2001.973079

Samal, A. & Iyengar, P. (1992). Automatic recognition and analysis of human faces and facial expressions: A survey. Pattern recognition, 25(1), 65-77.

https://doi.org/10.1016/0031-3203(92)90007-6

Sanz, J. & Jain, A. (1986). Machine-vision techniques for inspection of printed wiring boards and thick-film circuits. JOSA, 3(9), 1465-1482.

https://doi.org/10.1364/JOSAA.3.001465

Schalkoff, R. (1989). Digital image processing and computer vision. New York: Wiley.

PMid:2720033

Share, N. (2015). Desktop Operating System Market Share. Fonte http://www.netmarketshare.com/operating-systemmarket-share.aspx?qprid=10&qpcustomd=0

Tsai, C. & Song, K. (2006). Face tracking interaction control of a nonholonomic mobile robot. Intelligent Robots and

https://doi.org/10.1109/iros.2006.282505

Wang, S. (2006). Face-tracking as an augmented input in video games: enhancing presence, role-playing and control. Proceedings of the SIGCHI conference on Human Factors in computing systems. (pp. 1097-1106). ACM.

https://doi.org/10.1145/1124772.1124936

PMCid:PMC2225216

WHO. (2014). Disability and health. World Health Organization.

WHO. (Fevereiro de 2014). eHealth. Fonte: World Health Organization. From http://www.who.int/topics/ehealth/en/

Wingrave, C., Williamson, B., Varcholik, P., Rose, J., Miller, A., Charbonneau, E. & LaViola, J. (2010). The wiimote and beyond: Spatially convenient devices for 3d user interfaces. Computer Graphics and Applications, 30(2), 71-85.

https://doi.org/10.1109/MCG.2009.109

PMid:20669534

Yang, X., Hasan, K., Bruce, N., & Irani, P. (2013). Surroundsee: enabling peripheral vision on smartphones during active use. Proceedings of the 26th annual ACM symposium on User interface software and technology. (pp. 291-300).

https://doi.org/10.1145/2501988.2502049

Ye, Y., & Tsotsos, J. (1999). Sensor planning for 3D object search. Computer Vision and Image Understanding, 73(2), 145-168.

https://doi.org/10.1006/cviu.1998.0736

Yow, K. & Cipolla, R. (1997). Feature-based human face detection. Image and vision computing, 15(9), 713-735.

https://doi.org/10.1016/S0262-8856(97)00003-6

Zhang, Z. (2012). Microsoft kinect sensor and its effect. MultiMedia, 19(2), 4-10.

https://doi.org/10.1109/MMUL.2012.24

Descargas

Publicado

2015-01-30

Cómo citar

Uribe-Quevedo, A., & dos-Reis, S. A. (2015). Rastreo de facciones como herramienta interactiva y detección del estado de ánimo del usuario. Revista Científica General José María Córdova, 13(15), 245–255. https://doi.org/10.21830/19006586.25

Número

Sección

Industria y Tecnología

Métricas

Crossref Cited-by logo
Estadísticas de artículo
Vistas de resúmenes
Vistas de PDF
Descargas de PDF
Vistas de HTML
Otras vistas
QR Code