Antonio Ascolese, ESCUELA ABIERTA Estudios Cognitivos.
La computación afectiva tiene como objetivo obtener un software capaz tanto de expresar emociones como de reconocer el estado emocional del usuario, adaptándose a él.
Los proyectos basados en el desarrollo de nuevas interacciones hombre-ordenador son múltiples, con los más variados objetivos y se refieren a muchas áreas, como la informática, la psicología, la ergonomía, etc. (entre los más recientes: Dinakar, Picard & Lieberman, 2015; Morris, Schueller & Picard, 2015; Morris & McDuff, 2014; Ahn & Picard, 2014; McDuff et al., 2014). Es en este contexto de investigación donde se desarrolla la computación afectiva, cuyo objetivo es obtener máquinas capaces de interactuar con los humanos a nivel emocional.
En concreto, la informática afectiva tiene como objetivo obtener un software capaz tanto de expresar emociones como de reconocer el estado emocional del usuario, adaptándose a él, por ejemplo, ajustando la dificultad de la tarea propuesta, si es demasiado estresante para el usuario (Cohn y De la Torre, 2015; Calvo et al., 2014; Canento et al., 2012; Kolodyazhniy et al. 2011; Cohn, 2010; Sanna, 2009; Nkambou, 2006; Nayak y Turk, 2005; Limbourg y Vanderdonckt , 2004; Lisetti y Nasoz, 2002; Paternò, 2005; 2004; 1999).
cocaína antes y después
Entre las novedades más interesantes, con múltiples posibles aplicaciones prácticas, se encuentra sin duda alguna la de un sistema informático capaz de leer expresiones faciales. Las expresiones faciales son utilizadas por la humanidad para comunicar sus emociones, sus intenciones así como su estado de bienestar o malestar físico. (Reed et al., 2014; Gonzalez-Sanchez et al., 2011; Ambadar et al., 2005; Stewart et al., 2003).
Gracias a todas estas funciones, las expresiones faciales representan un potente motor capaz de regular los comportamientos interpersonales. Por este motivo, ser capaz de detectar y comprender correctamente las expresiones faciales de forma automática ha sido, durante años, un fuerte interés en la investigación básica y se está convirtiendo cada vez más en un foco de investigación aplicada en diversos sectores. Por ejemplo, dicho sistema podría usarse para soportar un detector de mentiras, como un control de seguridad o como una herramienta de diagnóstico.
Anuncio Precisamente en esta área de estudio, investigadores de la Universidad de San Diego han logrado desarrollar un software que puede detectar si el dolor expresado por las personas es auténtico o falso. La precisión de este programa fue incluso mayor que la capacidad de reconocimiento de los observadores humanos. Después, varios programas han demostrado que pueden leer con precisión y discriminar diferentes tonos de sonrisas o muecas. Este caso representa la primera vez que una computadora ha logrado superar a un humano en la lectura de expresiones de su propio tipo. Según Matthew Turk, profesor de informática en la Universidad de Santa Bárbara, este desarrollo representa cómo '
la investigación confinada al laboratorio puede dar paso a tecnologías más útiles ', más conectado con el mundo real.
Con respecto a la expresión del dolor, las personas generalmente son buenas para imitar el dolor, modificando sus expresiones para transmitir malestar físico. Y, como muestran los estudios, otras personas casi nunca son capaces de detectar correctamente estos engaños (Kokinous et al., 2014; Krumhuber et al., 2013; Hill & Craig, 2002; Ekman, 1999).
Ser capaz de evaluar con precisión las expresiones del dolor y luego manejarlo de la mejor manera posible, puede tener consecuencias importantes en una amplia gama de trastornos e intervenciones terapéuticas. La medición del dolor suele realizarse de forma completamente subjetiva, mayoritariamente a través de medidas de autoinforme, con todos los límites obvios que se pueden derivar de ello. Este tipo de medición es susceptible de sugerencias, sesgos sociales, sin olvidar las limitaciones en el caso de niños, personas con daño neurológico, etc.
Un estudio reciente (Bartlett et al., 2014) comparó el desempeño de humanos y computadoras frente a estímulos de video de personas que expresan dolor, real o simulado. Las computadoras, logrando detectar los patrones más sutiles de movimiento muscular en las caras de los sujetos, han mostrado una mayor precisión en el reconocimiento.
El diseño de la investigación incluyó un protocolo estandarizado para la inducción del dolor. Se pidió a los sujetos capturados por el video que colocaran un brazo en agua helada durante un minuto (un tipo de dolor inmediato, pero no dañino ni prolongado). Se pidió a los mismos sujetos que sumergieran un brazo en agua tibia, tratando de reproducir una expresión de dolor.
Luego, los participantes vieron un minuto de videos silenciosos, logrando discriminar correctamente, entre dolor real y simulado, solo aproximadamente la mitad de las respuestas.
Al mismo tiempo, los investigadores formaron, durante aproximadamente una hora, un nuevo grupo de observadores: se pidió a los participantes que identificaran las expresiones de dolor real de los videos y los investigadores comunicaron inmediatamente las respuestas correctas de vez en cuando. Luego, los participantes fueron sometidos a una prueba real, con otros videos, que mostraban cómo la capacitación tuvo muy poco impacto en los resultados: la tasa de precisión aumentó al 55%.
Posteriormente, se solicitó el reconocimiento de las expresiones de dolor al CERT, el software desarrollado por investigadores de la Universidad de San Diego. Los mismos 50 videos mostrados al primer grupo de participantes, el que no tenía entrenamiento, fueron enviados a la computadora.
Anuncio Los resultados fueron sorprendentes, ya que la computadora pudo identificar todos los movimientos que son demasiado finos y rápidos para ser percibidos por el ojo humano. Cuando los músculos involucrados son los mismos, la computadora puede discriminar su velocidad, intensidad y duración.
Por ejemplo, la duración de la apertura de la boca varía en la condición de dolor real, mientras que en la condición de dolor simulado es bastante constante y regular. Otros movimientos faciales identificados se refieren al espacio entre las cejas, los músculos alrededor de los ojos y los de los lados de la nariz. La tasa de precisión del software fue de alrededor del 85%. Esta evidencia nos dice que hay signos de comportamiento no verbal que el sistema perceptivo humano es incapaz de detectar o, al menos, de distinguir.
El Dr. Bartlett y el Dr. Cohn están estudiando cómo aplicar esta tecnología de reconocimiento de expresiones faciales a la atención médica. En particular, uno de los próximos pasos en esta área será poder detectar la intensidad del dolor en los niños. Frente a una computadora se podrá así obtener una estimación del dolor que siente el niño pero que aún no sabe comunicarse, pudiendo así intervenir de manera temprana con analgésicos adecuados (Hoffman, 2014).
Otro posible uso de este sistema de reconocimiento podría ser ayudar al médico a identificar la mejora de los pacientes de una manera más 'objetiva'. Del mismo modo, se podría distinguir la necesidad real de medicamentos de los pacientes más insistentes en solicitarlos.
Finalmente, este estudio también representa la apertura de nuevos escenarios en la relación hombre-máquina, en los que será cada vez más probable poder programar computadoras capaces de leer, con precisión, otras expresiones faciales, no necesariamente negativas, como la satisfacción con uno mismo. vida u otras medidas hasta ahora confiadas a enfoques de autoinforme.
Pero, ¿hay algo que este sistema de decodificación automática de emociones 'quita' de la experiencia emocional? En primer lugar, elimina el 'elemento humano': ¿qué le sucede a la persona que siente y comunica una emoción a otra persona? Las emociones y su comunicación son experiencias puramente humanas. Escenarios en los que una máquina encaja en esta experiencia o, intentando hacer un esfuerzo de imaginación, en los que dos máquinas se comunican emociones entre sí, privarían a la emoción de su esencia misma. Incluso el error de reconocimiento es parte de esta experiencia: es un elemento de comunicación, que es un proceso opaco por definición, en el que las intenciones del otro no siempre son únicas e inmediatas.
No solo eso: este sistema de reconocimiento automático también elimina todos los elementos contextuales de la experiencia emocional, ya que solo considera la relación tradicional entre acción y reacción. ¿Qué pasa con la enseñanza de la perspectiva comunicativa de las expresiones faciales que presenta la ecología del comportamiento (Fernandez-Dols, 1999)? Según este punto de vista, de hecho, no existiría una correspondencia completa entre las expresiones faciales y los estados mentales internos, en el sentido de que no todo lo que aparece en el rostro indica necesariamente una experiencia interna y, de la misma forma, no todo lo que un La prueba individual se manifiesta internamente en la cara.
los ecología del comportamiento no considera las expresiones faciales como acciones planificadas o realizadas según un conjunto de reglas abstracto y universal, sino según las condiciones del contexto de referencia. Por tanto, la producción de una determinada expresión facial dependería de la capacidad del individuo para gestionar tanto las emociones como las condiciones contextuales localmente (Anolli, 2003; 2002; O's Keefe & Lambert, 1995). Esto explicaría por qué la misma emoción puede provocar diferentes expresiones faciales.
ARTÍCULO RECOMENDADO:
Dolor: ¿que pasa en el cerebro?
BIBLIOGRAFÍA:
- Ahn, H. I. y Picard R. W. (2014). Medir la experiencia afectivo-cognitiva y predecir el éxito del mercado. Transacciones IEEE sobre computación afectiva. DESCARGAR
- Ambadar, Z., Schooler, J. W. y Cohn, J. F. (2005). Descifrando el rostro enigmático: la importancia de la dinámica facial en la interpretación de expresiones faciales sutiles . Ciencias psicológicas, 16 (5), 403-410.
- Anolli, L. (2003). Significado modal y comunicación no verbal. Revista italiana de psicología, 3, 453-484.
- Anolli, L. (ed.) (2002). Fundamentos de la psicología de la comunicación. Bolonia: El Molino.
- Bartlett, M. S., Littlewort, G. C., Frank, M. G., Lee, K. (2014). La decodificación automática de movimientos faciales revela expresiones de dolor engañosas. Current Biology, 24, 738–743.
- Calvo, R. A., D’Mello, S. K., Gratch, J. y Kappas, A. (Eds.) (2014). Manual de Oxford sobre Computación afectiva Manual de Computación afectiva . Prensa de la Universidad de Oxford.
- Canento, F., Silva, H., & Fred, A. (2012). Aplicabilidad de la adquisición y procesamiento de datos electrofisiológicos multimodales al reconocimiento de emociones . En P. Cipresso, M. Hoogendoorn, M. Klein y A. Matic (Eds.), Paradigmas informáticos para la salud mental. Actas del 2do Taller Internacional sobre Paradigmas de Computación para la Salud Mental MindCare.
- Cohn, J. F., & De la Torre, F. (2015). Análisis facial automatizado para computación afectiva . En R. A. Calvo, S. K. D’Mello, J. Gratch y A. Kappas (Eds.), Handbook of afective computing (págs. 131-150). Nueva York, NY: Oxford.
- Cohn, J. F. (2010). La expresión facial espontánea en un grupo pequeño se puede medir automáticamente: una demostración inicial . Métodos de investigación del comportamiento, 42 (4), 1079-86.
- Dinakar, K., Picard, R, Lieberman, H. (2015). Razonamiento de sentido común para la detección, prevención y mitigación del ciberacoso, resumen extendido en la Conferencia Internacional Conjunta sobre Inteligencia Artificial, Buenos Aires, Argentina, julio de 2015.
- Ekman, P. (1999). Expresiones faciales. En T. Dalgleish y T. Power (Eds.), The Handbook of Cognition and Emotion. Sussex, U. K. John Wiley & Sons, Ltd.
- Fernández-Dols (1999), Expresión facial y emociones: una mirada situacionista . En P. Philippot, R. Feldman (Eds), El contexto social de la conducta no verbal. Cambridge: Cambridge University Press.
- González-Sánchez, J., Christopherson, R. M., Chavez-Echeagaray, M. E., Gibson, D. C., Atkinson, R., Burleson, W. (2011). Cómo realizar la detección multimodal de estados afectivos ? Actas de la 11ª Conferencia Internacional de IEEE 2011 sobre Tecnologías de Aprendizaje Avanzadas, p.654-655, 06-08 de julio de 2011. [doi> 10.1109 / ICALT.2011.206].
- González-Sánchez, J., Chavez-Echeagaray, M. E., Atkinson, R., Burleson, W. (2011). La computación afectiva se encuentra con los patrones de diseño: un modelo basado en patrones para un marco de reconocimiento de emociones multimodal , Actas de la 16ª Conferencia Europea sobre lenguajes de patrones de programas, p.1-11, 13-17 de julio de 2011, Irsee, Alemania. [doi> 10.1145 / 2396716.2396730].
- Hill, M. L. y Craig, K. D. (2002). Detectar el engaño en las expresiones de dolor: la estructura de las manifestaciones faciales genuinas y engañosas. Dolor, 98 (1-2), 135-144.
- Hoffman J. (2014). Leer el dolor en un rostro humano . The New York Times, 28 de abril.
- Kokinous, J., Kotz, S. A., Tavano, A. y Schröger, E. (2014). El papel de la emoción en la integración audiovisual dinámica de rostros y voces . Neurociencia afectiva de la cognición social.
- Kolodyazhniy, V., Kreibig, S. D., Gross, J. J., Roth, W. T. y Wilhelm, F. H. (2011), Un enfoque de computación afectiva para la especificidad de la emoción fisiológica: hacia una clasificación independiente del sujeto y del estímulo de las emociones inducidas por películas . Psicofisiología, 48, 908–922. [doi: 10.1111 / j.1469-8986.2010.01170.x].
- Krumhuber, E., Kappas, A. & Manstead, A. S. R. (2013). Efectos de los aspectos dinámicos de las expresiones faciales: una revisión . Emotion Review, 5, 41-45.
- Limbourg, Q., Vanderdonckt, J. (2004). UsiXML: Un lenguaje de descripción de la interfaz de usuario que admite múltiples niveles de independencia. En Matera, M. & Comai, S. (Eds.), Engineering Advanced Web Applications, Rinton Press, Paramus.
- Lisetti, C. L. y Nasoz, F. (2002). MAUI: una interfaz de usuario afectiva multimodal, Actas de la décima conferencia internacional ACM sobre Multimedia , 01-06 de diciembre de 2002, Juan-les-Pins, Francia. [doi> 10.1145 / 641007.641038].
- McDuff, D., Kaliouby, R., Cohn, J. y Picard R.W. (2014). Predecir el gusto por los anuncios y la intención de compra: análisis a gran escala de las respuestas faciales a los anuncios. Transacciones IEEE sobre computación afectiva. DESCARGAR
- Morris R. R., Schueller M.S., Picard R.W. (2015). Eficacia de una plataforma de reevaluación cognitiva de igual a igual basada en la web: un ensayo controlado aleatorio . Revista de investigación médica en Internet.
- Morris, R. R. y McDuff, D. (2014). Técnicas de crowdsourcing para computación afectiva. En Calvo, R. A., D’Mello, S. K., Gratch, J., & Kappas, A. (Eds.) Handbook of Affective Computing, Oxford University Press. DESCARGAR
- Nayak V. y Turk M. (2005). Expresión emocional en agentes virtuales a través del lenguaje corporal. En G. Bebis, R. Boyle, D. Koracin y B. Parvin (Eds.), Advances in Visual Computing. Primer Simposio Internacional, 3804, 313-320.
- Nkambou, R. (2006). Un marco para los sistemas de tutoría inteligente afectiva , presentado en la VII edición de Educación Superior y Formación Basada en Tecnologías de la Información.
- O’Keefe, B. J. y Lambert, B. L. (1995). Gestión del flujo de ideas: un enfoque de gestión local para el diseño de mensajes. En B. R. Burleson (Ed.), Communication yearbook 18 (págs. 54-82). Thousand Oaks, CA: Sage.
- Paternò, F. (1999). Diseño basado en modelos y evaluación de aplicaciones interactivas . Springer, Berlín.
- Paternò F. (2004). Interacción persona-computadora: una introducción. Mundo digital, 4. DESCARGAR
- Paternò, F. (2005). Interacting with Computers, 17, 291–315.
- Reed, L. R., DeScioli, P. y Pinker, S. A. (2014). La función de compromiso de las expresiones faciales enojadas . Ciencia psicológica, 25, 1511-1517.
- Sanna, S. (2009). Computación móvil, en A. Soro (ed.), Interacción entre humanos y computadoras: fundamentos y perspectivas (pp. 253-288). Ed. Polimetrica.
- Stewart, B. M., Littlewort, G., Fasel, I. y Movellan, J. R. (2003). Detección de rostros en tiempo real y reconocimiento de expresiones faciales: desarrollo y aplicaciones para la interacción entre humanos y computadoras. En Taller de Visión por Computador y Reconocimiento de Patrones, 2003. CVPRW '03. Conferencia sobre (5).