Antonio Ascolese, ESCUELA ABIERTA Estudios Cognitivos.

La computación afectiva tiene como objetivo obtener un software capaz tanto de expresar emociones como de reconocer el estado emocional del usuario, adaptándose a él.



Los proyectos basados ​​en el desarrollo de nuevas interacciones hombre-ordenador son múltiples, con los más variados objetivos y se refieren a muchas áreas, como la informática, la psicología, la ergonomía, etc. (entre los más recientes: Dinakar, Picard & Lieberman, 2015; Morris, Schueller & Picard, 2015; Morris & McDuff, 2014; Ahn & Picard, 2014; McDuff et al., 2014). Es en este contexto de investigación donde se desarrolla la computación afectiva, cuyo objetivo es obtener máquinas capaces de interactuar con los humanos a nivel emocional.

En concreto, la informática afectiva tiene como objetivo obtener un software capaz tanto de expresar emociones como de reconocer el estado emocional del usuario, adaptándose a él, por ejemplo, ajustando la dificultad de la tarea propuesta, si es demasiado estresante para el usuario (Cohn y De la Torre, 2015; Calvo et al., 2014; Canento et al., 2012; Kolodyazhniy et al. 2011; Cohn, 2010; Sanna, 2009; Nkambou, 2006; Nayak y Turk, 2005; Limbourg y Vanderdonckt , 2004; Lisetti y Nasoz, 2002; Paternò, 2005; 2004; 1999).

cocaína antes y después

Entre las novedades más interesantes, con múltiples posibles aplicaciones prácticas, se encuentra sin duda alguna la de un sistema informático capaz de leer expresiones faciales. Las expresiones faciales son utilizadas por la humanidad para comunicar sus emociones, sus intenciones así como su estado de bienestar o malestar físico. (Reed et al., 2014; Gonzalez-Sanchez et al., 2011; Ambadar et al., 2005; Stewart et al., 2003).

Gracias a todas estas funciones, las expresiones faciales representan un potente motor capaz de regular los comportamientos interpersonales. Por este motivo, ser capaz de detectar y comprender correctamente las expresiones faciales de forma automática ha sido, durante años, un fuerte interés en la investigación básica y se está convirtiendo cada vez más en un foco de investigación aplicada en diversos sectores. Por ejemplo, dicho sistema podría usarse para soportar un detector de mentiras, como un control de seguridad o como una herramienta de diagnóstico.

Anuncio Precisamente en esta área de estudio, investigadores de la Universidad de San Diego han logrado desarrollar un software que puede detectar si el dolor expresado por las personas es auténtico o falso. La precisión de este programa fue incluso mayor que la capacidad de reconocimiento de los observadores humanos. Después, varios programas han demostrado que pueden leer con precisión y discriminar diferentes tonos de sonrisas o muecas. Este caso representa la primera vez que una computadora ha logrado superar a un humano en la lectura de expresiones de su propio tipo. Según Matthew Turk, profesor de informática en la Universidad de Santa Bárbara, este desarrollo representa cómo '

la investigación confinada al laboratorio puede dar paso a tecnologías más útiles '
, más conectado con el mundo real.

Con respecto a la expresión del dolor, las personas generalmente son buenas para imitar el dolor, modificando sus expresiones para transmitir malestar físico. Y, como muestran los estudios, otras personas casi nunca son capaces de detectar correctamente estos engaños (Kokinous et al., 2014; Krumhuber et al., 2013; Hill & Craig, 2002; Ekman, 1999).

Ser capaz de evaluar con precisión las expresiones del dolor y luego manejarlo de la mejor manera posible, puede tener consecuencias importantes en una amplia gama de trastornos e intervenciones terapéuticas. La medición del dolor suele realizarse de forma completamente subjetiva, mayoritariamente a través de medidas de autoinforme, con todos los límites obvios que se pueden derivar de ello. Este tipo de medición es susceptible de sugerencias, sesgos sociales, sin olvidar las limitaciones en el caso de niños, personas con daño neurológico, etc.

Un estudio reciente (Bartlett et al., 2014) comparó el desempeño de humanos y computadoras frente a estímulos de video de personas que expresan dolor, real o simulado. Las computadoras, logrando detectar los patrones más sutiles de movimiento muscular en las caras de los sujetos, han mostrado una mayor precisión en el reconocimiento.

ARTÍCULOS SOBRE: DOLOR

El diseño de la investigación incluyó un protocolo estandarizado para la inducción del dolor. Se pidió a los sujetos capturados por el video que colocaran un brazo en agua helada durante un minuto (un tipo de dolor inmediato, pero no dañino ni prolongado). Se pidió a los mismos sujetos que sumergieran un brazo en agua tibia, tratando de reproducir una expresión de dolor.
Luego, los participantes vieron un minuto de videos silenciosos, logrando discriminar correctamente, entre dolor real y simulado, solo aproximadamente la mitad de las respuestas.

Al mismo tiempo, los investigadores formaron, durante aproximadamente una hora, un nuevo grupo de observadores: se pidió a los participantes que identificaran las expresiones de dolor real de los videos y los investigadores comunicaron inmediatamente las respuestas correctas de vez en cuando. Luego, los participantes fueron sometidos a una prueba real, con otros videos, que mostraban cómo la capacitación tuvo muy poco impacto en los resultados: la tasa de precisión aumentó al 55%.

Posteriormente, se solicitó el reconocimiento de las expresiones de dolor al CERT, el software desarrollado por investigadores de la Universidad de San Diego. Los mismos 50 videos mostrados al primer grupo de participantes, el que no tenía entrenamiento, fueron enviados a la computadora.

Anuncio Los resultados fueron sorprendentes, ya que la computadora pudo identificar todos los movimientos que son demasiado finos y rápidos para ser percibidos por el ojo humano. Cuando los músculos involucrados son los mismos, la computadora puede discriminar su velocidad, intensidad y duración.
Por ejemplo, la duración de la apertura de la boca varía en la condición de dolor real, mientras que en la condición de dolor simulado es bastante constante y regular. Otros movimientos faciales identificados se refieren al espacio entre las cejas, los músculos alrededor de los ojos y los de los lados de la nariz. La tasa de precisión del software fue de alrededor del 85%. Esta evidencia nos dice que hay signos de comportamiento no verbal que el sistema perceptivo humano es incapaz de detectar o, al menos, de distinguir.

El Dr. Bartlett y el Dr. Cohn están estudiando cómo aplicar esta tecnología de reconocimiento de expresiones faciales a la atención médica. En particular, uno de los próximos pasos en esta área será poder detectar la intensidad del dolor en los niños. Frente a una computadora se podrá así obtener una estimación del dolor que siente el niño pero que aún no sabe comunicarse, pudiendo así intervenir de manera temprana con analgésicos adecuados (Hoffman, 2014).

Otro posible uso de este sistema de reconocimiento podría ser ayudar al médico a identificar la mejora de los pacientes de una manera más 'objetiva'. Del mismo modo, se podría distinguir la necesidad real de medicamentos de los pacientes más insistentes en solicitarlos.
Finalmente, este estudio también representa la apertura de nuevos escenarios en la relación hombre-máquina, en los que será cada vez más probable poder programar computadoras capaces de leer, con precisión, otras expresiones faciales, no necesariamente negativas, como la satisfacción con uno mismo. vida u otras medidas hasta ahora confiadas a enfoques de autoinforme.

Pero, ¿hay algo que este sistema de decodificación automática de emociones 'quita' de la experiencia emocional? En primer lugar, elimina el 'elemento humano': ¿qué le sucede a la persona que siente y comunica una emoción a otra persona? Las emociones y su comunicación son experiencias puramente humanas. Escenarios en los que una máquina encaja en esta experiencia o, intentando hacer un esfuerzo de imaginación, en los que dos máquinas se comunican emociones entre sí, privarían a la emoción de su esencia misma. Incluso el error de reconocimiento es parte de esta experiencia: es un elemento de comunicación, que es un proceso opaco por definición, en el que las intenciones del otro no siempre son únicas e inmediatas.

No solo eso: este sistema de reconocimiento automático también elimina todos los elementos contextuales de la experiencia emocional, ya que solo considera la relación tradicional entre acción y reacción. ¿Qué pasa con la enseñanza de la perspectiva comunicativa de las expresiones faciales que presenta la ecología del comportamiento (Fernandez-Dols, 1999)? Según este punto de vista, de hecho, no existiría una correspondencia completa entre las expresiones faciales y los estados mentales internos, en el sentido de que no todo lo que aparece en el rostro indica necesariamente una experiencia interna y, de la misma forma, no todo lo que un La prueba individual se manifiesta internamente en la cara.

los ecología del comportamiento no considera las expresiones faciales como acciones planificadas o realizadas según un conjunto de reglas abstracto y universal, sino según las condiciones del contexto de referencia. Por tanto, la producción de una determinada expresión facial dependería de la capacidad del individuo para gestionar tanto las emociones como las condiciones contextuales localmente (Anolli, 2003; 2002; O's Keefe & Lambert, 1995). Esto explicaría por qué la misma emoción puede provocar diferentes expresiones faciales.

ARTÍCULO RECOMENDADO:

Dolor: ¿que pasa en el cerebro?

BIBLIOGRAFÍA: