Ignacio Escañuela Romana
Mark Purdy, John Zealley y Omaro Maseli realizan una interesante estudio acerca del modo como la inteligencia artificial interpreta las emociones humanas:
https://hbr.org/2019/11/the-risks-of-using-ai-to-interpret-human-emotions
Antes de entrar en él, hay que comprender el problema fundamental. Los ordenadores son binarios, utilizan como únicos valores de verdad verdad y falsedad, 1 y 0. Las personas cuando hacen ciencia y filosofía tienden a ser binarios en los resultados, pero no en los procedimientos. Ni lo son, sobre todo, en la vida y la toma de decisiones diarias. Mucho menos en las emociones. A menudo pensamos que algo es probablemente verdadero, verosímil, plausible, creemos en ello o no pero sin un valor de verdad seguro. Somos polivalentes.
¿Puede un ordenador «conocer» cómo funciona una persona polivalente?. ¿Podríamos ir a un ordenador en vez de un psicólogo para que nos explique nuestras propias emociones?. ¿Podemos poner ordenadores en tareas de seguridad: para detectar personas que tienen tal o cual emoción?.
El estudio de estos autores es muy interesante. Pongo sólo un ejemplo:
«Take smiles, for example. One study showed that of the 19 different types of smile, only six happen when people are having a good time. We also smile when we are in pain, embarrassed, and uncomfortable — distinctions that can only be drawn with context».
¡Léelo y reflexiona!