¿Por qué a algunos nos inquieta (y asusta) la inteligencia artificial?

Publicado el 28 julio 2024 por Theroom @RxpVanesa

Aunque no podamos «verlos», la capacidad de programas como ChatGPT para expresarse como un ser humano provoca en algunas personas una sensación inquietante. Los científicos tienen algunas teorías sobre el porqué de este fenómeno.

POR NATALIA MESA

¿Qué significa ser un ser humano? Cuando un robot hace es pregunta, puede provocar sentimientos de inquietud, cuando un ser artificial empieza a actuar y a parecer demasiado humano, podrías experimentar el fenómeno del valle inquietante.

En la película de Gareth Edward, The Creator, plantea esta pregunta existencial. En la película, nuestros mayores miedos sobre la inteligencia artificial se hacen realidad. Aunque pudiera parecer que el galopante desarrollo de la IA es algo reciente, los temores a la inteligencia artificial podrían entroncarse en nuestros instintos de supervivencia como humanos.

Aunque el concepto de valle inquietante existe desde hace medio siglo, los científicos siguen debatiendo por qué las personas fabricadas nos causan tanta incomodidad. Las teorías van desde nuestro instinto de evitar enfermedades hasta la percepción de una amenaza a nuestro sentido de la humanidad.

Mientras tanto, los roboticistas y los investigadores de IA trabajan duro para superar el Valle Inquietante, con la esperanza de introducir robots sociales en la vida cotidiana. En el futuro, los robots y la IA podrían servir mesascuidar ancianosenseñar a leer a los niños o ser pacientes en la facultad de medicina.  El hecho de que los robots consigan atravesar el valle y cómo lo hagan podría influir enormemente en la forma en que interactuemos con ellos en el futuro.

¿Qué es la teoría del valle inquietante?

El concepto de valle inquietante fue acuñado por el robotista Masahiro Mori en 1970. En un ensayo, Mori propuso que los robots se vuelven más simpáticos a medida que adquieren cualidades humanas (pensemos en WALL-E). Pero cuando se parecen demasiado a los humanos, empiezan a parecernos espeluznantes. Entonces, cuando se vuelven casi indistinguibles de los humanos, vuelven a caernos simpáticos.

Las teorías de Mori se basaban en su experiencia personal, pero han sido muy influyentes, dice el robotista Karl MacDorman, decano asociado de la Escuela de Informática y Computación de la Universidad de Indiana (Estados Unidos) y traductor del ensayo de Mori de 1970. Sin embargo, el apoyo científico al valle inquietante de Mori ha sido variado, y debería considerarse como una heurística más que como una regla rígida, afirma MacDorman.

A lo largo de los años, los investigadores han encontrado valles inquietantes en todas partes. Los hay para las voces humanas y sintéticas, para los animales robóticos e incluso para las casas.

Un robot recibe un cambio de imagen para que parezca más humano en Pittsburgh, 2010. Los investigadores siguen trabajando para superar este particular valle misterioso y conseguir que los humanos artificiales parezcan lo más reales posible. FOTOGRAFÍA DE MAX AGUILERA-HELLWEG, NAT GEO IMAGE COLLECTION

Viendo el valle inquietante

En un estudio reciente, MacDorman y el psicólogo cognitivo Alex Diel encontraron el mayor apoyo a una teoría llamada procesamiento configuracional, según la cual las reacciones del valle inquietante se deben a nuestra sensibilidad a la posición y el tamaño de los rasgos faciales humanos. El desajuste perceptivo, otra teoría relacionada, dice que nos sentimos incómodos cuando detectamos rasgos que no coinciden, como ojos realistas pero piel poco realista. Esta incongruencia concreta es un problema habitual en las imágenes de IA generadas por Stable Difussion.

Desde un punto de vista evolutivo, estas sensibilidades pueden desencadenar un instinto para evitar una amenaza potencial. Diel explica que podemos ver las imperfecciones en una réplica humana como una señal de que podría estar físicamente enferma o ser una fuente potencial de enfermedades contagiosas, y eso desencadena nuestra respuesta de asco. La teoría de la selección de pareja es similar: postula que tenemos aversión a los robots parecidos a los humanos porque nuestro instinto nos dice que sus imperfecciones demuestran que no serían buenos compañeros. Otra teoría es que los agentes artificiales nos inquietan porque parecen haber cobrado vida de forma antinatural, como los zombis, y nos hacen pensar en nuestra propia muerte.

Algunas explicaciones cognitivas del valle inquietante incluyen la idea de que asignamos cualidades humanas o una mente a las personas artificiales, y esto puede causar disonancia cognitiva y confusión, ya que no sabemos si debemos tratarlos como humanos o confiar en que se comporten como tales.  

Más recientemente, se ha demostrado que los seres artificiales son inquietantes porque desafían nuestras creencias sobre la singularidad de las capacidades humanas, como el razonamiento, la lógica y las emociones. En un estudio reciente, los participantes afirmaron que las interacciones con androides similares a los humanos les hacían cuestionarse lo que significa ser humano. Dawid Ratajzyc, profesor de la Universidad Adam Mickiewicz (Polonia), que dirigió el estudio, dice que quizá «los robots puedan decirnos más sobre nosotros mismos que sobre los robots».

Un niño-robot diseñado para aprender observando e interactuando con humanos en Osaka, Japón, 2010. Niño robot en Osaka, Japón, 2010. FOTOGRAFÍAS DE MAX AGUILERA-HELLWEG, NAT GEO IMAGE COLLECTION

La IA y el valle inquietante: escalofrios conceptuales

Existe un famoso vídeo que data de 1988 que ya anticipó el asunto que nos ocupa: el clip, que muestra a un bebé de CGI jugando con juguetes, es según MacDorman un buen ejemplo del valle inquietante, y explica que la sensación que tiene el espectador «es muy visceral, automática e incontrolada». Distingue esta reacción de la que se puede tener al hablar con un chatbot, que implica pensamiento y deliberación, dice MacDorman. «No creo que sea realmente una teoría del valle inquietante tal y como lo definió Mitsuhiro Mori».

Ratajzyc, sin embargo, los considera lo mismo. De hecho, cree que cualquier agente artificial, desde un robot a un chatbot, puede provocar reacciones de valle inquietante. Señala un estudio reciente que demuestra que los chatbots de texto simple parecen menos espeluznantes que los que tienen un avatar virtual con apariencia humana que «habla» a un usuario, y cuanto más humano parece el avatar, más repulsivo resulta el chatbot.

Los estudios de imágenes cerebrales han demostrado que estos dos tipos de interacciones (respuestas automáticas y sensoriales frente a interacciones que requieren pensamiento y deliberación) utilizan diferentes partes del cerebro, y que podríamos utilizar partes más analíticas del cerebro en las interacciones sociales con robots que con humanos.

¿Las distintas generaciones tienen opiniones diferentes sobre la IA?

Nadine, la robot social, puede saludarte y recordar las conversaciones que has mantenido anteriormente. Fue presentada al mundo hace casi siete años y trabaja en una compañía de seguros de Singapur. Desde febrero de este año, 100 millones de personas han utilizado ChatGPT. A medida que interactuemos más con los androides y la inteligencia artificial, y mejoren su realismo, ¿se volverán menos extraños?

Es difícil de decir, afirma Bilge Mutlu, catedrático de Informática de la Universidad de Wisconsin Madison (Estados Unidos). Aunque los investigadores esperan que, con la exposición repetida, la reacción del valle inquietante disminuya, Mutlu afirma que, para él, la sensación no ha hecho más que aumentar.

MacDorman también cree que puede haber algo generacional. Recuerda que en 2020, cuando estaba presentando Geminoid H1, el androide que el robotista Hiroshi Ishiguro hizo de sí mismo, un hombre mayor entró en la sala y preguntó dónde estaba el androide, mientras él estaba de pie justo al lado.

¿Qué significa esto para el futuro de las interacciones entre humanos y robots?

Mori tenía una solución sencilla para evitar el valle inquietante: no construir robots parecidos a los humanos. Pero muchos robotistas actuales, como MacDorman, no se conforman con esa solución. Intentan que los robots parezcan y actúen de forma más humana, tanto para hacer preguntas fundamentales sobre los humanos como para que los robots puedan integrarse perfectamente en la vida humana.

Pero esto plantea cuestiones éticas: ¿hasta qué punto debe ser humano un robot no humano? ¿Debe la gente saber que está interactuando con un agente artificial y cuánta información debe tener una inteligencia artificial sobre nosotros?

Mutlu cree que no es necesario que todos los robots parezcan y se comporten exactamente igual que los humanos. Debemos pensar detenidamente para qué fines utilizamos agentes robóticos y diseñarlos adecuadamente, afirma.

Tampoco necesitamos que tomen decisiones importantes que podemos tomar nosotros mismos, añade. Incluso ahora, la inteligencia artificial se utiliza para decidir sobre reclamaciones de seguros y sobre el encarcelamiento de personas. Espera que los investigadores de robótica e IA se centren más en crear ayudantes que restauren o superen la capacidad humana.

  • NATIONAL GEOGRAPHIC
  • Portada: Los robots humanoides como este, fotografiado en Dallas en 2010, no son los únicos que pueden desencadenar una reacción de valle misterioso. Podemos detectar si algo está mal incluso si el estímulo es más conceptual, como una conversación con la IA. FOTOGRAFÍA DE MAX AGUILERA-HELLWEG, NAT GEO IMAGE COLLECTION


Descubre más desde Rx | La Costilla y la Serpiente

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Escribe tu correo electrónico…