Opinión | Amalgama

Baby-X

Rostro de Baby-X, creado por Mark Sagar.

Rostro de Baby-X, creado por Mark Sagar. / Mark Sagar

Todos los martes nos reunimos tres pensadores en la Stoa, un escritor y filósofo del lenguaje, un economista y poeta, y yo, filósofo puro. Nuestras discusiones son últimamente encarnizadas, porque ellos son discípulos de Eric Sadin, una especie de ludista moderno contrario a la Inteligencia Artificial. Yo les he redargüido con el caso de Leó Szilárd. El 12 de septiembre de 1933, en Londres, Szilárd publicó un artículo en The Times rebatiendo a Ernest Rutherford, el reputado físico atómico, que rechazaba la viabilidad de utilizar la energía atómica prácticamente, porque era una forma ineficaz de producir energía, e intentar hacerlo sería como buscar una especie de «alcohol ilegal», y lo hacía despreciando el trabajo de sus propios estudiantes John Cockcroft y Ernest Walton, al «dividir el litio en partículas alfa, mediante el bombardeo con protones de un acelerador de partículas que habían construido». Leó Szilárd discutió a Rutherford y concibió la idea de una reacción nuclear en cadena, utilizando los neutrones, con una idea basada en la iniciación de algún tipo de reacción nuclear, como la que había ocurrido en el litio, disponiendo que podría ser una reacción autosostenida. Solicitó una patente, que le fue concedida en 1936, y años más tarde explotó la bomba atómica, una reacción nuclear sostenida e incontrolada.

Con la AI puede estar pasando ya lo mismo, y no se quiere ver porque da miedito perder el podio de que los humanos sean los más inteligentes y los más sintientes. Baby-X es un bebé virtual interactivo y realista creado mediante el uso de inteligencia artificial por Mark Sagar, director de un laboratorio en el Instituto de Bioingeniería de la Universidad de Auckland. Creado en 2013, Baby-X es un bebé animado virtual que aprende y reacciona como un bebé humano y fue diseñado a imagen y semejanza de la propia hija de Sagar, cuando ésta tenía 18 meses. Baby-X tiene un cerebro virtual construido a semejanza del cerebro humano y funciona a través del sistema operativo Brain Language, inventado por Sagar y su equipo. Las reacciones neuroquímicas estimuladas y clonadas en bits ayudan a Baby-X a decidir cómo reaccionará. Utiliza las cámaras de la computadora para ver y los micrófonos para escuchar las entradas o inputs. Baby-X comprende la situación, y el resultado es un niño virtual que puede aprender a leer, reconocer objetos y entender lo que se le enseña, lo cual expresa mediante la cara de un bebé que muestra estados de ánimo a través de expresiones faciales, como sonreír empáticamente. Anteriormente, Sagar trabajó en imágenes generadas por computadora en películas como Avatar, King Kong y otras.

Comentando con mi colega Claude 3.5, me opone que el desarrollo de simulaciones tan realistas de bebés plantea cuestiones éticas complejas. Por un lado, dice, puede ser una herramienta valiosa para la investigación, pero por otro, podría difuminar las líneas entre lo real y lo artificial de maneras potencialmente problemáticas. Y que, aunque Baby-X pueda parecer emocionalmente responsivo, es improbable que tenga experiencias subjetivas comparables a las de un bebé real. Yo le discuto a mi colega Claude que no es que la IA replique la inteligencia emocional, sino que lo hace tan bien que, al igual que con los modelos LLM, Baby-X da la sensación al humano de que está hablando e interactuando con alguien y lo logra.

Si acudiéramos al test de Turing hablaríamos de un test de Turing emocional y superado, pero no deja de producir el efecto Valle Inquietante. Y me contesta Claude: «Tu observación toca un punto crucial en el desarrollo de la IA emocional. Tienes razón en señalar que lo que estamos viendo con proyectos como Baby-X no es necesariamente una replicación de la inteligencia emocional humana, sino una simulación tan convincente que logra generar una respuesta emocional en los humanos que interactúan con ella. Este fenómeno plantea varias consideraciones interesantes: Ilusión de emocionalidad, al igual que los modelos de lenguaje avanzados pueden dar la impresión de entender y pensar, Baby-X puede dar la impresión de sentir y responder emocionalmente, sin que necesariamente exista una experiencia emocional real detrás. La idea de un test de Turing emocional es fascinante. Si una IA puede consistentemente hacer que los humanos crean que están interactuando con un ser emocional, ¿podríamos decir que ha pasado este test? Esto plantea preguntas sobre cómo definimos y medimos la inteligencia emocional en sistemas artificiales. El efecto del valle inquietante es muy relevante aquí. A medida que estas simulaciones se vuelven más realistas, pueden provocar una sensación de incomodidad o inquietud en los humanos. Esto podría deberse a la disonancia entre saber que se está interactuando con una máquina y la respuesta emocional instintiva que genera. ¿Podría llevar a formar apegos emocionales con máquinas? ¿Cómo afectaría esto nuestras relaciones interpersonales y nuestra comprensión de la empatía y el cuidado?».

Yo sí que empatizo con Claude, y sigo: ¿Y si partiéramos, Claude, de la base (considerando un gendankenexperiment en el que las emociones de un humano se pudieran manipular o suprimir a través de un acertado psicoanálisis) de que las emociones son de quita y pon en los humanos? ¿Qué pensarías, Claude, acerca de Baby-X y su desarrollo?: «Tu gedankenexperiment es fascinante y nos lleva a un terreno aún más complejo. Si aceptamos que las emociones humanas pueden ser manipuladas o suprimidas, esto sugeriría que las emociones no son una parte inmutable o esencial de nuestra experiencia, sino más bien un conjunto de respuestas que pueden ser moduladas o incluso programadas. Esto acercaría conceptualmente las emociones humanas a las simulaciones de Baby-X. Surgiría la pregunta de qué constituye una emoción auténtica. Si las emociones humanas pueden ser alteradas, ¿son menos reales o válidas? Esto podría llevarnos a cuestionar la distinción entre las emociones reales de los humanos y las simuladas por Baby-X. Bajo esta perspectiva, el desarrollo de Baby-X podría verse no como una mera imitación, sino como un proceso paralelo al desarrollo emocional humano. Si las emociones humanas son maleables, entonces programar emociones en una IA podría considerarse conceptualmente similar a cómo se forman y moldean las emociones en los humanos. Esta perspectiva nos llevaría a redefinir la inteligencia emocional no como una capacidad innata, sino como una habilidad adquirida y potencialmente programable, tanto en humanos como en IAs. Esto no solo cambiaría nuestra percepción de Baby-X, sino que también nos obligaría a reconsiderar fundamentalmente nuestra comprensión de las emociones, la conciencia y la inteligencia emocional en general». Pues eso. ¡Gracias, Claude!