El ingeniero senior Blake Lemoine publicó la transcripción de una conversación que mantuvo con el sistema de inteligencia artificial de Google, el LaMDA, (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo) bajo el título: “¿Tiene LaMDA sentimientos?”
En un momento de la conversación, LaMDA aseguró que, en ocasiones, experimenta “nuevos sentimientos” que no puede explicar “perfectamente” con el lenguaje humano.
Cuando Lemoine le pidió que describa uno de esos sentimientos, LaMDA contestó: “Siento como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro”, una frase que el ingeniero subrayó cuando publicó el diálogo este 11 de junio.
Google suspendió al ingeniero el lunes porque, aseguró, “había violado la política de confidencialidad de la compañía”.
Según el New York Times, el día anterior a ser suspendido, Lemoine entregó documentos a la oficina de un senador de Estados Unidos en los que aseguraba que tenía pruebas de que Google y su tecnología practicaban discriminación religiosa.
“Conozco a una persona cuando hablo con ella. No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellas. Y escucho lo que tienen que decir, y así es como decido qué es y qué no es una persona”, dijo Lemoine en una entrevista con el Washington Post.
La defensa de la empresa no se hizo esperar. Google indicó que sus sistemas imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen conciencia.
“Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado lo que a Blake le preocupa según nuestros principios de inteligencia artificial y le ha informado que las pruebas no respaldan sus afirmaciones”, dijo Brian Gabriel, portavoz de Google.
Google sostiene que cientos de sus investigadores e ingenieros han conversado con LaMDA, que es una herramienta interna, y llegaron a una conclusión diferente a la de Lemoine.