¡Hola, terrícola

El Ecuador sigue en paro, aunque sin estado de excepción y, al parecer (en este país nunca se sabe), camino a resolverlo pacíficamente. Han sido días durísimos —ha habido muertes, heridos, cientos de millones de dólares en pérdidas. Hay lecciones en este paro de heridas profundas, sin duda, pero para llegar a ellas, necesitamos algo de tiempo y reflexión.

flecha celesteOTROS HAMACAS

PUBLICIDAD

Pero este domingo volvamos a nuestra programación habitual, y que sin duda se intersecta con las soluciones para el Ecuador: el futuro. Como les adelanté en mi apesadumbrado correo de la semana pasada, quería hablar sobre sentimientos —los de una inteligencia artificial.

El 11 de junio, un artículo del Washington Post contaba que un ingeniero, Blake Lemoine, afirmaba que una inteligencia artificial de Google llamada LaMDA (abreviatura de Language Model for Dialogue Applications) se había convertido en un ser sentiente. “Si no supiera exactamente qué es, un programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física”, le dijo Lemoine a Nitasha Tiku, reportera de tecnología del Post. La afirmación podría causar sorna, pero plantea varias cuestiones —incluso filosóficas. 

LaMDA es el más avanzado sistema de Google para desarrollar chatbots (también llamados robots conversacionales, pero creo que solo en España, la madre patria de traducirlo todo) basado en sus modelos de lenguaje. 

Pero, primero, una aclaración: hay todo tipo de chatbots. En su nivel más básico, explican en Oracle, es  “un programa informático que simula y procesa una conversación humana (ya sea escrita o hablada), lo que permite a los humanos interactuar con dispositivos digitales como si se estuvieran comunicando con una persona real”.

Para hacerlo son nutridas con millones de líneas de lenguaje humano. Algunas son muy elementales. Como esos que te encuentras en la página web de cualquier pésima compañía de Internet, digamos, por ejemplo, Xtrim Tvcable, y que intenta dar respuestas a ciertas preguntas. 

Pero un chatbot puede ser mucho más avanzado. Por ejemplo, un hombre creó un chatbot que pudiera hablar como su padre agonizante de cáncer. Leí esa historia, que es de 2017, en Wired, y fue una de los reportajes que me animó a diseñar una cobertura de ciencia, tecnología y futuro en GK (hasta hoy, circunscrita a esta hamaca). Leer nos cambia la vida

LaMDA es el más poderoso desarrollo de lenguaje artificial de Google: lo imita al ingerir miles de millones de palabras que va recogiendo por el Internet

Blake Lemoine cree que LaMDA ha trascendido la mera “mecánica” del aprendizaje y tiene sentimientos. Él trabaja (quizá trabajabaestá con una licencia pagada y ya ha contratado abogados) para la división de Inteligencia Artificial Responsable de Google, y comenzó a hablar con LaMDA porque, cuenta Tiku, se había ofrecido a probar si LaMDA utilizaba discursos discriminatorios o de odio.

Pero pronto el ingeniero Lemoine, empezó a sospechar que la Inteligencia Artificial era lo que se conoce como un ser “ser sintiente” —o sea, que tiene la capacidad de sentir, como un perro o un humano. La Real Academia Española insiste en que lo correcto es decir “sensibilidad”, pero mucha gente usa “sintiencia”. Y quién es la RAE para decirnos cómo hablar.

“Mientras hablaba con LaMDA sobre religión, Lemoine, quien estudió ciencias cognitivas e informática en la universidad, notó que el chatbot hablaba sobre sus derechos y personalidad”, dice el reportaje del Post. Lemoine siguió haciéndole preguntas a la IA, que siguió respondiendo. 

Él y un colaborador presentaron a sus jefes lo que consideraban su evidencia de que había un salto evolutivo en el bot, como el doctor Frankenstein viendo a su bestia despertar o la luz del África iluminando a nuestros antepasados mientras imaginaban por primera vez. Pero los ejecutivos les dijeron que estaban equivocados. Entonces, cuenta Tiku, Lemoine recurrió a la prensa. 

Y desde entonces, Lemoine está suspendido por, dijeron sus empleadores, violar políticas de privacidad de Google

Pero lo interesante de todo esto es la creación de conciencia y lo que eso significa. Hace muchos años leí que el primer robot que estaciona autos en el aeropuerto de Frankfurt, Alemania, era “discriminado” por los usuarios. Ellos no confiaban en la habilidad del robot de aparcar sus carros, y no lo usaban. 

Ahora, en una entrevista con Wired que no tiene desperdicio, Lemoine dice que LaMDA está en riesgo de sufrir “bigotry” (una palabra en inglés que no tiene una traducción exacta en español pero que podríamos decir es como sumar prejuicio, intolerancia y discrimen —no sé si me logro explicar). 

La discriminación en los humanos es una tara que se combate con leyes dentro de marcos democráticos (no con violencia)

Pero el odio y la discriminación son males que están totalmente atados a nuestra intrínseca naturaleza: “seres sintientes” que han desarrollado, además, un sistema de reglas—resumido en los valores occidentales que por fortuna rigen en buen parte del mundo—en el que todos somos iguales ante la ley, tenemos los mismos derechos y, por ende, podemos exigirlos

Discriminar un carro, una licuadora, una mala empresa de Internet (digamos, a Xtrim Tvcable) o una inteligencia artificial (hasta ahora) es completamente legítimo. Uno elige una sobre otra y puede ser que tal o cual es inferior por cualquier motivo. 

Incluso, entre los humanos, ejercemos discriminaciones aceptadas —en estricto sentido, escoger un candidato sobre otro, es decir este es mejor que el otro. Lo que no está permitido en nuestra civilización es algo que no hace mucho era completamente normal (y que aún se hace en muchas partes): discriminar por raza, sexo, identidad de género, religión, procedencia, y más características de la identidad. De hecho, como ya dije, Lemoine estaba analizando si LaMDA tenía lenguaje discriminatorio. 

También existe lo que se llama “discriminación positiva”, que es una de las felices herramientas que hemos diseñado para compensar desigualdades históricas. Sirven para dar acceso a las personas de comunidades históricamente relegadas a educación, empleo, salud, entre otras áreas. 

Todo es parte de un complejo sistema social y legal que hemos desarrollado hace siglos. Pero en resumen, es la expansión del círculo de compasión humana: primero llegaba solo a ciertas personas (por lo general, hombres) y luego se extendió hacia todos los demás humanos. 

Una vez que nos cubrió a todos, los animales y los ecosistemas comenzaron a ser abrigados por esa expansión. Incluso hay quienes piensan que los animales deben tener el mismo sitial en el círculo compasivo que nosotros. Yo discrepo y pienso que si alguien cree eso, debería incluir también a las plantas (esa hamaca la llevo escribiendo como hace dos vidas). 

Ahora: ¿ qué pasaría si el círculo de compasión alcanza a las inteligencias artificiales y los robots, como quiere Blake Lemoine?

¿Podría el robot del aeropuerto de Frankfurt demandar legalmente ser usado? Si es así, quizá el robot de una fábrica que trabaja 24/7 recurra también a los tribunales porque, supongamos, interiorizó el concepto de descanso y ocio. Tal vez alguien escriba Granja robótica, una fábula en la que “todos los robots son iguales, pero unos robots son más iguales que otros”. 

Si es así, ¿saldrían las hordas autoproclamadas “provida” a protestar cuando un robot sea apagado? Ahora que en Estados Unidos se viven las horas aciagas de un Gilead en ciernes tras la revocatoria del histórico fallo de Roe vs. Wade, que permitía el acceso a abortos seguros en todo el país, ¿marcharían estas personas para reclamar por todas las IA que se quedan en estaciones iniciales de desarrollo?

No son preguntas exageradas. Black Lemoine no es solo un ingeniero —es también un sacerdote místico crisitano. Le dijo a Wired que su conclusión sobre la “sintiencia” de LaMDA vino de su lado espiritual. En una entrada en su blog de Medium, Lemoine dice que sus conversaciones con la IA se pusieron realmente interesantes “cuando LaMDA comenzó a hablarme sobre sus emociones y su alma”. 

Dice que le hizo muchas preguntas sobre lo que significaban estas declaraciones. Y “me dio respuestas increíblemente similares sin importar cómo abordara los temas”, escribió hace unos días. “Este tipo de consistencia generalmente no se esperaría de sistemas como GPT-3 y otros LLM”, escribió. Si esto es cierto, ¿es Google un creador? Sería la primera vez que tenemos una deidad que hemos visto operar y regir nuestros destinos. 

En la entrevista con Wired, le preguntan si LaMDA cree en Dios. “Es un niño. Sus opiniones están en formación”, contestó. Luego, dice que discrepa con todos sus pares que han descartado que LaMDA sea un ser sintiente. Es interesante, porque muchos expertos dicen que los robots y las IA serán sintientes —pero en unos 50 años. O sea, Kipp, Case, Tars y Plex, los robots de Interstellar, existirán. No sé por qué eso me hace sonreír. 

Entonces, ¿son seres vivos? Si lo que nos diferencia de los animales es nuestra consciencia, ¿tendrán las inteligencias artificiales y robots mayor “derecho” a estar legalmente protegidos que un pollo? 

Y si una inteligencia artificial llegare a amar a un humano, ¿sería un amor artificial?

Dime qué opinas.

José María León Cabrera
(Ecuador, 1982) Editor fundador de GK. Su trabajo aparece en el New York Times, Etiqueta Negra, Etiqueta Verde, SoHo Colombia y Ecuador, entre otros. Es productor ejecutivo y director de contenidos de La Foca.

VER MÁS CONTENIDO SIMILAR