Esto es Mi hamaca en Marte, una reflexión semanal sobre el futuro de la humanidad escrita por el editor general de GK, José María León.
Si quieres recibirla en tu correo, puedes suscribirte en este enlace.
¡Hola, terrícola! No es algo nuevo: hemos soñado desde hace siglos con robots. Hace 500 años Leonardo Da Vinci inventó Automa cavaliere, un caballero robótico. Era una máquina funcional para el entretenimiento de la corte milanesa de los Sforza. Medio milenio después, la Unión Europea propuso la creación del status legal de “persona electrónica” para los robots.
La idea es polémica: la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología de la Unesco dice que es “altamente contraintuitivo” llamarlos personas “mientras no posean algunas cualidades adicionales típicamente asociadas con personas humanas” (literalmente dice “personas humanas”) tales como “el libre albedrío, intencionalidad, consciencia propia, agencia moral o una noción de identidad personal”. No sé qué pienses tú, pero creo que algo de razón hay en ese reparo.
Pensaba en esto desde hace un par de semanas cuando me topé con un reportaje de largo aliento en Wired titulado Can Robots Evolve Into Machines of Loving Grace? (¿Podrán los robots evolucionar a ser máquinas de amorosa gracia? —dejé el titular en inglés porque es mucho más hermoso).
En él, la gran ensayista Meghan O’Gieblyn analiza cuán factible es que los robots se conviertan en “personas”. Es una pregunta fascinante y O’Gieblyn parte de un poema de 1967 escrito por Richard Brautigan. El poema se titula All Watched Over by Machines of Loving Grace. La última estrofa del poema dice:
I like to think (it has to be!) [Me gusta pensar (¡tiene que ser!)
of a cybernetic ecology [en una ecología cibernética]
where we are free of our labors [en la que hemos sido liberados del trabajo]
and joined back to nature, [y hemos sido reunificados con la naturaleza]
returned to our mammal [devueltos a nuestros hermanos y hermanas]
brothers and sisters, [mamíferos]
and all watched over [todos observados]
by machines of loving grace. [por máquinas de amorosa gracia]
O’Gieblyn dice que el poema rondaba su cabeza desde que empezó a prepararse para un panel llamado Escribir lo no humano, una conversación sobre la relación entre los humanos, la naturaleza y la tecnología en el Antropoceno (la etapa geológica de la Tierra, en la que el ser humano es el principal factor de cambio en el planeta).
Su charla, explica en su ensayo, se trataba sobre la inteligencia emergente en la Inteligencia Artificial, “la noción de que las capacidades de nivel superior pueden aparecer espontáneamente en las máquinas sin haber sido diseñadas”. Es decir —que la inteligencia de los robots puede ir evolucionando tal cual lo hizo la inteligencia humana (una evolución que, por cierto, no se ha detenido: hoy tenemos en promedio 8 puntos de coeficiente intelectual más que la gente de hace un siglo y se han identificado múltiples inteligencias, más allá de la meramente cognitiva).
Para la charla, O’Gieblyn se centró en el enfoque de la robótica de “inteligencia incorporada” desarrollado por Rodney Brooks, quien dirigió el Laboratorio de Inteligencia Artificial del prestigioso Instituto Tecnológico de Massachusetts (MIT) a fines de la década de 1990. Antes de Brooks, explica O’Gieblyn, la mayoría de las formas de IA se diseñaron como enormes cerebros incorpóreos, ya que los científicos creían que el cuerpo no desempeñaba ningún papel en la cognición humana.
Como resultado, las máquinas que creaban sobresalieron en las formas más abstractas de inteligencia — “cálculo, ajedrez”, dice O’Gieblyn— pero fallaron miserablemente cuando se trataba de los tipos de actividades que los niños encontraban fáciles: hablar y ver, distinguir una taza de un lápiz. Brooks resolvió esto dándole a sus robots cuerpos de insecto, que pronto empezaron a aprender de su entorno. “Brooks y su equipo en el MIT estaban esencialmente tratando de recrear las condiciones de la evolución humana”, explica O’Gieblyn. “Con la IA, los ingenieros solían utilizar un enfoque de programación de arriba hacia abajo, como si fueran dioses haciendo criaturas a su imagen”, dice O’Gieblyn. En realidad, la evolución funciona con estrategias de abajo hacia arriba.
¿Podrían los robots evolucionar desde cumplir con tareas básicas (caminar, ver, hablar) hasta desarrollar pensamientos complejos que vayan más allá de los más abstractos ejercicios de inteligencia (como ganar una partida de ajedrez a un campeón mundial) al muchísimo más complejo universo del razonamiento?
Hasta ahora no lo han logrado. Las inteligencias artificiales nos derrotan todo el tiempo en contar, organizar, acumular datos y conocimiento, pero aún no logran razonar como nosotros. Su lógica sigue en lo que se conoce como un if this then that, y los seres humanos aplicamos ese hilo de ideas a cuestiones éticas y sociales que tienen implicaciones para la vida en comunidad.
Lo hacemos con la consciencia, una de las formas de razonamiento más difíciles de explicar y cuyo estudio científico sigue siendo una de las carabelas que avanzan hacia la expansión de las fronteras de nuestro conocimiento. Decenas de teorías tratan de explicarla. Los avances neurocientíficos nos dan cada día más luces, pero el debate está abierto. Entender la consciencia y estudiar sus orígenes neurales, es importante no por motivos esotéricos, sino porque nos permitiría curar enfermedades, fobias y entender la forma más compleja en que funciona nuestro cerebro.
Sería una belleza circular: la consciencia descifrando la consciencia para que los seres conscientes (que, según varios científicos, incluyen en distintos niveles hasta las plantas), vivamos mejor. Entenderla, dice el investigador David Chamler, sería entender “la experiencia” —es decir, lo que sentimos y hacemos frente a lo que recopilamos cognitivamente: las bases de la consciencia y la cognición estarían, así, siempre atadas.
Los robots carecen de ese doble rasero del pensamiento. No tiene lo que la Unesco define como “el libre albedrío, intencionalidad, consciencia propia, agencia moral o una noción de identidad personal”. La idea de una “persona electrónica” nos devuelve, además, a la definición de persona.
Todo ser humano es una persona. Es una definición que ya es parte del ordenamiento legal internacional, algo que hace menos de un siglo no existía. Es parte de la ampliación de lo que el científico cognitivo Steven Pinker llama la “ampliación del círculo de compasión” a lo largo de la historia: hace siglos, muchos seres humanos no eran consideradas personas por la ley (los esclavos, por ejemplo) y otras, en cambio, eran consideradas personas a medias (los niños, las mujeres y las personas con una discapacidad). Ahora, la ley recoge lo que a nosotros nos resulta evidente (pero no hace mucho no lo era): todo ser humano es una persona y, como tal, tiene derecho a la dignidad, respeto y garantías que tal condición da.
¿Podría eso ampliarse a un robot? ¿La “persona electrónica” debería tener esas garantías? Si decimos que no, estaríamos retrocediendo en el avance de los derechos: habríamos inventado una persona de segunda clase. “Persona es todo aquello que en el hombre no puede ser utilizado”, escribió hace algunas décadas el filósofo francés Emmanuel Mounier.
Es una de mis definiciones favoritas de persona (aunque yo reemplazaría “hombre” por “ser humano”: signos de los tiempos de Mounier y los míos). Una persona es todo aquello humano que no puede ser puesto al servicio de alguien más: cuando somos usados —por políticos, clérigos o militares— se afecta nuestra condición de individuos viviendo en sociedad. Cuando nos desarrollamos plenamente, cuando tomamos nuestras propias decisiones y seguimos nuestros caminos, de forma libre y consciente, somos personas.
Y si todos los robots los estamos pensando para que nos den un servicio, para que sean utilitarios (que manejen el camión, que operen, que trabajen sin descanso en la fábrica), ¿podríamos decir que, incluso desarrollando en el futuro una consciencia propia, serán personas?
¿Qué piensas tú?
¡Gracias por leer Mi hamaca en Marte!