fotografia_de_chris_devers._bajo_licencia_cc_by-nc-nd_2.0._sin_cambios.jpg

Fotografía de MIT Museum: Kismet the AI robot smiles at you, bajo licencia creative commons BY-NC-SA 2.0. Sin cambios.  

Un colectivo suizo creó un robot que realizaba compras al azar en la Deep web —esa parte  oscura de Internet, donde no hay regulaciones ni identidades. El robot logró adquirir un pasaporte húngaro y varias pastillas de éxtasis. Cuando la Policía fue a detener a quien suponían era una persona que estaba infringiendo la ley, se quedó perpleja: era imposible arrestarlo. Los delincuentes, hasta ahora, solían ser humanos. Sin ley, no hay delito. El robot y sus creadores quedaron libres. La inteligencia artificial (IA) va a cambiar el mundo. Trae oportunidades y riesgos sin precedentes. Por eso deberíamos regularla. 

Esas tecnologías que hoy parecen de ficción, encuentran en un futuro bases suficientes para desarrollarse a plenitud. Se necesita  promover una legislación coherente a su realidad y con ciertos límites. En el caso de tecnologías transformadoras como esta, se necesita un mejor entendimiento para facilitar la indiscutible transición a una sociedad posthumana. No es una escena de Blade Runner”. Es el mundo del futuro, pero real, donde el uso de IA se volverá cotidiano. 

En el 2014, una “supercomputadora” instalada en Royal Society of London convenció a un jurado —que no podía ver con quien trataba— de que era un niño ucraniano, excéntrico y de 13 años de edad. Hasta entonces, nunca antes un artefacto de Inteligencia Artificial había pasado el Test de Turing, la prueba diseñada por el pionero en informática Alan Turing para dictaminar si una maquina posee o no razonamiento similar al de un humano. La lección es clarísima: avanzamos a una sociedad posthumana donde ya no sólo seremos nosotros quienes tomemos decisiones sobre el mundo. Al final, la IA no es otra cosa que un robot que en cierto grado piensa como humano. Su tecnología sólo sigue avanzando. 

Chris Stephenson, jefe estratégico de la consultora PHD, experta en el tema, asegura que para el año 2020 existirán alrededor de 20 miles de millones de artefactos conectados a internet. De ser cierta la cifra, incluiría objetos antes ajenos a las redes, como los refrigeradores y aires acondicionados. Es lo que se conoce como Internet of Things: aparatos domésticos, de uso diario, están dotados de sensores e intercambian información para integrarse y cooperar entre sí. Como Echo, una pequeña computadora cilíndrica de Amazon que escucha órdenes como poner la alarma, recordar las citas del calendario, revisar el tráfico, prender o apagar una luz. Cada vez será más difícil separar nuestras labores cotidianas de la tecnología y, por lo tanto, también nuestra vida. 

El uso de la IA puede verse en varias industrias, desde videojuegos hasta robótica compleja utilizada en diagnósticos médicos. El campo de la medicina ve a gigantes como General Electric desarrollar sistemas que pueden predecir escenarios que incluyen posibles brotes de enfermedades y las ciudades que se verían afectadas. Pero la IA va mucho más allá porque puede actuar por sí sola. Un estudio realizado por dos ingenieros informáticos de la Universidad de Oxford, Carl Benedikt Frey y Michael A. Osborne, llamado El futuro del empleo: ¿Que tan susceptibles son los trabajos a la computarización?, concluye que cerca del 47% de los actuales puestos de trabajo en Estados Unidos —agentes de carga, técnicos matemáticas, cajeros— son susceptible de reemplazo por agentes de IA. Esta tecnología dejará de ser una herramienta y se convierte en un sujeto activo de la sociedad. 

Las nuevas tecnologías podrían desplazar a trabajadores especializados en labores sencillas hacia tareas más sociales y creativas. Esto podría alterar la tendencia laboral para los siguientes años por lo que se debería debatir sobre la modernización industrial y sus implicaciones frente a la inclusión laboral.

La regulación deberá tender hacia la integridad del público, mientras el desarrollo de teorías de responsabilidad facilitará —en teoría— la persecución de aquellos que abusen de ella.  La reciente ley “anti-drone” del Estado de California prohíbe a “vehículos no operados por humanos” (drones), volar a menos de 350 pies — cerca de 107 metros aproximadamente— de propiedad privada sin autorización. Esto ha enfurecido a empresarios locales que lucran de esta actividad de varias formas —ya sea por negocios audiovisuales o de comercialización de drones— que requieren hacer pruebas para asegurar que sus aparatos funcionen de forma adecuada. Ellos se refieren a la ley como un atentado contra la libertad de desarrollar la tecnología. No es una preocupación sin fundamentos: la consultora neoyorquina CB Insights dice que la industria de drones podría crear dieciocho mil nuevos puestos de trabajos y catorce mil millones de dólares. Esas expectativas se pondrían en riesgo con legislaciones como la de California. Algo similar ocurre en el Ecuador. La Dirección Nacional de Aviación Civil del país ha cubierto el tema de responsabilidad extracontractual con la Resolución No. 251/2015, para regular el uso de drones este tipo de aeronaves no podrán sobrevolar espacios aéreos controlados, no podrán exceder una altura de vuelo de 122 metros, y los usuarios no podrán estar fatigados o bajo la influencia de substancias químicas. ¿Dónde está el límite entre el desarrollo y la inversión y la seguridad de los seres humanos? 

No es que un día las máquinas se van “despertar” en un repentino ataque de autonomía, como se ha visto en películas como Metropolis o I Robot. No necesitamos temer de un mundo distópico con robots asesinos para promover acción regulatoria. Basta con entender el potencial de la IA en ramas como medicina y transporte para conocer lo devastador que podría ser si se la utilizara en, por ejemplo, la milicia. El desarrollo de armamento inteligente podría empezar una carrera armamentística en el primer mundo. Y un futuro en el que aún se invierte en muerte y guerra es retroceso sin importar el nivel de tecnología. Las armas causarían daños difícilmente imputables a individuos mientras quienes los operan desde atrás quedarían libres  de culpabilidad. Este es uno de los escenarios más temibles de un futuro donde el humano debería ser el principal beneficiario de los avances mencionados y no una víctima más. 

Bajada

¿Por qué debemos regular la inteligencia artificial?