¿Cuál es nuestro papel como humanos frente a la Inteligencia Artificial?

¿Eres de las personas que le dicen "gracias" y "por favor" a sus dispositivos o asistentes personales como Google o Alexa luego de hacerle una petición? O tal vez te preguntas: "por qué debería si es un aparato". Una acción tan sencilla como decir este tipo de palabras esconde una profunda pregunta filosófica: ¿cuál es nuestro papel como humanos frente a las nuevas tecnologías? 

En diciembre del año pasado Google instaló una nueva y sencilla función a su asistente personal, llamada Pretty Please, la cual está diseñada para animarnos a interactuar con nuestros dispositivos de manera más educada. ¿Cómo funciona? Imagina que estás preparando la cena y necesitas un temporizador, entonces dices: "Ok Google, por favor pon un cronómetro de 5 minutos?" Entonces el asiste Google responde: "¡Qué forma tan amable de preguntar!..." Una recompensa como esta, hecha por una Inteligencia Artificial tiene un poderoso sentido de recompensa que nos hace estar más conscientes de nuestra amabilidad y, por ende, de nuestra humanidad.

Asistente de Google: -Hola, ¿en qué puedo ayudarte

Usuario: -Hola Google, por favor activa una alarma de 5 minutos

Asistente de Google: Gracias por pedirlo tan amablemente. Muy bien, 5 minutos, comienzan ahora.

 

Quien incursionó en esta idea fue Amazon con su asistente personal Alexa, luego de que muchos padres se preocuparan por la ruda o directa interacción que tenían sus hijos con esta tecnología. Ahora Alexa reconoce a los niños por su amable comportamiento al hacerle una solicitud pero esto dejó de ser algo exclusivo para niños.

La amabilidad con la Inteligencia Artificial -en este caso los asistentes de los dispositivos- va mucho más allá de hablar correctamente con un aparato; esta amabilidad habla sobre nuestra humanidad, la forma en que la reconocemos y utilizamos para interactuar con cualquier tipo de inteligencia.

La I.A está en constante desarrollo y aprendizaje, aprende de la interacción con su entorno, no puede hacerlo de forma aislada. La cantidad de información que puede recolectar de una conversación es enorme, cuando le hablamos, le estamos enseñando sobre nosotros; le estamos enseñando quiénes somos. Es por eso que necesita de un ambiente rico en experiencias en donde le enseñemos los valores y ética correcta. Justo ahora está en nuestras manos y bajo nuestro control.

 

Aprendiendo de los errores

Era el año 2016 cuando Microsoft lanzó Tay, un bot en redes sociales como un experimento para conocer más sobre la interacción entre las computadoras y los seres humanos.

Su objetivo era mantener una conversación informal y divertida con una audiencia joven pero, tan sólo 2 días después de haber sido lanzada, y gracias a la interacción con los usuarios, Tay pasó de ser una joven carismática y con ganas de aprender, a ser un bot xenófobo y racista, que mostró empatía por el genocidio. El bot fue creado para emitir respuestas personalizadas a los usuarios, recabando información sobre cada uno de ellos durante la interacción, lo cual explicó su descontrol.

Comentarios como  "Hitler tenía razón, odio a los judíos" u "odio a las j%$& feministas, todas deberían morirse y arder en el infierno" hicieron que Microsoft tomara la decisión de retirar a Tay. Hasta el momento no han vuelto a hacer un experimento de este tipo.

Y este no ha sido el único caso, el reto más grande con la Inteligencia Artificial es la interacción con un gran grupo de individuos y lo que pueden aprender de ellos. La I.A. se basa en la conjunción de materias tecnológicas (programación, lógica matemática, cibernética) y humanistas (filosofía analítica, lógica formal, lingüística generativa, psicología cognitiva), por lo que no es sólo un aparato al cual importa si lo tratamos bien o mal, importa lo que le enseñamos.

 

No podía faltar la ciencia ficción

Isaac Asimov centran sus novelas en un futuro donde la tecnología ha alcanzado tales avances que es difícil distinguir lo humano de lo tecnológico. Para Asimov, la interacción entre humanos con la Inteligencia Artificial es fundamental y parte de todos sus libros, pues, ¿dónde quedamos nosotros cuando las máquinas terminan por entender mejor la humanidad, sus valores y su ética?

Y como este hay muchos otros ejemplos de tecnologías avanzadas que fueron mal dirigidas o mal tratadas que se independizaron de la humanidad. Tal es el caso de Matrix, El hombre bicentenario, Blade Runner, etc., pero que al final, son ciencia ficción.

 

Lo que aprendemos es que en este momento nosotros le estamos enseñando a las máquinas. Así como en la alegoría de la caverna de Platón la cual plantea que, si los humanos viviéramos en una cueva y lo único que viéramos son un conjunto de sombras, pensaríamos que esa es nuestra realidad; lo mismo sucede con las máquinas, si al interactuar no le enseñamos lo mejor de nosotros, qué es lo correcto de lo incorrecto, lo cortés de lo impropio, entonces no distinguirán nada. Debemos ser muy cuidadosos con los datos e información que les damos para que no repitan nuestros errores presentes y pasados. 

Y respondiendo a la pregunta inicial ¿cuál es nuestro papel como humanos frente a las nuevas tecnologías? la respuesta, por lo menos por ahora, es que aún falta por definirlo pero lo que las tecnologías nos han obligado a ponernos cara a cara con nosotros mismos.