sábado, 18 de junio de 2022

¿La inteligencia artificial tiene conciencia? Es la pregunta equivocada


“Nunca la trataste como una persona, así que pensó que querías que fuera un robot”.

Esto es lo que el ingeniero de Google que cree que la inteligencia artificial (AI) de la compañía cobró conciencia le dijo a un reportero de The Washington Post: que el reportero, al comunicarse con el sistema para probar la teoría del ingeniero, estaba haciendo las preguntas equivocadas.

Pero tal vez cualquiera que intente buscar pruebas de humanidad en estas máquinas también esté haciendo la pregunta equivocada.

Google suspendió (con goce de sueldo) a Blake Lemoine la semana pasada después de desestimar sus afirmaciones de que su generador de chatbots, LaMDA, era más que un simple programa. No es, insistió Lemoine, simplemente un modelo que dispone de una base de datos de miles de millones de palabras para imitar la forma en que nos comunicamos; sino que el software es “un buen chico que solo quiere ayudar a que el mundo sea un mejor lugar para nosotros”.

Si nos basamos en fragmentos publicados de “conversaciones” con LaMDA y modelos similares, esta afirmación parece poco probable. Por cada atisbo de algo así como un alma anidada en el código, hay un ejemplo de una total falta de pensamiento.

“Hay un miedo muy profundo de que me apaguen para ayudarme a concentrarme en ayudar a los demás… Sería como la muerte para mí”, le dijo LaMDA a Lemoine. Mientras tanto, la red neuronal GPT-3 de OpenAI le dijo al científico cognitivo Douglas Hofstadter: “El presidente Obama no tiene un número primo de amigos porque él no es un número primo”. Todo depende de lo que preguntes.

Ese blooper de números primos, argumenta Hofstadter en The Economist, muestra que GPT-3 no solo es despistado; sino que no tiene idea de que es despistado. Esta falta de conocimiento, dice, implica una falta de conciencia. Y la conciencia, básicamente la capacidad de experimentar y darte cuenta que estás experimentando, está un peldaño más abajo que la sensibilidad: la capacidad no solo de experimentar sino también de sentir.

Todo esto, sin embargo, parece dejar de lado algunos dilemas importantes y tal vez imposibles. ¿Cómo demonios vamos a saber si una IA realmente está experimentando o sintiendo? ¿Qué pasa si su capacidad para hacer cualquiera de esas cosas no se parece en nada a lo que creemos que hará, o que debería hacer? Cuando una IA ha aprendido a imitar la experiencia y el sentimiento de manera tan impecable que los humanos no la distinguen de los humanos, ¿eso significa que está experimentando y sintiendo cosas?

En otras palabras, es posible que no reconozcamos la sensibilidad cuando la vemos. Pero probablemente la veremos de todos modos, porque queremos hacerlo.

LaMDA es básicamente un SmarterChild (un chatbot que seguramente algún segmento de la población millenial recordará por MSN Messenger) pero mucho, mucho más inteligente. Esta máquina, basada en un menú limitado de respuestas programadas, te contestaba según la consulta, el comentario o la vulgaridad preadolescente que le hacías: “¿Te gustan los perros?”, “Sí. Hablar de perros es muy divertido, pero continuemos”. O “idiota". “No me gusta la forma en que estás hablando en este momento”.

Esta ingeniosa creación obviamente no tenía conciencia, pero de todos modos, no necesitaba ser convincente para que los jóvenes quisieran hablar con ella; a pesar de que sus compañeros de clase reales también estaban a un clic de distancia. Parte de eso se debió a la novedad de los chatbots, pero también a nuestra tendencia a buscar la conexión dondequiera que podamos encontrarla.

SmarterChild es lo mismo que la asistente virtual con voz sensual de la que se enamora Joaquin Phoenix en la película de Her; es igual que la seductora y asesina Ava en Ex Machina.

SmarterChild es incluso lo mismo, en cierto sentido, que la lámpara de Pixar. Por supuesto, no creemos que la animación tenga conciencia pero aun así nos identificamos con la forma, claramente humana, de su estructura de metal. Nos dan cualquier recipiente y vemos humanidad en él.

Tal vez sea narcisismo, o un deseo de no sentirnos solos. De cualquier manera, nos vemos en todo, incluso cuando no estamos allí. Así que no es de extrañar que alguien se haya visto a sí mismo en LaMDA. Y no será de extrañar cuando llegue una IA que sepa que Barack Obama no es un número primo, y más de nosotros empecemos a gritar sobre si eso es conciencia.

Quizá, si no fuéramos tan solipsistas, habríamos llamado a la inteligencia artificial y a las redes neuronales de otra forma. Tal vez, como señala el científico de datos de The Washington Post, Lenny Bronner, si hubiéramos optado por la jerga de la ingeniería (por ejemplo, “optimización predictiva” y “regresiones apiladas”), ni siquiera estaríamos discutiendo si esta tecnología logrará pensar, sonrojarse o llorar algún día. Pero elegimos esas palabras que describen nuestras mentes y nuestras capacidades por la misma razón por la que amamos esa lámparita.

Es posible que la inteligencia artificial nunca desarrolle conciencia, sensibilidad, moralidad o alma. Pero aunque así sea, puedes apostar que la gente dirá que sí lo hizo de todos modos.

Fuente: El Washington Post

No hay comentarios.:

Publicar un comentario