La IA es la tecnología más poderosa jamás creada por la humanidad, porque es la primera tecnología que puede tomar decisiones y crear nuevas ideas por sí misma. Una bomba atómica no puede decidir a quién atacar, ni inventar nuevas bombas o nuevas estrategias militares. Una IA, por el contrario, puede decidir por sí misma atacar un objetivo concreto, y puede inventar nuevas bombas, nuevas estrategias e incluso nuevas IA. Lo más importante que hay que saber sobre la IA es que no es una herramienta en nuestras manos: es un agente autónomo.
Por supuesto, seguimos definiendo para las IA los objetivos que persiguen. Pero el problema es que, al perseguir los objetivos que le damos, una IA podría adoptar subobjetivos y estrategias imprevistos que podrían tener consecuencias imprevistas y potencialmente muy perjudiciales. Por ejemplo, en los últimos años empresas de redes sociales como Facebook, YouTube y Twitter dieron a sus algoritmos de IA un objetivo aparentemente sencillo: aumentar la participación de los usuarios. Cuanto más tiempo pasaban los usuarios en las redes sociales, más dinero ganaban estas empresas. Sin embargo, en la búsqueda del objetivo de «potenciar la implicación del usuario», los algoritmos hicieron un descubrimiento siniestro. Experimentando con millones de conejillos de indias humanos, los algoritmos aprendieron que la indignación generaba implicación. Si puedes pulsar el botón de la ira, el miedo o el odio en la mente de un ser humano, captas su atención y lo mantienes pegado a la pantalla. Por tanto, los algoritmos empezaron a difundir deliberadamente la indignación, que es una de las principales razones de la actual epidemia de teorías conspirativas, noticias falsas y disturbios sociales que socava las democracias en todo el mundo. Los directivos de Facebook, YouTube y Twitter no deseaban este resultado. Pensaban que potenciar la indignación de los usuarios aumentaría sus beneficios, y no previeron que también aumentaría el caos social. Este desastre social fue el resultado de un desajuste entre los intereses profundos de las sociedades humanas y las estrategias adoptadas por las IA. En la jerga profesional, esto se conoce como «el problema del ajuste». Cuando fijamos un objetivo a un agente de IA, ¿cómo podemos estar seguros de que las estrategias adoptadas por la IA estarán realmente alineadas con nuestros intereses últimos?
Desde luego, el problema del ajuste no es nuevo ni exclusivo de las IA. Lastró a la humanidad durante miles de años antes de la invención de los ordenadores. Por ejemplo, fue el problema fundacional del pensamiento militar moderno, consagrado en la teoría de la guerra de Carl von Clausewitz. Clausewitz fue un general prusiano que luchó durante las guerras napoleónicas. En su libro 'De la guerra' (1832-1834) Clausewitz creó un modelo racional para entender la guerra, y en la actualidad sigue siendo la teoría militar dominante. Su máxima fundamental es que «la guerra es la continuación de la política con otros medios». Esto implica que una guerra no consiste en un estallido emocional, una aventura heroica o un castigo divino. La guerra ni siquiera es un fenómeno militar, sino, más bien, un instrumento político. Según Clausewitz, las acciones militares son absolutamente irracionales a menos que se ajusten a un objetivo político dominante.
La historia está llena de grandes victorias militares que condujeron a desastres políticos. Con la guerra de Napoleón, Clausewitz tenía el ejemplo más claro cerca de casa. La sucesión de victorias le proporcionó el control temporal de vastos territorios, pero no le aseguraron logros políticos duraderos. Sus conquistas militares solo sirvieron para empujar a la mayoría de las potencias europeas a unirse contra él, y su imperio se derrumbó una década después de haberse coronado emperador. Un ejemplo más reciente de victorias militares que condujeron a derrotas políticas lo encontramos en la invasión estadounidense de Irak en 2003. Los estadounidenses ganaron la mayor parte de los combates militares, pero no alcanzaron ninguno de sus objetivos políticos a largo plazo. Su victoria militar no estableció un régimen amigo en Irak ni un orden geopolítico favorable en Oriente Próximo. El vencedor real de la guerra fue Irán. La victoria militar estadounidense hizo que Irak abandonara su condición de enemigo tradicional de Irán para convertirse en su vasallo, lo que debilitó muchísimo la posición de Estados Unidos en Oriente Próximo, al tiempo que convertía a Irán en el Estado hegemónico de la región.
Tanto Napoleón como George W. Bush fueron víctimas del problema del ajuste. Sus objetivos militares a corto plazo no se ajustaban a los objetivos políticos a largo plazo de sus países respectivos. Podemos entender el conjunto de 'De la guerra' de Clausewitz como una advertencia de que «potenciar la victoria» es un objetivo tan corto de miras como «potenciar la implicación de los usuarios».
El napoleón de los clips
El auge de la IA agudiza más que nunca el problema del ajuste. En su libro de 2014 'Superintelligence', el filósofo Nick Bostrom ilustraba el peligro mediante un experimento mental. Bostrom nos pide que imaginemos que una fábrica de clips compra un ordenador superinteligente y que el gestor humano de la fábrica le otorga al ordenador una tarea aparentemente sencilla: producir tantos clips como le sea posible. En pos de este objetivo, el ordenador de los clips conquista todo el planeta Tierra, mata a todos los humanos, envía expediciones para que se apropien de más planetas y emplea los enormes recursos que adquiere para llenar toda la galaxia de fábricas de clips.
La clave del experimento mental es que el ordenador hace exactamente lo que se le dice. Al darse cuenta de que necesita electricidad, acero, tierra y otros recursos para construir más fábricas y producir más clips, y al darse cuenta de que es poco probable que los humanos le suministren todos estos recursos, el ordenador superinteligente elimina a los humanos en su búsqueda decidida de cumplir con la tarea que se le ha encomendado. Para Bostrom, el problema de los ordenadores no es que sean particularmente nocivos, sino que son particularmente poderosos. Y, cuanto más poderoso es un ordenador, más precavidos hemos de ser a la hora de definir sus objetivos de una forma que se ajuste con precisión a nuestros objetivos finales. Si definimos un objetivo desajustado a una calculadora de bolsillo, las consecuencias son mínimas. Pero, si definimos un objetivo desajustado a una máquina superinteligente, las consecuencias podrían ser distópicas.
El experimento mental de los clips puede parecer extravagante y muy desconectado de la realidad. Pero, si los gestores de Silicon Valley hubieran prestado atención cuando Bostrom lo publicó en 2014, quizá habrían extremado las precauciones antes de instruir a sus algoritmos para que «potenciaran la implicación de los usuarios». Los algoritmos de Facebook y YouTube se comportaron exactamente como el algoritmo imaginario de Bostrom. Cuando se le dijo que aumentara la producción de clips, el algoritmo trató de convertir todo el universo físico en clips, aunque ello implicara destruir la civilización humana. Cuando se les dijo que potenciaran la implicación de los usuarios, los algoritmos de Facebook y YouTube trataron de convertir todo el universo social en una mayor implicación de los usuarios, aunque ello supusiera dañar el tejido social y socavar democracias desde Filipinas hasta Estados Unidos.
Los eslabones más débiles de la humanidad
La forma en que los algoritmos de las redes sociales propagan la indignación y socavan la confianza social se ha convertido en una gran amenaza para las democracias. Pero la IA también es una amenaza para los dictadores. Aunque hay muchas formas en las que la IA puede cimentar el poder central, los regímenes autoritarios tienen sus propios problemas con ella. En primer lugar, las dictaduras carecen de experiencia en el control de agentes inorgánicos. La base de todo régimen autoritario es el terror. Pero, ¿cómo se puede aterrorizar a un algoritmo? Si un chatbot de la internet rusa menciona los crímenes de guerra cometidos por las tropas rusas en Ucrania, cuenta un chiste irreverente sobre Vladimir Putin o critica la corrupción de su régimen, ¿cómo podría el régimen castigar a ese chatbot? Los agentes de policía no pueden encarcelarlo, torturarlo ni amenazar a su familia. El gobierno podría, por supuesto, bloquearlo o borrarlo, y tratar de encontrar y castigar a sus creadores humanos, pero esta es una tarea mucho más difícil que disciplinar a los usuarios humanos.
En la época en que los ordenadores aún no podían generar contenido por sí mismos ni mantener conversaciones coherentes, los seres humanos eran los únicos capaces de expresar opiniones contrarias a las de redes sociales rusas como VKontakte y Odnoklassniki. Si la persona en cuestión se hallaba físicamente en Rusia, se arriesgaba a sufrir la ira de las autoridades rusas. Si se hallaba fuera de Rusia, las autoridades del país podían tratar de bloquearle el acceso. Pero ¿qué puede ocurrir si el ciberespacio ruso se llena de millones de bots capaces de generar contenido y de mantener conversaciones mientras aprenden y se desarrollan por sí mismos? Puede que disidentes rusos o incluso agentes externos hayan programado de antemano a estos bots para difundir opiniones contrarias al Gobierno, y quizá las autoridades no puedan hacer nada para impedirlo. O, lo que sería aún peor para el régimen de Putin, ¿qué ocurriría si, por sí mismos, los bots autorizados desarrollasen opiniones discordantes a partir de la información recabada sobre lo que ocurre en Rusia y de los patrones que advirtieran en ella?
Este es el problema del ajuste, al estilo ruso. Los ingenieros humanos de Rusia pueden afanarse en crear una IA que se ajuste totalmente al régimen, pero, dada la capacidad de la IA para aprender y cambiar por sí misma, ¿cómo podrían garantizar los ingenieros humanos que la IA no degenerará hacia formas ilícitas? Es interesante recordar lo que George Orwell señalaba en 1984: las redes de información totalitarias suelen apoyarse en el doble discurso. Rusia es un Estado autoritario que al mismo tiempo se define como una democracia. La invasión rusa de Ucrania ha sido la mayor guerra que ha conocido Europa desde 1945, pero oficialmente se la define como una «operación militar especial», y calificarla de «guerra» se ha criminalizado y puede acarrear hasta tres años de prisión o el pago de una multa de hasta cincuenta mil rublos.
La Constitución rusa se deshace en promesas grandilocuentes acerca de cómo «garantizará la libertad de pensamiento y de expresión de todos» (artículo 29 .1), de cómo «todos tendrán derecho a buscar, recibir, transmitir, producir y difundir la información libremente» (artículo 29 .4), y de cómo «asegurará la libertad de los medios de comunicación de masas y se prohibirá la censura» (artículo 29 .5). Es difícil que haya un ciudadano ruso lo bastante ingenuo como para creerse estas promesas al pie de la letra. Pero a los ordenadores no se les da bien entender el doble discurso. Un chatbot al que se instruye para que se adhiera a las leyes y los valores rusos podría leer esta constitución y concluir que la libertad de expresión es un valor fundamental del país. Después de pasar unos días en el ciberespacio ruso y de supervisar el funcionamiento de la esfera de información rusa, el chatbot podría empezar a criticar el régimen de Putin por violar un valor ruso tan fundamental como la libertad de expresión. Los humanos también nos damos cuenta de estas contradicciones, pero evitamos hablar de ellas porque sentimos miedo. Pero ¿qué podría impedir que un chatbot señalara patrones censurables? ¿Y cómo harían los ingenieros rusos para explicar a un chatbot que, aunque en principio la Constitución rusa garantice a todos los ciudadanos la libertad de expresión y prohíba la censura, no debe creer en la Constitución ni mencionar la brecha entre la teoría y la práctica?
Desde luego, las democracias se enfrentan a problemas análogos con los chatbots que dicen cosas incómodas o plantean preguntas peligrosas. ¿Qué ocurriría, por ejemplo, si, a pesar de los tremendos esfuerzos de los ingenieros de Microsoft o Facebook, su chatbot empezara a proferir insultos racistas? La ventaja de las democracias es que gozan de un margen de maniobra mucho mayor a la hora de tratar con estos algoritmos fuera de control. Puesto que las democracias se toman en serio la libertad de expresión, esconden muchos menos esqueletos en sus armarios y han desarrollado niveles relativamente altos de tolerancia incluso para los discursos antidemocráticos. Los bots disidentes supondrán un reto mucho mayor para los regímenes totalitarios, cuyos armarios esconden cementerios enteros y que muestran una tolerancia nula hacia las críticas.
A la larga, es probable que los regímenes totalitarios se enfrenten a un peligro todavía mayor: en lugar de criticarlos, un algoritmo podría controlarlos. Por lo general, a lo largo de la historia, la mayor amenaza para los autócratas ha procedido de sus propios subordinados. Ni un solo emperador romano ni líder soviético fue derrocado después de una revolución democrática, pero siempre corrieron el peligro de que sus subordinados los derrocaran o los convirtieran en marionetas. Si un autócrata del siglo xxi concede demasiado poder a la IA, esta bien podría convertirlo en su marioneta. Lo último que un dictador querría es crear algo más poderoso que él o ser presa de una fuerza que no sabe controlar.
Si los algoritmos llegaran a desarrollar capacidades como las del experimento mental del clip de Bostrom, las dictaduras serían mucho más vulnerables a la toma del poder por parte de los algoritmos que las democracias. Incluso a una IA supermaquiavélica le resultaría difícil adueñarse de un sistema democrático cuyo poder estuviera repartido como en Estados Unidos. Aunque la IA lograra manipular al presidente, aún tendría que enfrentarse a la oposición del Congreso, del Tribunal Supremo, de los gobernadores de los distintos estados, de los medios de comunicación, de las principales compañías y de diversas ONG. ¿Cómo podría lidiar el algoritmo con, por ejemplo, la oposición del Senado? Adueñarse del poder en un sistema altamente centralizado es mucho más fácil. Cuando todo el poder se concentra en manos de una sola persona, quien controle el acceso al autócrata puede controlar al autócrata y a todo el Estado. Para piratear un sistema autoritario, la IA necesita aprender a manipular a un solo individuo.
En los próximos años, los dictadores de nuestro mundo deberán hacer frente a problemas más urgentes que la toma del poder por parte de los algoritmos. En la actualidad, no hay IA capaz de manipular regímenes a esta escala. Sin embargo, los sistemas totalitarios ya corren el peligro de depositar demasiada confianza en los algoritmos. Si bien las democracias asumen que, como humanos, somos falibles, los regímenes totalitarios parten del supuesto de que el partido del Gobierno o el líder supremo nunca se equivocan. Los regímenes basados en este supuesto se ven obligados a creer en la existencia de una inteligencia infalible, lo que los hace reacios a diseñar mecanismos de autocorrección sólidos que supervisen y regulen al genio que se halla en la cumbre. Hasta ahora, este tipo de regímenes depositaban su fe en partidos y líderes humanos y eran semilleros para el surgimiento de cultos personalistas. Pero, en el siglo xxi, esta tradición totalitaria los predispone a confiar en la infalibilidad de la IA. A fin de cuentas, un sistema capaz de confiar en el genio infalible de un Mussolini, un Stalin o un Jomeiní bien puede confiar en la infalibilidad de un ordenador superinteligente.
Imagen: Barriozona Magazine
Fuente: ABC
No hay comentarios.:
Publicar un comentario