El escándalo de Cambridge Analytica —la empresa de análisis de datos políticos que obtuvo acceso sin permiso a los datos personales de 87 millones de usuarios de Facebook para ayudar a la campaña presidencial de Donald Trump en 2016— no solo sumergió a la compañía de Mark Zuckerberg en una tormenta política mundial, sino que también reabrió el debate sobre la necesidad de regular el uso de la Inteligencia Artificial (IA). Gurús de la tecnología como Elon Musk —CEO de Tesla y SpaceX, quien ha afirmado que el desarrollo de la IA “es mucho más peligroso que el de ojivas nucleares”— ya se han manifestado a favor de la creación de algún tipo de regulación. Ahora, políticos e investigadores académicos insisten en la misma idea.
En Reino Unido, donde nació Cambridge Analytica, la Cámara de los Lores se movilizó para liderar ese camino, con el objetivo de evitar que otras compañías establezcan precedentes para el uso peligroso y poco ético de la tecnología. La institución publicó el pasado mayo el informe IA en Reino Unido: ¿lista, dispuesta y capaz?, con cinco principios éticos que deberían ser aplicados en todos los sectores a nivel nacional e internacional: la IA debe desarrollarse para el bien común y el beneficio de la humanidad; debe operar según los principios de inteligibilidad (transparencia técnica y explicación de su funcionamiento) y equidad; no debe utilizarse para disminuir los derechos de propiedad de los datos o la privacidad de las personas, las familias o las comunidades; todos los ciudadanos deben tener derecho a ser educados para permitirles prosperar mental, emocional y económicamente junto con la IA; y nunca debería conferirse a la IA el poder autónomo para herir, destruir o engañar a los seres humanos.
Una regulación a gran escala para los robots
En febrero de 2017, el Parlamento Europeo se convirtió en la primera institución en proponer una regulación a gran escala sobre la IA, con seis presupuestos básicos, sobre todo para la robótica: toda IA deberá tener un interruptor de emergencia para no llegar a representar un peligro; la tecnología no podrá dañar a un humano; no deben crearse vínculos emocionales con ella; los robots tendrán derechos y obligaciones como “personas electrónicas”; los de mayor tamaño deberán tener un seguro obligatorio; y toda IA pagará impuestos.
Para Timothy Francis Clement-Jones, uno de los responsables del informe británico, iniciativas como esta y el hecho de que el Congreso de EEUU presionara a Zuckerberg por el robo masivo de datos personales demuestran que “el clima político en Occidente es más propicio a buscar una respuesta pública” a los problemas de seguridad planteados por la tecnología. “El objetivo no es convertir esos principios directamente en legislación, sino tenerlos como un faro de guía para la regulación de la IA”, explica. “En el área de servicios financieros, por ejemplo, tendríamos una Autoridad de Conducta Financiera que analizaría cómo las compañías de seguros usan algoritmos para evaluar sus premisas o cómo los bancos evalúan a las personas para concederles o no una hipoteca”.
Otra preocupación de los británicos es la creación de monopolios de datos, es decir, grandes compañías multinacionales (el informe nombra a Facebook y Google) con tal control sobre la recopilación de datos que pueden construir mejores IA que cualquier otra entidad, aumentando su control sobre las fuentes de datos y creando un círculo vicioso en el que las empresas más pequeñas y las naciones no puedan competir. “Básicamente, queremos que exista un mercado abierto en la IA”, afirma Clement-Jones. “No queremos tener cinco o seis sistemas principales y que quien no pertenezca a uno de ellos no pueda sobrevivir en el mundo moderno”.
Implicaciones para el desarrollo de la IA
El caso de Cambridge Analytica ha mostrado cómo los tres grandes jugadores del mundo de la tecnología —EEUU, China y Europa— equilibran las demandas de privacidad de los consumidores y de seguridad por parte de los gobiernos, a la vez que trabajan para maximizar el acceso al Big Data con el fin de dominar la IA. “Todos estos gobiernos están tratando de descubrir cómo debería ser la gestión de datos. Y eso tendrá implicaciones para la investigación y el desarrollo de la tecnología”, valora Samm Sacks, investigador del programa de tecnología del Centro de Estudios Estratégicos e Internacionales, en Washington (EEUU).
“El incidente con Facebook disparó la alarma para los reguladores y controladores de datos chinos”, agrega Lu Chuanying, investigador de seguridad cibernética del Instituto de Estudios Internacionales de Shanghai (China). “Si hubo un problema para la plataforma de redes sociales más grande de EEUU, también puede haberlo para las empresas de aquí”. Chuanying ayudó a redactar la nueva política de datos del país asiático, que entró en vigor en mayo y cuyo nivel restrictivo, dice, se sitúa entre los de EEUU y la Unión Europea, debido a las preocupaciones competitivas sobre el Big Data.
Mientras Europa pretende liderar el uso ético de los datos, China se esfuerza para quitar a los estadounidenses el liderazgo mundial en el desarrollo de IA: un reciente estudio del Instituto Future of Humanity revela que China actualmente supera a EEUU en capacidad de IA, aunque no en acceso a Big Data.
En la complicada ecuación para regular la tecnología sin frenar su desarrollo, Paula Parpart, fundadora de la compañía de IA Brainpool, apunta una luz al final del túnel. La clave, según ella, es la llamada privacidad diferencial: el análisis de datos que elimina la identidad de las personas, un área en la que se está avanzando. “Otro factor es que lo que generalmente se llama IA es, en realidad, el aprendizaje automático, que utiliza la fuerza bruta del Big Data para realizar tareas”, añade Parpart. “La verdadera IA requiere encontrar algoritmos que, al igual que los humanos, puedan aprender de uno o dos ejemplos, en lugar de miles”, aclara.
Un mayor regulación de la privacidad obligaría a reducir el uso del big data en las investigaciones y el desarrollo de nuevos productos, lo que podría repercutir en un aumento de la investigación y de los recursos destinados a lo que Parpart llama la “verdadera IA”: sistemas capaces de obtener más rendimiento con menos datos, de modo que no vulneren los derechos de los ciudadanos.
Fuente: OpenMind
No hay comentarios.:
Publicar un comentario