“Venía de pasear y terminé en un penal en Bahía Blanca. Una pesadilla. Me tocó a mí, como le puede tocar a cualquiera. Fue por error de una máquina. Nunca cometí un delito. Trabajé toda mi vida. Pero me la podrían haber arruinado. A mí y a mi familia. Tengo tres hijas, nietas, mi madre, mi abuela de 95 años. Mi novia, que estuvo todo el tiempo. Después de estar detenido seis días, me llevaron a un penal. Si te llevan a un penal, te puede pasar cualquier cosa. Hoy estoy feliz porque salí. Pero pasé una semana de terror”.
En julio de 2019, Guillermo Ibarrola se bajó de un tren en Retiro y terminó alejado de su mundo durante casi una semana. Una cámara de videovigilancia de la estación, a la que el gobierno porteño le había agregado un software de reconocimiento facial cuatro meses antes, lo señaló como responsable de un robo agravado en Bahía Blanca, un lugar en el que él nunca había estado. La policía lo retuvo esposado y con cadenas, pero reconocía que sus órdenes provenían “del sistema” dado que ellos mismos no tenían la información completa del caso. Cuando se estaba por cumplir una semana de limbo, una fiscal intervino y detectó un error en la base de datos. El verdadero prófugo del delito se llamaba igual que Guillermo, pero su segundo nombre era Walter y su DNI era distinto. Su foto también era diferente y el software también había fallado en reconocerla. La tecnología para cuidarlo había puesto en riesgo su vida.
Ese mismo mes, mientras Guillermo permanecía detenido esperando que alguien detectara el error en la base de datos, más de cien millones de personas hacían crecer otra biblioteca de fotografías digitales. En todo el mundo, FaceApp, una aplicación para celulares que envejecía caras vía reconocimiento facial, experimentaba un aumento inusitado de usuarios. El programa ya existía desde 2016, pero en pocos días miles de artistas, deportistas, políticos en campaña y hasta padres con hijos sin capacidad de decidir, si querían participar de la diversión encontraban sus rostros avejentados compartidos en las redes sociales. Todas las caras fueron a parar a los servidores de la empresa rusa Wireless Lab.
Ante las alarmas del almacenamiento de los datos por fuera del control de las personas, Yaroslav Goncharov, fundador de la compañía, dijo en esos días de excitación por su invento que no había que preocuparse porque las imágenes no estaban en el país de Putin sino en servidores de Amazon en Estados Unidos. Es decir, según sus declaraciones, el hombre más rico del mundo, Jeff Bezos (cuya empresa tiene contratos tecnológicos conocidos con el Pentágono), estaría más dispuesto a cuidar de nuestra identidad que el presidente ruso.
Los dos ejemplos anteriores son recientes, entre los muchos, diversos y contradictorios, que muestran la convivencia de nuestras vidas duplicadas producto de las tecnologías.
En el primer caso –el de Guillermo, que es también el de cualquiera que viva en una ciudad monitoreada–, nuestra identidad digital se encuentra en una base de datos estatal y su proveedor privado que, a su vez, los utilizan para la seguridad ciudadana (en este caso, mal implementada y con errores). En el otro caso, nuestros datos biométricos están en la base de datos de una compañía de entretenimientos porque decidimos cedernos voluntariamente a cambio de cierta diversión. En otros casos, realizamos intercambios que pensamos útiles, o más o menos beneficiosos para nuestras vidas. Por ejemplo, como cuando le damos a Twitter nuestra información de perfil, ubicación, gustos y amigos a cambio de conectarnos con otra gente, leer las noticias y opinar. O a Google, nuestros datos para vendernos cosas a cambio de tener mail súper eficiente, usar Google Docs, hacer búsquedas, su navegador Chrome, sus teléfonos Android, su sitio de videos YouTube, su calendario y sus mapas. También canjeamos comodidad con nuestro banco cuando vamos dejando de ir a la sucursal física y confiamos en nuestra actividad en el homebanking. O cuando le avisamos a la secretaria del laboratorio médico que preferimos que nos envíe los resultados por mail para no ir a retirarlos.
El capitalismo del like
En cada uno de intercambios firmamos –rápido y casi siempre sin leer– términos y condiciones, que hacen que nuestra identidad digital duplicada tenga (no siempre pero casi) un consentimiento de nuestra parte. Según un estudio realizado por el escritor Marcus Moretti y el especialista en derechos digitales Michael Naughton, sobre los 50 sitios más importantes de Estados Unidos, sumados, esas constituciones digitales ocuparían 145.641 palabras. Es decir, unas 250 carillas de Word. Si quisiéramos leer todas esas palabras que usamos año a año, tendríamos que dedicar entre 181 y 304 horas. Y repetir este procedimiento todos los años, dado que la mayoría de los sitios las renuevan anualmente. A estos intercambios, en los últimos años tenemos que sumar toda una nueva capa de información que proveemos a nivel biométrico: con nuestra voz (a través de asistentes como Siri o Alexa), con nuestra cara o nuestras huellas dactilares, que van generando perfiles cada vez más detallados de nuestra persona.
En cada caso, los intercambios son distintos. Algunos podrán decir que unos son más necesarios que otros: que la necesidad de tener una cuenta de banco no es la misma que la de bajarse una aplicación de moda para hablar con una nariz de perrito. O que los datos personales que guarda el Estado para pagar asignaciones familiares son más necesarios que las bases de datos de un negocio de maquillaje online.
Lo cierto es que nuestra identidad en la era de la big data es una convivencia de bases de datos en manos de muchas personas, empresas y responsables (a veces poco responsables). También, que, como señala el filósofo coreano-alemán Byung-Chul Han, no se trata de que cuando cedemos esa soberanía de nuestros datos en favor de esas grandes empresas tecnológicas seamos individualmente insensatos (se trata, a su vez, de las empresas más ricas y mejor valuadas del mundo). En palabras de Han, se trata del capitalismo del like, la religión de nuestra época, en la que nos creemos libres mientras concedemos poder en forma de meta y microdatos. Y esto sucede sin guerras ni derramamientos de sangre. Porque justamente la psicopolítica del poder actual es lo que muta para hacerse invisible: cuanto menos lo percibimos operando, más fuerte es. O, como repite el periodista y activista australiano Julian Assange: nosotros, los ciudadanos, somos demasiado transparentes para el sistema, mientras que el poder que lo controla es muy oscuro. Por eso, el verdadero objetivo político es pensar cómo volvernos menos transparentes para la autoridad y desenmascarar eso que ellos ocultan: que sus discursos de nitidez no son más que palabras vacías.
En definitiva, la próxima vez que hagamos un intercambio y dupliquemos nuestra vida digital en manos de otros, la primera tarea será no flagelarnos. ¿Por qué lo hacemos? Porque es divertido, “porque todos los hacen”, porque tenemos dos o tres trabajos y llegamos cansados de viajar mal en el subte y gastar más que ayer por la misma compra en el supermercado. Ese mismo sistema que nos precariza y nos hace viajar mal nos ofrece la app como su parque de diversiones. Y nosotros, cansados, ya en casa, la usamos. Chau culpa.
Entre el progreso técnico y la democracia
Mientras tanto, nuestras huellas quedan impresas en algún servidor, que generalmente desconocemos. Entonces, la segunda tarea será pensar qué nos dicen los poderosos. Los gurúes de la tecnología, sus vendedores y publicistas hablan de su avance inevitable. La idea, hija del liberalismo, hace una relación directa entre el progreso técnico y la democracia: cuanto más de cada uno, más civilizados seremos. Tenemos que aceptarlos siempre. Uno de sus abanderados es Kevin Kelly, fundador de la revista Wired, que sostiene que “la tecnología es el acelerador de la humanidad” y que “a largo plazo la tecnología la deciden los optimistas”. En su libro Lo inevitable, Kelly clasifica las tendencias del futuro y nos avisa que, queramos o no, ellas van a ocurrir. “No significa que sea un destino, pero sí que vamos en ese camino”, que en el final es una gran matrix global donde todos estaremos conectados (y monitoreados). Está convencido de que nos hace un favor: hay que saber que esto va a ocurrir para ver cómo enfrentarlo. Kelly y otros autores tecno-optimistas comparten un credo: siempre hay que adoptar las tecnologías y luego corregir sus consecuencias. Sino, quedaremos fuera del progreso.
Cuando se les pregunta sobre los efectos negativos del control excesivo de las personas, la respuesta es que las empresas tienen un límite, que es que no llegarían a dañar sus propios negocios y clientes. Sin embargo, ejemplos recientes como la multa por 5 mil millones de dólares a Facebook por utilizar datos personales de sus usuarios en colaboración con Cambridge Analytica, la firma de estadísticas eleccionarias, de 200 millones de euros a British Airways por robo de datos, de Francia por 50 millones de euros a Google por no cumplir con el reglamento de protección de datos, solo por nombrar tres escándalos de los últimos meses, dan por tierra esta hipótesis. Y, en cambio, sostienen la contraria: somos nosotros, los ciudadanos, quienes debemos hacer valer la soberanía de nuestros datos. Primero, individualmente pero, sobre todo, colectivamente. Porque aunque nos cansemos de hablar de big data, inteligencia artificial y algoritmos, lo cierto es que todavía no existe la big data para la gente común, es decir, un reparto más equitativo de las cosas por el cual las ganancias económicas de las empresas de tecnología no terminen siempre decidiendo y haciendo más desiguales las decisiones en contra de las personas.
No obstante, se puede cambiar. Cathy O´Neil, una doctora en matemáticas de Harvard, trabajaba como científica de datos en fondos de inversión y startups, donde construía modelos para predecir los consumos y los clics de las personas. Tras esa experiencia, comprendió que la economía de los grandes datos de la que ella había sido parte se estaba olvidando del componente social de la ecuación. Los modelos matemáticos solo buscaban la eficiencia, pero se olvidaban de la ética y la justicia en el camino. O´Neil se convirtió en divulgadora de las desigualdades que producen los algoritmos en nuestras vidas y escribió Weapons of Math Destruction (Armas de destrucción matemática), un libro que hoy es un bestséller y que la transformó en una activista de lo que hoy se conoce como el movimiento por la “transparencia de los algoritmos”.
Académicos, investigadores de la sociedad civil y periodistas hoy trabajan en proyectos para descifrar las fórmulas que toman decisiones por nosotros pero nos son ocultadas por las corporaciones y, en general, por los Estados. En medio de esas decisiones están nuestros datos: nuestras caras en una base de datos, la performance de desempeño de un médico al que se despide luego de contratar a una “consultora de big data” que decide en un sistema de salud, o incluso las vacantes en un sistema escolar cuyas fallas siempre son “técnicas”.
Para demostrar que las decisiones de la big data no son tecno-políticas ni técnicas a secas (la tecnología no es buena ni mala ni tampoco neutral), organizaciones como la alemana Algorithm Watch construyen equipos de investigación para determinar, por ejemplo, si la aseguradora más grande del país, Shufa, tenía una fórmula que no discriminaba a sus clientes (spoiler: descubrieron que sí lo hacía). En la Argentina, desde el lanzamiento del sistema de reconocimiento facial para prófugos, la Asociación por los Derechos Civiles ha reiterado pedidos de informes al gobierno porteño para que explique si antes de implementarlo se evaluaron las tasas de error, si se llevaron a cabo análisis sobre la discriminación (tanto racial como de género) que puede resultar de los falsos positivos, y si se aplicaron las auditorías técnicas, necesarias para que no ocurran errores como los que sucedieron en el caso de Guillermo Ibarrola. La base de las preguntas, que por ahora obtienen respuestas poco precisas, es que el software de reconocimiento facial puede llegar a tener altos porcentajes de falsos positivos, como en el caso de las pruebas realizadas por la Metropolitan Police de Londres entre 2016 y 2018, las cuales resultaron en un 96% de personas mal identificadas como presuntas criminales. Es decir, que la tecnología se aplica masivamente aunque no esté madura como para hacerlo. Las empresas la venden a los gobiernos porque esa es su función. Pero los gobiernos tienen el mandato de proteger a sus ciudadanos para que sus derechos no se vean afectados. De lo contrario, la big data queda para pocos.
Fuente: Clarin
No hay comentarios.:
Publicar un comentario