martes, 31 de agosto de 2021

Del internet de las cosas al internet de los sentidos


Una vez la ciudadanía está cada vez más acostumbrada al internet de las cosas (IoT), las empresas tecnológicas avanzan hacia la siguiente revolución industrial, a la que han denominado la de la computación cognitiva. Mediante el ya conocido internet de los sentidos, la realidad virtual y más si cabe la realidad aumentada, junto a diversos wearables, hará posible, si la velocidad de las redes lo permiten en unos pocos años, experiencias inmersivas en las que pondremos en práctica todos nuestros sentidos.

El internet de las cosas

Multitud de sensores instalados en nuestras vidas permiten la captura de datos, como relojes inteligentes, medidores de actividad, cámaras en edificios, micrófonos o incluso los dispositivos de telefonía móvil. Ante esta ingente cantidad de información recogida, el aprendizaje automático y la inteligencia artificial pueden ofrecernos mejoras, por ejemplo, en la frecuencia del transporte público o en la regulación del tráfico.

Además, no resulta extraño controlar los dispositivos por voz como una televisión o las bombillas y enchufes del hogar o que el coche evite que nos salgamos del carril o nos acerquemos demasiado al vehículo que nos precede, endureciendo la dirección o frenando automáticamente para evitar una colisión.

Debido a la hiperconexión, avanzamos hacia la búsqueda de redes más eficientes, sostenibles y cuidadosas con el medio ambiente, con mayor velocidad y menor latencia. Se espera que el 6G sea 50 veces más rápido que el 5G y que esté a nuestro alcance pasado el año 2030. La pregunta ahora es: ¿qué nos depara el futuro?

El internet de los sentidos

La siguiente revolución industrial, la de la computación cognitiva, buscará la unión de lo humano, lo físico y lo digital para intentar imitar el comportamiento del cerebro humano. Los sistemas de aprendizaje automáticos y el procesamiento del lenguaje natural serán las dos disciplinas con mayor auge que mediante el reconocimiento de patrones permitirán experiencias inmersivas. Ya hoy en día los negocios que triunfan no son los que ofrecen siempre el mejor producto, sino los que ofrecen “una experiencia”.

Ericsson, en su informe sobre los consumidores, destaca 10 expectativas relacionadas con el internet de los sentidos destacando que casi el 60% piensa que el cerebro será la interfaz de usuario. No es extraño el avance que nos espera en cuanto a la utilización de los sentidos. En este aspecto, los consumidores se atreven a hacer predicciones para los distintos órganos sensoriales:
  • Vista: la mitad de los encuestados imagina que la diferencia entre la realidad física y digital habrá desaparecido casi por completo en 2030 debido a pantallas holográficas en 3D. Será difícil discernir lo real de lo imaginario.
  • Oído: traductores instantáneos permitirán controlar nuestro entorno de sonido. Viajar al extranjero, impartir conferencias o trabajar en otro país ya no será un problema.
  • Olfato: 6 de cada 10 consumidores esperan poder visitar lugares lejanos de manera digital y experimentar los aromas naturales de esos lugares. En el mundo analógico ya se han hecho pruebas de libros con olores. En el digital, se intentó en películas de cine en los años 60, cuando la tecnología no era tan avanzada, además de cara, y la sensación de inmersión no era completa. Posiblemente sea el mayor reto al que nos enfrentamos, pues somos capaces de procesar unos 450 000 olores diferentes, una gama tan inmensa que el proceso resulta muy complejo.
  • Gusto: no hablamos aquí de los trampantojos gastronómicos, si no de colocar un dispositivo en la boca que mejore digitalmente los alimentos que comemos, para que todo sepa exactamente como queramos o incluso para paladear los sabores de nuestra infancia o productos ya desaparecidos.
  • Tacto: 6 de cada 10 piensan en la existencia de dispositivos que estimulen los nervios para sentir cualquier objeto o persona en 2030. Que los dispositivos tengan incluso esa sensibilidad de fuerza realizada al presionar un objeto. En medicina, por ejemplo, podría ser un significativo avance lograr reproducir en una pantalla la sensación de pinchar en un brazo o incluso operar a una persona.
En definitiva, la tecnología avanza y la velocidad de las redes de transmisión de datos aumenta. Vivimos un momento de transformación digital en todos los aspectos claves de la vida que, por ejemplo, ha hecho viable contar con una vacuna frente al coronavirus en menos de un año, que el mercado laboral ya no tenga casi sentido tal y como lo conocíamos y que proliferen nuevas profesiones como arquitecto de datos, hace unos pocos años impensables.

Volamos hacia una inmersión absoluta de lo digital y lo físico. Cada vez será más difícil discernir entre realidad o ficción. La internet de los sentidos supondrá avances en nuestra alimentación o en la medicina, que podrá ser preventiva más que curativa. Como aspectos negativos, debemos controlar la seguridad de los datos, evitar la filtración de información a personas no deseadas. Con acciones formativas y difusión de los riesgos, controlaremos los peligros y avanzaremos hacia la siguiente revolución industrial.

Fuente: National Geographic

lunes, 30 de agosto de 2021

Los reguladores parecen pensar que todo internet es Facebook


En 1997, SixDegrees.com se convirtió en el primer intento real de una red social, creando un espacio donde los usuarios podían cargar su información y enlistar a sus amigos. El sitio llegó a tener unos 3.5 millones de usuarios antes de cerrar en 1999.

Desde entonces, han surgido una serie de modelos de negocios de redes sociales, los cuales ofrecen herramientas cada vez más avanzadas para la interacción del usuario. LiveJournal, un sitio para mantenerse al día con los amigos de la escuela, combinó funciones de blogs y redes sociales inspiradas en WELL. Friendster fue una red social que permitía una mayor interacción y control por parte de los usuarios. Myspace ofrecía membresía abierta y les daba a los usuarios la libertad de personalizar sus páginas. En 2005, el sitio web, con sus 25 millones de usuarios, fue comprado por News Corp. Pero tres años más tarde, Myspace había sido superada por Facebook, que se lanzó en 2004 inicialmente para estudiantes universitarios y se abrió al público en general en 2006.

Como muestra esta historia, los cambios fueron profundos y constantes en los albores del internet. Surgieron nuevas compañías de música, videos, comercio electrónico, publicaciones, y telefonía casi todos los años. El internet parecía ser un espacio donde la competencia podía prosperar.

Pero ya no es así.

Hoy en día, el cambio ocurre de formas mucho más pequeñas. Los ejemplos son cada vez menos porque las economías de escala han concentrado la innovación en manos de unos pocos jugadores.

Lo más frecuente es que las disrupciones provengan de la regulación, para bien o, frecuentemente, para mal. Los intentos de regulación actuales se centran en las acciones y el comportamiento de algunos actores, principalmente Facebook, pero crean consecuencias no deseadas para el internet, en particular la fragmentación, o el quebrantamiento del internet global en uno que se apega más a las fronteras territoriales.

Es comprensible que tanto el público como los reguladores puedan pensar que regular "internet" significa centrarse en los actores más importantes. Mucho de esto tiene que ver con el hecho de que los usuarios frecuentemente están expuestos a varios tipos de comportamiento y contenido ilegal a través de algunos de los servicios más populares que existen en internet. Se piensa que si se logra arreglar los problemas de la desinformación, el extremismo, el atrincheramiento ideológico o la seguridad en Facebook, se arreglará el internet como un todo.

Esta es una narrativa inútil y equivocada. En primer lugar, el internet no es un monolito, y tratarlo como si lo fuera no servirá de nada. En segundo lugar, muchos de los temas que los reguladores están tratando de abordar no son problemas del internet, sino sociales. El terrorismo, el abuso infantil, la información errónea y la desinformación no son una consecuencia del internet, existían antes del internet, y seguirán existiendo después, ya que están arraigados en las sociedades humanas. Sin embargo, estos problemas se tratan como si fueran exclusivamente del internet. En tercer lugar, y lo más importante, los reguladores deberían dejar de pensar en internet como sinónimo de Facebook, y de tratarlo como tal. Hay, en el panorama regulatorio del internet, una mezcla de temas disímiles, y la participación directa o indirecta de Facebook en todos ellos se suma a la complejidad actual. La moderación de contenido, la privacidad, la responsabilidad del intermediario, la competencia, el cifrado, todos estos son problemas que atañen a internet, no solo a Facebook. Sin embargo, el patrón que ha surgido es tratarlos como problemas de Facebook. Lo que esto significa es que, en lugar de buscar abordarlos de maneras que sean apropiadas para todo el ecosistema de internet, se abordan a través de la lente de Facebook. Esto se ha identificado con bastante precisión como el "síndrome de trastorno de Facebook".

La agenda regulatoria mundial está repleta de ejemplos de este tipo. En el Reino Unido, la legislación de seguridad en línea busca prohibir el cifrado de extremo a extremo debido al plan de Facebook de introducirlo como configuración predeterminada en su servicio de mensajería. Australia introdujo recientemente un código de negociación de medios dirigido principalmente a Facebook. Facebook se posicionó en el ojo del huracán por "abandonar" el país antes de renegociar un nuevo acuerdo. De manera similar, en lo que parece ser un esfuerzo coordinado, Canadá se ha comprometido a trabajar con Australia en un intento de imponer restricciones regulatorias a Facebook.

Y esta tendencia no se limita al Commonwealth.

Las nuevas pautas para intermediarios en India apuntan a reforzar el control regulatorio sobre Facebook y su empresa asociada WhatsApp, mientras que el proyecto de ley de noticias falsas de Brasil, que fue aprobado por el Senado, se centra en la moderación del contenido en Facebook y la capacidad de rastreo en WhatsApp. En Francia, ha habido conversaciones sobre la introducción de "nuevas reglas" para Facebook, mientras que la Ley de aplicación de la red de Alemania, NetzDG, se redactó con el objetivo principal de contener a Facebook. Finalmente, en Estados Unidos, la administración Trump emitió una fallida orden ejecutiva que tenía como objetivo regular a Facebook por sesgos.

Este enfoque de limitar la regulación a Facebook no es del todo inusual. Refleja el dilema del agente-principal que, a lo largo de los años, ha permitido a empresas como Facebook proponer políticas e implementar herramientas que pueden tener un impacto en la forma en que se hace cumplir la regulación. El dilema del agente-principal se caracteriza predominantemente por conflictos de interés y riesgos morales. Debido a las asimetrías de información, el agente tiene el poder de negociación y esto crea algunas incógnitas: el principal no está en posición de conocer la información que tiene el agente. Incluso cuando lo hace, no puede estar seguro de que el agente esté actuando en su mejor interés. Entonces, el principal termina enfocándose directamente en el agente, sin tener en cuenta cualquier problema periférico que pudiera ser significativo.

El problema del agente-principal puede ayudar a explicar por qué los gobiernos parecen listos para introducir regulación dirigida a Facebook; sin embargo, no ayuda a entender por qué, en el proceso de hacerlo, los principales perdedores son internet y sus usuarios.

En los últimos años, Facebook ha dicho: "Apoyamos la regulación" y "queremos que las regulaciones de internet actualizadas establezcan pautas claras para abordar los desafíos más difíciles de hoy en día". Esta declaración sería significativa si no reflejara el interés propio de la empresa. En este punto, la regulación es inevitable y Facebook lo sabe, al igual que el resto de las grandes compañías tecnológicas. En un esfuerzo por adaptarse a esta nueva realidad, las empresas suelen aprovechar su posición dominante para impulsar ciertos procesos regulatorios, a menudo a expensas de la propia regulación.

En este contexto, la pregunta que deberíamos hacernos no es si la regulación es apropiada, sino cuáles son las implicaciones reales de regular de esa manera. Ya existe el argumento de que centrarse en unos pocos jugadores grandes tiene un impacto en el bienestar de la innovación y la capacidad de los recién llegados para competir. Y luego está internet. Su alcance global es una de sus principales fortalezas. Es una característica, no un error. Entre otras cosas, permite el mantenimiento de cadenas de suministro en todo el mundo. Permite que la gente se comunique, que se reduzcan costos, y que se facilite el intercambio de información, al mismo tiempo que ayuda a abordar problemas sociales como la pobreza o el cambio climático.

El intento de regular con base en una –o un puñado– de empresas puede poner en peligro este importantísimo objetivo de internet. Puede crear fragmentación, en el sentido de no permitir que los datos fluyan a través de las fronteras o que las redes se interconecten, y esto puede tener un impacto muy grande. Puede imponer límites a la forma en que la información y los datos se comparten y la forma en que las redes pueden operar. Se trata de sacrificios importantes y deben formar parte del proceso de cualquier regulación.

Entonces, ¿qué hacemos ahora?

Por supuesto, la respuesta no puede ser dejar de regular. Pero debemos aceptar que el enfoque actual a menudo genera consecuencias no deseadas que solo afectan superficialmente a quienes realmente deben ser regulados.

En este sentido, una posible forma de avanzar es experimentar con la regulación. La regulación experimental es un enfoque relativamente subutilizado, pero lo suficientemente flexible para adaptarse a mercados dinámicos como el internet. Esta idea, originalmente asociada con el trabajo de John Dewey, se basa en el hecho de que, en la formulación de políticas públicas, la forma en que abordamos las teorías y estrategias de justicia depende de “la experiencia de su búsqueda; son estos cambios los que luego nos permiten considerar la mejor manera de lograr nuestros objetivos". La ventaja de este pensamiento es que considera las consecuencias no deseadas como una oportunidad para definir de mejor manera los marcos regulatorios apropiados y cómo lograr los objetivos deseados.

No se experimenta lo suficiente con la regulación del internet y, cuando se hace, parece tener un enfoque equivocado. En Australia, por ejemplo, el esfuerzo por garantizar periodismo sólido en una era de desinformación en las plataformas de redes sociales condujo a un "impuesto a los enlaces" que socava la arquitectura, la historia, y la economía de internet. Esto se debe en parte al papel que juegan las grandes empresas tecnológicas en el proceso regulatorio. Una de las cosas inmediatas que se pueden observar con la regulación de internet es el proceso que siguen algunos actores: al principio, operan a favor de sostener las políticas y burocracias existentes. El pensamiento es que la longevidad trae legitimidad y, como resultado, la política se convierte en su propia causa. Una vez que esta estrategia está incorporada en el proceso, estas fuerzas poderosas avanzan para impulsar su propia agenda regulatoria.

Es por ello que existe un cierto atractivo hacia sistemas regulatorios flexibles que permitan a diferentes unidades experimentar con diferentes enfoques y dar lugar a evaluaciones que separen las reglas relevantes de las no relevantes y preexistentes. Aunque la experimentación no ofrece un enfoque drástico ni pretende reemplazar las rutas tradicionales de regulación, sí puede limitar los riesgos de politización, a medida que la política se enfoca más en el contexto.

Una de las primeras cosas que necesitamos es una evaluación de impacto de internet que analice las diferentes partes de la infraestructura de internet y el efecto que puede tener la regulación. Ya no se trata solo de regular a unos pocos actores. Se trata de proteger la infraestructura global de la que todos dependemos a diario.

El internet tiene un problema con Facebook, pero el internet no es Facebook.

Imagen: Derechos Digitales

Fuente: Letras Libres

La educación se moderniza tan lentamente que nunca dejará de estar anticuada


Se admite casi de modo unánime que las innovaciones o los simples cambios en educación resultan, quizá, excesivamente costosos, a juzgar por lo poco que se mueven las prácticas docentes en las aulas. En definitiva, por la lentitud de los procesos de asimilación de nuevas opciones didácticas –genéricamente hablando– por parte de los docentes, para actualizar sus intervenciones y ponerlas al día con lo que exige la sociedad de cada momento, ofreciendo posibilidades diversas al alumnado para su adecuada formación de cara a incorporarse a un mundo con características y requerimientos concretos.

La sociedad evoluciona rápidamente, no cabe duda, y si la educación institucional no quiere perder su papel fundamental en el desarrollo y evolución de la persona, debe ponerse en marcha a paso ligero para no perder el tren en este proceso de avance que se visualiza como esencial para el futuro de la ciudadanía en sistemas democráticos en los que la participación activa es imprescindible.

Algunos ejemplos nos pueden servir de evidencia de ese desfase temporal en la actualización escolar con el que comenzamos este texto. Veamos.

Comenius, en 1630, publica su Didáctica magna, en la que propone, entre otras muchas innovaciones, la enseñanza cíclica, que se incorpora a nuestro sistema educativo en enero de 1981, después de 300 años.

Podríamos quedarnos en el examen de la obra de Comenius, porque anticipa importantes avances en educación, especialmente en lo referente a la mujer, pero no es el objeto de estas líneas, aunque se recomienda la lectura de este autor.

Teorías escuchadas muchas veces

Si revisamos los temas que resultaban problemáticos y de actualidad en el siglo XVII (por ejemplo), tanto en textos de pedagogos con prestigio reconocido, como en los de los “maestros del arte de escribir” (lingüistas, pero maestros, al fin), se observa que aparece la importancia de la familia en la educación, la formación de los maestros, las vacaciones escolares, el número de alumnos por aula, la educación de la mujer, el papel de la inspección… Nos suena, ¿verdad?

Parece que la discusión sobre determinadas cuestiones educativas no termina nunca. No acabamos de aprender de la ciencia y de la experiencia para llegar a resolverlas, a pesar de los muchos avances que han tenido lugar en todos los campos.

El aprendizaje por proyectos data de 1918

Damos un salto hasta 1918, año en que Kilpatrick propuso formalmente el método de proyectos como metodología favorecedora del interés de los estudiantes para aprender, al promover la investigación y el trabajo en común, motores del fomento de la curiosidad de niños y jóvenes.

Al aparecer las competencias clave en nuestro sistema educativo, a partir de la LOE, muchos centros optaron por el trabajo y aprendizaje basados en proyectos. Perfecto. Lo grave es que la mayoría de docentes pensó que era un descubrimiento actual. Después de 100 años tras su invención, al fin llegó a las aulas.

Las nuevas tecnologías ya son viejas

La informática aparece, inicialmente, hace unos 80 años. No obstante, muchos colegas continúan hablando de nuevas tecnologías al referirse a su aplicación en educación. No sería importante, si no fuera verdad en algunos casos. La situación de pandemia y confinamiento puso de manifiesto la falta de actualización y alfabetización mediática de buen número de docentes, para los que, en efecto, seguían (y siguen) siendo nuevas estas tecnologías.

Si pasamos al campo de la evaluación de aprendizajes, recordemos que la evaluación continua (no los exámenes continuos) está implantada en España desde 1970, en su Ley 14/1970, de 4 de agosto, General de Educación y Financiamiento de la Reforma Educativa. Bien, pues todavía hay que insistir en sus beneficios y en la conveniencia de su generalización, al menos en las etapas de educación obligatoria, no selectiva por principio.

El magisterio se resiste a abandonar el modelo de evaluación mediante pruebas puntuales y escritas, para pasar a la evaluación permanente de procesos, de carácter formativo, que permite tomar decisiones inmediatas para superar cualquier disfunción que pueda presentarse, favoreciendo así el aprendizaje personalizado y de éxito en la mayoría del alumnado (educación inclusiva). Han pasado 50 años sin conseguir generalizar el modelo.

La actualidad exige el trabajo en equipo, porque es imposible que una sola persona abarque los saberes que la humanidad ha acumulado y sigue haciéndolo a ritmos inigualables a los de otras épocas.

Esta situación requiere de especialización en determinados campos, pero para avanzar se hace precisa la colaboración de muchos conocimientos, es decir, de muchas personas que han debido formarse –además de los saberes específicos de su carrera profesional– en investigación, trabajo cooperativo, creatividad, pensamiento divergente y crítico, control de emociones, apertura a la innovación, etc.

El acceso a la información no es el problema

Todo debe derivar en un modelo educativo diferente al de siglos pasados en los que la transmisión de información resultaba fundamental. Hay que ser conscientes de que acceder a un conocimiento concreto, en estos momentos, implica solamente introducir la palabra precisa en un buscador informático y en segundos se dispone de millones de datos relacionados con lo solicitado. La información no es el problema de nuestra sociedad, lo es la capacidad de discernimiento referida a la enorme cantidad de información recibida.

Es hora de avanzar sin miedo, de progresar en métodos, organización, evaluación, contenidos, metas realmente significativas para el sistema que lo sean también para la población. Si no se consigue un modelo que capte el interés y despierte la curiosidad de quienes se forman en él, difícilmente resultará funcional para la vida que nos toca abordar en este tiempo cambiante, inseguro, con la incertidumbre como futuro.

Si la formación inicial del magisterio continúa llevándose a cabo con métodos tradicionales, el maestro, al llegar a su aula por primera vez, reproducirá lo que hicieron con él cuando ingresó en la escuela; es decir, cada maestro que se incorpora como nuevo docente retrocede veinte años con respecto a la fecha de su titulación. Sale de la carrera sin haber adquirido las competencias que actualmente se precisan para educar. Y así continuará si no cambian las cosas radicalmente.

Se necesitan competencias para el mundo actual

La educación debe garantizar la adquisición de competencias que aseguren a la persona el dominio sobre la toma de decisiones que deberá realizar día a día con cierta seguridad de acierto. Para ello no es válido un sistema memorístico y rutinario, creador de sujetos sin criterios propios ni independencia de juicio, sino otro que ayude a la autonomía y a la creatividad, con las que emprender la vida mejor para cada sujeto en cada circunstancia.

¿Tardaremos muchos años en tomar las decisiones necesarias? ¿Hasta cuándo estaremos haciendo perder el tiempo a las generaciones jóvenes? ¿Todavía no sabemos lo suficiente como para poner en marcha un sistema acorde con la realidad actual?

Esperemos que en esta tercera década del siglo XXI seamos capaces de adecuar la educación a las necesidades de la persona y de la sociedad.

Imagen: Historia National Geographic

Fuente: The Conversation

domingo, 29 de agosto de 2021

Juanita Moody, la criptógrafa que fue clave para evitar una guerra nuclear entre EE.UU. y la Unión Soviética


En octubre de 1962 el mundo estuvo al borde de una catastrófica guerra nuclear.

El 14 de octubre, un avión espía U2 de Estados Unidos descubrió que la entonces Unión Soviética tenía instalados misiles nucleares en Cuba, a menos de 150 km de las costas de Florida.

En las narices de Estados Unidos, los soviéticos habían logrado montar un arsenal balístico nuclear que podía alcanzar la mayor parte del territorio estadounidense.

El episodio pasó a la historia como la Crisis de los Misiles, uno de los momentos críticos de la Guerra Fría.

En este tenso escenario, la respuesta de EE.UU. estuvo guiada por los informes de inteligencia de una agente, que aunque durante décadas pasó desapercibida, resultó clave para impedir un desenlace apocalíptico.

Su nombre era Juanita Moody, una criptógrafa que para entonces estaba a cargo de vigilar a Cuba como parte de su trabajo en la Agencia de Seguridad Nacional de EE.UU. (NSA, por sus siglas en inglés).

Los detalles de sus reportes aún permanecen clasificados, pero una reciente investigación del escritor y periodista David Wolman devela "el rol central" que tuvo Moody en el agónico otoño de 1962.

Para Wolman, la de Moody "es una de las más extraordinarias omisiones" en la historia de la Guerra Fría, según lo describió en un reciente artículo de Smithsonian Magazine.

En conversación con BBC Mundo, Wolman describe a Moody como una "innegable rockstar", que logró abrirse camino en un medio de un entorno adverso.

"Ella inspiró respeto en un mundo dominado por hombres militares", dice Wolman, "y ella no era ni hombre ni militar".

¿Cuál fue el papel de Juanita Moody en la Crisis de los Misiles y por qué su historia no es tan conocida?

Big Data

En 1962 Juanita Moody tenía 38 años.

Había nacido en 1924 en una pequeña población de Carolina del Norte, y en 1943, cuando recién había ingresado a la universidad, decidió alistarse en la Armada, en medio de la Segunda Guerra Mundial.

"Sentí que estaba mal pasar mi tiempo en este hermoso lugar, con cielos azules despejados, paseando por el campus y estudiando por placer, cuando mi país estaba en guerra", recordaba Moody en una entrevista con historiadores de la NSA que fue desclasificada en 2016.

Moody fue enviada a Arlington Hall, en Virginia, donde estaban las instalaciones del Servicio de Inteligencia de Señales, precursor de la NSA.

Ahí recibió entrenamiento en análisis de mensajes encriptados y fue asignada a un grupo que descifraba comunicaciones de los nazis.

Moody demostró su talento al impulsar, junto a un compañero lingüista, el desarrollo de una máquina basada en el trabajo de Alan Turing para generar códigos de cifrado automáticamente.

"Ella ayudó en el avance del trabajo de inteligencia impulsando un uso ambicioso e innovador de las nuevas tecnologías", dice Wolman.

A partir de 1952, cuando se creó la NSA, Moody ocupó varios puestos de liderazgo en los que analizaba grandes cantidades de datos y los ponía rápidamente a disposición de los encargados de tomar decisiones.

"Fue una entusiasta del uso del big data mucho antes de que se estableciera ese concepto", escribe Wolman.

Días tensos

En 1961, tras el fallido desembarco de Bahía Cochinos en el que exiliados cubanos entrenados por la CIA intentaron derrocar a Fidel Castro, el líder cubano aceptó la ayuda del premier soviético Nikita Khrushchev.

La alianza cubano-soviética convirtió a la isla en un punto caliente de la Guerra Fría, e hizo que los norteamericanos centraran su atención en el Caribe.

Y Moody estuvo al frente de esa labor de inteligencia.

El trabajo de su equipo incluía rastrear mensajes de radio, datos de radares, comunicaciones electrónicas, sistemas de lectura de armas, documentación de barcos y cualquier otra información que pudieran interceptar.

Además, la NSA instaló centros de inteligencia en Florida, y desplegó aviones espía sobre Cuba.

Por su parte, la fuerza naval desplegó barcos equipados con sistemas de vigilancia.

Con esos recursos, Moody y su equipo comenzaron a notar que Cuba estaba mejorando la seguridad de sus comunicaciones.

También identificaron un aumento del tráfico marítimo desde bases navales soviéticas hacia Cuba. Eran barcos que llegaban a Cuba con documentación en blanco, con cargas cuyo peso no se correspondía con el peso que se declaraba en el puerto o que hacían descargas clandestinas en medio de la noche.

También escucharon conversaciones que mencionaban tanques, radares, armas para atacar aviones y personal soviético llegando a la isla.

"Las cosas se estaban calentando" recordaba Moody citada en el artículo de Wolman.

"Zona de cuarentena"

Moody recibió la orden de armar un reporte con sus hallazgos.

"Queremos saber lo que tú sabes sobre Cuba", le dijo Edward Lansdale, secretario de Defensa asistente.

"Incluso si es una corazonada...quiero saber todo lo que tienes en mente cuando piensas en Cuba".

Moody, que tenía todo documentado, le respondió sin inmutarse: "No necesito tener ninguna corazonada".

En febrero de 1962, trató de convencer a Louis Tordella, vicedirector de la NSA, de que compartiera el informe con la Casa Blanca, el Departamento de Estado y el ejército.

Tordella se negó a compartirlo con otras agencias, pero sí lo hizo llegar hasta el presidente John F. Kennedy, quien firmó el reporte con sus iniciales, señal de que lo había leído.

Al final, Moody finalmente convenció a Tordella de que compartiera el documento con otras agencias, entre ellas la CIA.

En la primavera de 1962, ya era evidente que Cuba había instalado un sistema de defensa contra ataques aéreos y aviones MIG merodeaban las aguas donde estaban los barcos estadounidenses cerca de la isla.

En agosto, en parte gracias a la información recabada por Moody, la CIA le informó a Kennedy que miles de soldados soviéticos y "cantidades sustanciales" de material militar habían llegado a Cuba.

Para entonces EE.UU. había suspendido los sobrevuelos sobre Cuba, pero el reporte de Moody fue determinante para que se reanudaran, explica Wolman.

Así, el 14 de octubre, un avión U2 tomó 928 imágenes aéreas, con las que los estadounidenses detectaron que la Unión Soviética había instalado misiles nucleares en la isla.

Con esta información, la decisión de Kennedy fue montar un bloqueo naval alrededor de Cuba, una llamada "zona de cuarentena" que se impuso a partir del 22 de agosto.

La idea era detener la llegada de más misiles a Cuba, dándole tiempo para negociar con los soviéticos.

"No me importaba la política"

Con el hallazgo de los misiles, la misión de Moody pasó de develar secretos a enviar información inmediata sobre los movimientos de los soviéticos en Cuba.

Según explica Wolman, esta labor la realizaban con la ayuda de micrófonos submarinos, aviones espía, dispositivos de escucha en los barcos y otras herramientas que aún permanecen en secreto.

El 24 de agosto, dos días después de que se impusiera la cuarentena, el equipo de Moody detectó que al menos uno de los barcos soviéticos que iban en dirección a Cuba cambió su rumbo y pareció girar de vuelta a la Unión Soviética.

Según explica Wolman, esto se vio como una señal de que los soviéticos no querían desafiar a Kennedy.

Moody sintió que debía avisar con urgencia a Adlai Stevenson, embajador de EE.UU. ante la Organización de Naciones Unidas, quien al día siguiente debía dirigirse al Consejo de Seguridad de la ONU sobre la crisis.

Los funcionarios del Departamento de Estado se negaron a comunicar a Moody con Stevenson en mitad de la noche, pero ella no les hizo caso y llamó al embajador directamente a su habitación del hotel en Nueva York.

"Lo llamé y lo saqué de la cama", recuerda Moody. "Hice lo que sentí que era correcto y realmente no me importaba la política".

Solución Pacífica

Según explica Wolman, la inteligencia recabada por Moody brindó los primeros signos positivos de que era posible una salida pacífica del conflicto.

El 28 de octubre, después de que Kennedy enviara dos mensajes a los soviéticos, Khrushchev accedió a desmantelar su arsenal en Cuba si EE.UU. se comprometía a remover los misiles militares que tenía en Turquía y a no invadir Cuba.

El papel de Moody en la resolución del conflicto fue elogiado por los altos mandos de la inteligencia estadounidense.

En una carta de felicitación, Robert Dennison, comandante de la flota de EE.UU. en el Atlántico, dijo que el trabajo de la NSA en Cuba fue "uno de los factores más importantes para respaldar las operaciones".

Wolman aclara que Moody fue solo una pieza en medio de una gigantesca maquinaria de gobierno, militares e inteligencia, pero su informe fue clave para mostrar la dimensión de la amenaza en Cuba y para que se reanudaran los sobrevuelos con aviones U2, gracias a los cuales se detectó el arsenal nuclear.

"Si Juanita Moody no hubiera sido tan buena en su trabajo o si no hubiera insistido en escribir y distribuir ese informe que ni siquiera su jefe quería que compartiera, ¿qué podría haber pasado? Es una incógnita", dice Wolman.

"Se trata de tener las manos firmes durante una crisis; así es como se evita un desastre", añade el periodista.

"Juanita Moody fue firme y competente. La información que proporcionó, la forma en que la proporcionó, incluso la velocidad con la que lo hizo, ayudó a hacer posible una salida pacífica".

Conquistar el mundo

Moody supo abrirse camino en un ámbito dominado por hombres.

Para lograrlo, la clave fue la educación que recibió en su familia, según ella misma lo dijo.

"Siempre me hicieron sentir que podía conquistar el mundo si quería", dijo Moody en una entrevista con la NSA en 2001, que recoge el reportaje de Wolman.

Aun así, Moody sintió que en varias ocasiones no fue ascendida de cargo solo por ser mujer.

Wolman cree que la historia de Moody ha pasado desapercibida por varias razones.

"Hay dos cosas de las que al gobierno de Estados Unidos no le gusta hablar: armas nucleares y la NSA", le dice Wolman a BBC Mundo.

"La historia de Juanita Moody está en medio de esos dos asuntos".

Además, el escritor cree que también influyó el hecho de que fuera una mujer en un gremio dominado por hombres.

Moody murió en 2015, a los 90 años, y fue enterrada en el Cementerio Nacional de Arlington, Virginia, donde se le rinde homenaje a quienes han contribuido a la defensa militar de EE.UU.

Según David Hatch, historiador de la NSA, Moody revolucionó la forma en que la agencia manejaba los asuntos urgentes.

"Fue una pionera", dijo Hatch en conversación con Wolman.

Por su parte, Wolman está convencido de que Moody fue una persona clave en la inteligencia estadounidense.

"Sabía muy bien cuando romper los protocolos, aunque eso enfureciera a algunas personas", dice. "Tenía un fuerte sentido de la ética, de saber qué era lo correcto".

"Incluso el militar de mente más cerrada en ese tiempo estaría de acuerdo con eso", concluye el escritor.

Fuente: BBC

viernes, 27 de agosto de 2021

Conoce la brecha del conocimiento


En los últimos 60 años, algunas brechas de desarrollo entre los países se han achicado notablemente. Pero otras han persistido. Y una se ha ampliado, con implicancias preocupantes para el futuro.

Desde un punto de vista positivo, la expectativa de vida en los países de bajos ingresos ha aumentado del 55% de los niveles de Estados Unidos en 1960 (cuando era 70 años) a más del 80% hoy (cuando es 78,5 años), mientras que en muchos países de ingresos medios –entre ellos Chile, Costa Rica y el Líbano- la gente vive más que los norteamericanos.

Una historia similar se puede contar sobre la educación. Aun cuando la inscripción en educación terciaria en Estados Unidos pasó del 47% en 1970 al 88% en 2018, muchos países han achicado drásticamente la brecha. América Latina, por ejemplo, pasó de menos del 15% del nivel estadounidense en 1970 al 60% de la tasa de matrícula actual de Estados Unidos, a pesar del aumento de esta última. Algunos países (como Argentina y Chile) incluso reportan tasas de inscripción superiores a las de Estados Unidos. En el mismo período, los países árabes pasaron de menos del 13% de los niveles estadounidenses a más del 36% hoy.

Sin embargo, otras brechas se mantienen persistentemente grandes. Mientras que el ingreso per cápita en Estados Unidos ha aumentado más del triple entre 1960 y 2019 (en paridad de poder adquisitivo), la brecha de ingresos entre Estados Unidos y América Latina, Sudáfrica y el mundo árabe no se redujo. Los ingresos en estas regiones representan menos de una tercera parte de los niveles estadounidenses (después de ajustar por diferencias de poder adquisitivo). El África subsahariana se ha mantenido aproximadamente en el 6% de los niveles de Estados Unidos y la India, en alrededor de una décima parte. Sólo en algunos países del este de Asia y del este de Europa las brechas de ingresos se han achicado significativamente en comparación con Estados Unidos.

Eso nos lleva al problema de las implicancias preocupantes. Una reducción de la brecha educativa sin una reducción de la brecha de ingresos sugiere una brecha tecnológica creciente: el mundo está desarrollando tecnología a un ritmo más rápido del tiempo que a muchos países les toma adoptarla o adaptarla a sus necesidades. Los economistas suelen desestimar esta cuestión, porque piensan en la tecnología como algo que está incorporado en las máquinas y así puede ingresar fácilmente a los países, a menos que los gobiernos hagan cosas como restringir el comercio, la competencia o los derechos de propiedad.

Pero una mejor manera de entender la tecnología es como un conjunto de respuestas a preguntas sobre “cómo hacer las cosas”. Y como distintas sociedades hacen las cosas de manera diferente, la adopción tecnológica exige cierta adaptación a las condiciones locales, lo que a su vez requiere capacidades locales.

Una métrica de estas capacidades es la tasa con la que los países registran patentes. Como sucede con todas las métricas, ésta es imperfecta por muchas razones (no todas las soluciones a las preguntas sobre cómo hacer las cosas se patentan, no todas las patentes son igual de útiles y no todas las industrias tienen las mismas probabilidades de patentar sus innovaciones). De todos modos, las cifras son tan impactantes que no se pueden desestimar como simples particularidades de la medición.

Por su parte, la tasa de patentamiento de Estados Unidos se ha más que triplicado en los últimos 40 años, de alrededor de 270 patentes por millón de personas por año en 1980 a alrededor de 900 en los últimos años. Y ni siquiera es el líder mundial. La tasa de patentamiento de Corea del Sur ha aumentado casi 100 veces en los últimos 40 años, de 33 a 3.150 por millón; hoy está patentando a un ritmo tres veces superior al de Estados Unidos.

Japón patenta dos veces más que Estados Unidos y China ha aumentado su tasa de patentamiento más de 250 veces –pasando de menos de cuatro por millón en 1980 a más de 1.000 hoy-. Países como Austria, Alemania, Dinamarca, Francia, Gran Bretaña, Noruega, Nueva Zelanda y Singapur patentan al menos la cuarta parte que Estados Unidos. Y otros países, como Australia, Canadá, Suiza, Irán, Israel, Italia, Holanda, Polonia y Eslovenia patentan apenas por encima de una séptima parte de las patentes que se registran en Estados Unidos.

En este contexto, es notable lo bajas que pueden ser las tasas de patentamiento en algunas partes de ingresos medios en el mundo. En América Latina y Sudáfrica, por ejemplo, la tasa de patentamiento es 70 veces más baja que en Estados Unidos, mientras que en el mundo árabe es 100 veces inferior.

Estas tasas increíblemente bajas son sorprendentes por tres razones. Primero, exceden por lejos las brechas en la inscripción universitaria. Segundo, la brecha de patentamiento es enorme en relación a las brechas en las publicaciones científicas. Uno podría esperar tasas de publicaciones científicas muy bajas si el problema fuera una falta de científicos. Pero en América Latina, el mundo árabe y Sudáfrica, la brecha de patentes es, respectivamente, nueve, diez y trece veces mayor que la brecha en las publicaciones científicas en relación a Estados Unidos.

Finalmente, estas brechas son grandes en relación a otros países que, hasta hace poco, eran menos desarrollados en términos de ingresos, matrícula universitaria o desarrollo científico. China, Malasia, Tailandia y hasta Vietnam hoy superan a América Latina, Sudáfrica y el mundo árabe en el Índice de Innovación Global de la Organización Mundial de la Propiedad Intelectual.

Siempre es conveniente responsabilizar a los gobiernos por los malos resultados. Pero, en este caso, la escasez de patentes en países de ingresos medios con grandes sistemas universitarios parece ser culpa de las propias empresas y universidades. Es un síntoma de una sinergia mal explotada entre estos dos ámbitos.

Las universidades en los países de ingresos medios tienden a centrarse en la enseñanza, porque les preocupa mantener bajos los costos educativos. Sus mejores académicos de investigación dirigen sus esfuerzos a las publicaciones científicas, porque prefieren eso a ensuciarse la mente con problemas prácticos mundanos que benefician a empresas con fines de lucro.

Al mismo tiempo, las empresas, especialmente las grandes, invierten sorprendentemente poco en investigación y desarrollo, en parte porque nunca han hecho esas inversiones antes, pero también porque suponen que no tendrán ningún socio universitario con el cual puedan transformar el dinero en innovaciones. Tal vez no se equivoquen al pensar así: la mayoría de las universidades no están preparadas para incorporar este tipo de trabajo. Pero en un ecosistema de innovación que funcione correctamente, la inversión de las empresas en I&D se traduciría en grandes flujos de dinero que las universidades podrían utilizar para financiar una capacidad de I&D significativa y efectiva, sin aumentar las cuotas de matriculación.

Para que surja ese ecosistema, las universidades en los países de medianos ingresos tienen que cambiar su mentalidad, su estructura, su gobernanza y sus prácticas de contratación; y las empresas necesitan aprender el valor de las inversiones en I&D de sus coleas más exitosos en otros países. A menos que los líderes empresariales y las autoridades universitarias puedan adoptar una nueva manera de pensar en torno a la adopción, adaptación e innovación tecnológica, la brecha de ingresos entre los países y el mundo rico persistirá.

Fuente: Prodavinci

jueves, 26 de agosto de 2021

Increíble descubrimiento de más de 1.800 millones de árboles en el desierto del Sahara


Hay muchos más árboles en el desierto del Sahara de África Occidental de los que cabría esperar, según un estudio que combinó inteligencia artificial e imágenes satelitales detalladas.

Los investigadores contaron más de 1.800 millones de árboles y arbustos en el área de 1.3 millones de kilómetros cuadrados que cubre la parte más occidental del desierto del Sahara, el Sahel y lo que se conoce como zonas subhúmedas de África occidental.

«Nos sorprendió mucho ver que en realidad crecen bastantes árboles en el desierto del Sahara, porque hasta ahora, la mayoría de la gente pensaba que prácticamente no existía», dice Martin Brandt, profesor del departamento de geociencias y gestión de recursos naturales de la Universidad de Copenhague y autor principal del estudio en Nature.

“Contamos cientos de millones de árboles solo en el desierto. Hacerlo no hubiera sido posible sin esta tecnología. De hecho, creo que marca el comienzo de una nueva era científica «.

Los investigadores utilizaron imágenes satelitales detalladas de la NASA y aprendizaje profundo, un método avanzado de inteligencia artificial. Las imágenes de satélite normales no pueden identificar árboles individuales, permanecen literalmente invisibles. Además, el interés limitado en contar árboles fuera de las áreas boscosas llevó a la opinión predominante de que esta región en particular casi no tenía árboles. Esta es la primera vez que alguien contó árboles en una gran región de tierras secas.

El nuevo conocimiento sobre los árboles en áreas de tierras secas como esta es importante por varias razones, dice Brandt. Por ejemplo, representan un factor desconocido cuando se trata del presupuesto global de carbono.

“Los árboles fuera de las áreas boscosas generalmente no se incluyen en los modelos climáticos y sabemos muy poco sobre sus reservas de carbono. Básicamente son una mancha blanca en los mapas y un componente desconocido en el ciclo global del carbono ”, dice.

Además, el nuevo estudio contribuye a comprender mejor la importancia de los árboles para la biodiversidad y los ecosistemas y para las personas que viven en estas áreas. En particular, un mayor conocimiento sobre los árboles también es importante para desarrollar programas que promuevan la agrosilvicultura, que desempeña un papel ambiental y socioeconómico importante en las regiones áridas.

«Por lo tanto, también estamos interesados ​​en utilizar satélites para determinar las especies de árboles, ya que los tipos de árboles son importantes en relación con su valor para las poblaciones locales que utilizan los recursos madereros como parte de sus medios de vida», dice Rasmus Fensholt, profesor de geociencias y recursos naturales. Departamento de Gestión.

«Los árboles y sus frutos son consumidos tanto por el ganado como por los seres humanos, y cuando se conservan en los campos, los árboles tienen un efecto positivo en el rendimiento de los cultivos porque mejoran el equilibrio de agua y nutrientes».

Miles de árboles identificados en solo horas

Investigadores del departamento de informática de la Universidad de Copenhague desarrollaron el algoritmo de aprendizaje profundo que hizo posible el recuento de árboles en un área tan grande.

Los investigadores alimentaron el modelo de aprendizaje profundo con miles de imágenes de varios árboles para mostrarle cómo se ve un árbol. Luego, basándose en el reconocimiento de formas de árboles, el modelo podría identificar y mapear árboles automáticamente en áreas extensas y miles de imágenes. El modelo solo necesita horas, lo que a miles de humanos les llevaría varios años lograr.

“Esta tecnología tiene un potencial enorme cuando se trata de documentar cambios a escala global y, en última instancia, de contribuir a los objetivos climáticos globales. Estamos motivados para desarrollar este tipo de inteligencia artificial beneficiosa ”, dice el profesor y coautor Christian Igel del departamento de informática.

Durante la siguiente etapa los investigadores ampliarán el recuento a un área mucho más grande en África. Y a largo plazo, planean crear una base de datos global de todos los árboles que crecen fuera de las áreas forestales.

Fuente: Intriper

miércoles, 25 de agosto de 2021

Cómo cambió para siempre el “entorno digital” de la humanidad


El proceso no comenzó con la pandemia de COVID-19 —llevaba ya décadas en realidad, y además se había acelerado desde el cambio de siglo—, pero sin dudas la irrupción de un virus mortal que literalmente vació las calles de las ciudades hizo que se extendiera. Las personas se volcaron a las tecnologías digitales como nunca antes para sostener lo máximo posible la normalidad que se escapaba de sus vidas. Eso observaban, en tiempo real, Pablo Boczkowski y Eugenia Mitchelstein, expertos en comunicación que hacia mediados de 2020 llevaban dos años publicando en Infobae columnas que retrataban la digitalización en la vida cotidiana.

Vieron entonces cómo “una oleada de tiempo y energía” se volcó a las pantallas, con una intensidad nunca antes registrada; la gente trabajaba —aquellos cuyos oficios se lo permitían—, estudiaba, hacía ejercicio, conocía gente, consultaba al médico, festejaba cumpleaños y hasta se despedía por última vez de un ser querido en el smartphone, la tableta o la computadora.

De pronto, “las diferentes medidas de confinamiento hicieron que algunos de los principales aspectos de sus vidas cotidianas se transfirieran de las calles a las pantallas”, escribieron en su nuevo libro, The Digital Environment (El entorno digital), publicado por el Instituto de Tecnología de Massachusetts (MIT). “La vida no se detuvo, se trasladó a un lugar diferente”.

Un lugar que, dado que ha sido construido y está habitado por humanos, presenta muchos de los mismos problemas —desigualdades de género, educación, clase— y las mismas promesas —innovación, cambio— que el mundo físico. Todo eso cubre su libro como en una travesía por las estaciones de que existe y de lo que podría existir en este tercer entorno donde se desenvuelve, ya definitivamente, la vida humana.

“La pandemia de COVID-19 visibilizó particularmente una tendencia en desarrollo por la cual la mayoría de las personas pasan sus vidas en tres entornos: el natural, el urbano y el digital”, escribieron el profesor de Comunicación en Northwestern University y la directora del departamento de Ciencias Sociales de la Universidad de San Andrés.

“Estos entornos están interconectados, como hemos visto cuando los activistas organizan protestas tanto en las calles como en línea para combatir el cambio climático”. Los dos primeros son conocidos; el tercero, más novedoso, es el tema del libro.

Los temas elegidos para The Digital Environment presentan “una perspectiva caleidoscópica de diferentes aspectos de la experiencia social”, y se ofrecen acompañados de los comentarios de expertos en cada uno de ellos, cuyos criterios de investigación y sus identidades culturales son diversos, por elección de los autores. Como resultado, el libro suena como un coro sobre las múltiples maneras en que “la gente emplea medios digitales para trabajar, cursar la escuela, practicar deportes, votar, socializar y consumir noticias y entretenimiento” escribieron Boczkowski y Mitchelstein.

El árbol y el bosque

El concepto de entorno se aplica a lo digital, argumentaron en el libro, porque ya no se percibe sus componentes por separado: “La consecuencia principal del auge de lo digital en el mundo contemporáneo es que se ha vuelto un entorno, más que una serie de tecnologías individuales, que envuelven y dan forma a casi todas las facetas principales de la vida cotidiana”. Un solo dispositivo, como el teléfono, permite, por ejemplo, pasar imperceptiblemente de una aplicación a otra, escribir mensajes, leer las noticias.

“Preguntar por los efectos específicos que puedan surgir de la adopción de algunas tecnologías en particular puede rendir conocimientos útiles, pero concentrarse demasiado en este enfoque presenta el riesgo de ver los árboles y no el bosque”, escribieron Boczkowski y Mitchelstein (también autores de The News Gap: When the Information Preferences of the Media and the Public Diverge). Su libro, al contrario, se propuso enfocar el conjunto como una atmósfera.

Así como la que rodea la Tierra tiene 78% de nitrógeno, 21% de oxígeno y una combinación de otros gases en el 1% restante, el entorno digital tiene rasgos de composición. Como surgió “en la intersección de los desarrollos tecnológicos en computación y los cambios culturales en la comunicación”, combina distintos tipos de flujos de la información: de uno a uno (como el telégrafo), de uno a muchos (como la televisión) y de muchos a muchos. De ahí se derivan los cuatro rasgos que lo definen: totalidad, dualidad, conflicto e indeterminación.

La totalidad es muy fácil de percibir: aunque se distingan elementos diferentes como los teléfonos móviles, las plataformas sociales y el almacenamiento en la nube, por ejemplo, la mayoría de las personas los usan y los viven “como un sistema abarcador de posibilidades técnicas y sociales interconectadas que penetran, directa o indirectamente, casi todas las facetas de la vida cotidiana”. El día comienza revisando el smartphone y termina mirando una serie en streaming.

¿Quién no ha sentido alguna vez que la tecnología parece “una entidad autosuficiente cuyo diseño e implementación tienen consecuencias más allá del control de una persona común”?, como mencionaron Boczkowski y Mitchelstein para hablar de la dualidad, la segunda característica del entorno digital. La renovación parece ajena como la corriente de un río, borra la huella humana detrás de cada hallazgo y cada progreso.

Es difícil bajar una app o configurar un dispositivo sin percibir el conflicto, el tercer rasgo: hay que aceptar términos y condiciones sin poder cambiarlos, como requisito para seguir. “Dado que el entorno digital es construido con frecuencia por individuos y grupos con agendas específicas para promover sus intereses y es utilizado por otros individuos y grupos que pueden tener agendas e intereses diferentes, y a menudo opuestos, el conflicto es simplemente inevitable”, sintetizaron los autores.

Pero ninguno de esos elementos es simple. Las nuevas capacidades son posibles gracias a otras antiguas, como saber leer y escribir o haber mirado televisión; los diseños de los gigantes tecnológicos encuentran resistencia, como los hackers, o terminan adaptados para otros fines; la concentración del mercado digital choca con la defensa de la neutralidad de la red, la privacidad y la transparencia algorítmica. Eso habla de la cuarta característica del entorno digital: su indeterminación. Es posible que las fake news afecten los proceso democráticos, pero no es seguro: el entorno digital no se puede predecir porque es cambiante.

La vida social de los algoritmos

El análisis parte de las Bases, “los fundamentos claves en la intersección de las prácticas sociales y las formaciones estructurales preexistentes”. Y la piedra original es el hecho de que hoy las personas no emplean los medios digitales, sino que viven en ellos, tal como planteó Mark Deuze, de la Universidad de Amsterdam. Sintetizaron los autores:

Miramos el móvil durante la cena familiar. Tenemos la radio o la televisión encendidas mientras hacemos las tareas domésticas. Estamos atentos a las reacciones y comentarios a nuestras publicaciones en las redes sociales mientras estamos en el aula, en el trabajo e incluso en reuniones sociales. Vemos temporadas enteras de nuestras series favoritas en Netflix en pocos días, aunque eso nos lleve a dormir demasiado tarde y a despertarnos agotados a la mañana siguiente. Nos enteramos de las últimas noticias no solo leyendo el periódico y viendo la televisión, sino también consultando Facebook, Twitter e Instagram en el transporte público, e incluso caminando por la calle, todo ello mientras escuchamos música y podcasts en Spotify.

El protagonista principal de ese mundo en el que está inmersa la humanidad, el algoritmo, tiene una fama de neutralidad —es, después de todo, una serie de instrucciones expresada en lenguaje matemático— inmerecida, analizaron luego. Un algoritmo no brota de la tierra: lo escribe una persona de una organización con características específicas, y eso afecta sus resultados.

Basta pensar en el que ordena las publicaciones de un newsfeed, que no sólo tiene por fin mantener a la gente la mayor cantidad de tiempo en la red social sino que, una vez ejecutado, seguirá operando a partir de las reacciones que los posts despierten en el usuario. “Los algoritmos, al igual que las personas que los escriben, parecen tener también vida social”, subrayaron los autores.

Dieron como ejemplo un estudio de Virginia Eubanks, de la Universidad Estatal de Nueva York en Albany, quien estudió un sistema de asistencia social de Indiana, cuyo algoritmo negó beneficios injustamente:

Las suposiciones (quizá inconscientes) sobre los pobres y la clase trabajadora —por ejemplo, que son propensos al fraude o a la pereza— se incorporan al diseño tecnológico y a la aplicación con efectos devastadores. El sistema automatizado de elegibilidad interpretó cada error en una solicitud como una “falta de cooperación para establecer elegibilidad” intencionada.

De la escuela a las apps de citas

Si desde antes de la pandemia las apps de citas revolucionaron el mundo de las relaciones al crear parejas más diversas, ya que la gente se conocía más allá de su ámbito social físico, habitado normalmente por personas similares, la vida familiar quedó definitivamente marcada por la escolarización en línea de los hijos y el trabajo remoto, que amenaza con transformar para siempre desde el criterio de oficina hasta los precios inmobiliarios en los centros de las ciudades.

El segundo bloque del libro, Instituciones, analizó “cuatro de los patrones de acción institucionalizados más extendidos en la vida social”, que constituyen la cotidianidad del mundo moderno: “La crianza de los hijos, la escolarización, el trabajo y las citas románticas”.

El entorno digital presenta oportunidades a los padres, como se vio en la posibilidad de continuar la escuela de manera remota a pesar del coronavirus, algo que no habría sucedido si la pandemia se hubiera adelantado 50 años. Pero también presenta desafíos: hoy “los niños están inmersos en un mundo digital”, citaron los autores a Ellen Wartella, de Northwestern University. Si hasta hace un tiempo los pediatras aconsejaban no exponerlos a las pantallas hoy es materialmente imposible que un bebé no juegue con el teléfono de su madre o su padre.

El entorno digital presenta un reto específico a la enseñanza: maestros y padres han tendido a considerar que las actividades de los jóvenes son “una pérdida de tiempo en lugar de un lugar de aprendizaje”, como señaló Mizuko Ito, profesora de la Universidad de California en Irvine. Si bien eso ha cambiado desde el COVID-19, porque buena parte de la vida social y el aprendizaje quedaron en línea, queda mucho por hacer “especialmente en el caso de las áreas de interés que persiguen los jóvenes que no forman parte de la cultura dominante”. ¿Y si aprender a hacer videos fuera una buena habilidad para el CV de un futuro youtuber?

La inexactitud del VAR y las noticias en las redes

Boczkowski y Mitchelstein describieron, en el bloque Ocio, cómo los medios digitales moldean el consumo de deportes, entretenimiento y noticias.

La fascinación con los deportes se centra en la capacidad atlética del cuerpo humano, la belleza de ver el máximo del rendimiento de una persona o un equipo; sin embargo, “la tecnología deportiva se crea con el objetivo de mejorar la competitividad de los deportistas más allá de lo que podrían hacer por sí mismos”, observaron.

También el fair play, el combate justo entre pares en busca del triunfo, ha quedado expuesto como una ilusión de los fans, según citaron a Rayvon Fouché, de la Universidad Purdue: “Cuando se vuelve claro que la tecnociencia brinda al atleta una ventaja aparentemente injusta, resulta difícil aferrarse a este ideal meritocrático”.

Otra baja de la digitalización es la pelea imaginaria con el referí sobre dónde picó la pelota: hoy el árbitro asistente de video (VAR) tiene la última palabra. Sin embargo, como expresó Harry Collins, de la Universidad de Cardiff, “la gente cree que las mediciones son exactas, mientras que los científicos e ingenieros saben que siempre hay errores”, y en la práctica el VAR afecta el criterio de los jueces en el campo de juego, “que actúan como si temieran un reexamen prolongado de su trabajo”.

Quizá el cambio mayor en la relación cotidiana con los medios haya sido que, si antes la gente buscaba las noticias, al comprar un periódico, sintonizar una radio o elegir un programa, ahora las noticias persiguen a la gente en busca del click. Alertas, publicaciones en las redes sociales, mensajería: la información salió de la circulación en los medios masivos. Citaron a Silvio Waisbord, de la Universidad George Washington:

La aparición y consolidación de los medios sociales y los motores de búsqueda de internet —básicamente Google— desplazaron a los sitios periodísticos como punto de entrada a las noticias y para atraer la atención del público. Esto provocó una profunda transformación en la economía de las noticias, y la exacerbación de los problemas de las empresas periodísticas para ser viables sólo a través de los ingresos publicitarios, del sector privado.

Nuevos activismos

Quizá el cambio más discutido en los últimos tiempos haya sido el que la política ha sufrido por el auge de lo digital. El libro de Boczkowski y Mitchelstein repasa los hechos más recientes en la dinámica de las campañas políticas, la desinformación y el activismo social. Su mirada analiza con especial detalle las consecuencias de “décadas de inversión en tecnología por parte de los partidos políticos, que afectan a una amplia gama de cuestiones, desde las bases de datos de votantes registrados hasta la dinámica de la comunicación estratégica”.

Que por primera vez se haya vivido una campaña presidencial prácticamente virtual en los Estados Unidos, porque la pandemia impidió los actos políticos, incluso las convenciones de presentación de fórmulas, es lo de menos. “Hemos ingresado a una nueva era de campaña política, de tecnología intensiva”, citaron a Daniel Kreiss, profesor de la Universidad de Carolina del Norte en Chapel Hill. “Por ejemplo, el acceso al big data significa que los contactos de las campaña se estructuran en función de los conocimientos sobre los votantes con los que deben comunicarse, y qué decirles, para aumentar sus posibilidades de victoria electoral”.

Las redes sociales facilitaron el ascenso de Jair Bolsonaro, ilustró Rachel Mourão, de la Universidad del Estado de Michigan, quien directamente evitó el circuito de los medios tradicionales de Brasil y ganó en 2018.

“Aunque los votantes pueden percibir el actual entorno polarizado que existe en muchos países como producto del entorno digital, los elementos que facilitan la desinformación y el discurso de odio, como los algoritmos que premian las opiniones extremas o las plataformas que comercializan los datos de los usuarios con fines políticos, están en realidad programadas y desplegadas por individuos y organizaciones con intereses particulares”, recordaron los autores.

Y, desde luego, el conflicto inherente al entorno digital ha hecho que también surgieran y crecieran activismos desde las bases, que aprovechan esa misma tecnología existente, como #BlackLivesMatter o #MeToo en los Estados Unidos, o #NiUnaMenos y #UnVioladorEnTuCamino en Argentina y Chile. No todos son progresistas: los creyentes en la supremacía blanca, por ejemplo, le deben todo su crecimiento reciente al entorno digital, ya que sólo en las plataformas pueden circular contenidos discriminatorios o comunicaciones como las que precedieron al asalto al Capitolio el 6 de enero.

Lo que vendrá

La última sección de The Digital Environment se concentra en desarrollos recientes que se proyectan hacia el porvenir: la ciencia de los datos, la realidad virtual y la exploración del espacio. “El tejido de nuestra vida cotidiana es, quizá inevitablemente, el contexto de las innovaciones”, argumentó el texto. “El entorno digital es también el lugar del ingenio humano: genera datos y formas de categorizarlos, crea nuevos modos artificiales de experimentar la vida social y apoya las iniciativas de exploración espacial”.

A partir del ingreso de los datos masivos en el campo de la política se ha producido una transformación radical en el modo en que se planifican los gobiernos y se organizan las economías. Pero de un modo más general, esta ciencia tiene la capacidad de abarcar la totalidad del entorno digital: posee técnicas propias que le permiten “rastrear el flujo global de información a través de infraestructuras y artefactos mediáticos antes diferenciados, como previamente nunca fue posible”, explicaron los autores. Por primera vez se puede ver la red de interconexiones, y a partir de eso aspirar a que se integren “dominios de la vida social antes separados”.

Acaso sea la realidad virtual el campo que más se integró a la vida cotidiana en los últimos años, cuando pasó de ser argumento de ficciones a cumplir funciones prácticas “en áreas como los deportes, la educación, el entretenimiento y la medicina”. Sobre todo porque comenzó a concentrarse en desarrollos específicos, como observó Jeremy Bailenson, profesor de la Universidad de Stanford:

Experiencias que, si se hicieran en el mundo real, serían o bien peligrosas (por ejemplo, el simulador de vuelo), o bien imposibles (por ejemplo, cambiar el color de la piel en un espejo virtual para aprender a sentir empatía), o bien contraproducentes (por ejemplo, talar un árbol para aprender sobre el impacto humano en los bosques), o bien caras (por ejemplo, volar a una montaña en Corea para practicar esquí).

La importancia del entorno digital en la exploración del espacio no es tanto el desarrollo de tecnologías sino el entrenamiento de los seres humanos que pasarán un tiempo excesivo en condiciones extremas de aislamiento y estrés. Curiosamente, la pandemia también cambió el sentido de estas preparaciones: de pronto, “el aislamiento, la distancia y la falta de privacidad que marcan los trabajos preparatorios de las primeras misiones a Marte” se volvieron parte de la vida cotidiana, y “la estabilidad, la empatía, los límites a la multitarea, el pensamiento a largo plazo, la comunicación abierta y capacidad de a veces desconectar” se valoraron como rasgos claves no sólo en el espacio, sino también en las familias en confinamiento.

¿Queda lugar para los seres humanos?

El streaming, la moderación de contenidos, la discriminación de género como algo endémico al diseño de la tecnología y otras formas de negación de derechos o servicios públicos o privados, como también “las prácticas emancipadoras emprendidas por algunos actores individuales y colectivos” de las minorías y los movimientos transformadores, completan el análisis de Boczkowski y Mitchelstein. Prácticamente nada de la vida social prescinde del entorno digital: ni la crianza de los hijos ni los viajes espaciales.

“¿Qué pueden hacer los seres humanos en el entorno digital?”, planteó el libro para concluir. “¿Cómo pueden participar imaginativamente en este lugar de la vida social?” Porque aun aquellos individuos que por deseo o por imposibilidad no están integrados a esta esfera, la cruzan en cualquier intercambio con instituciones cotidianas.

Siempre habrá un espacio para el ser humano, cuya ciencia, en definitiva construyó esta máquina digital. “No somos un engranaje sin poder”, subrayaron.

Los problemas derivados de las desigualdades intrínsecas del entorno digital no son distintos de otros problemas humanos en al menos un punto. “Del mismo modo que las personas pueden actuar individual y colectivamente para reducir el calentamiento global”, pusieron como ejemplo los numerosos emprendimientos para crear conciencia de la importancia de reusar y reciclar o de proteger el agua potable, “también pueden trabajar juntas para desafiar las desigualdades e impulsar el cambio dentro del entorno digital”.

Fuente: Infobae

martes, 24 de agosto de 2021

Muy pronto, Google Play Store mostrará las calificaciones según cada país


El sistema de calificación de aplicaciones alojadas en la Google Play Store es bastante sencillo. Solamente debemos elegir cuántas estrellas -entre 1 y 5- le damos a una app en particular para establecer qué tanto nos ha gustado; o si nos ha resultado útil. Sin embargo, las valoraciones que vemos son globales, de modo que no son 100% representativas de la experiencia que viven otros usuarios de nuestro mismo país. Pero esto cambiará próximamente.

Desde noviembre, las calificaciones en la Play Store de Google se mostrarán de forma individual según el país en el que se registre cada cuenta. De esta manera, entonces, las personas en España verán el feedback limitado a otros usuarios de este país. Lo mismo aplica para México, Colombia, Argentina, o cualquiera sea el territorio. Así, la firma de Mountain View pretende que las puntuaciones y reseñas sean más justas, y fieles a lo que se puede esperar en determinada región.

Se pretende evitar es que la valoración de una app se vea afectada negativamente por un bug que solo se manifiesta en un país. De igual modo cuando el impacto es a la inversa; es decir, cuando una aplicación en la Google Play Store recibe más valoraciones positivas al incorporar una característica limitada a un puñado de mercados.

Google quiere que las valoraciones en la Play Store sean más justas

La regionalización de las valoraciones no será el único cambio que Google pretende aplicar en la Play Store. A partir de 2022, las calificaciones también se filtrarán según el tipo de dispositivo en el que se instalarán las aplicaciones. De acuerdo con la firma californiana, los usuarios verán ratings específicos según la plataforma utilizada para navegar por la tienda en línea.

Así, se espera que la experiencia sea más representativa según si los usuarios utilizan un smartphone "común", un plegable, una tablet o un smartwatch con WearOS. Lo mismo se implementará en el caso de Chrome OS y Android Auto. Todavía no hay fecha definida para que esta característica se ponga en marcha en la Google Play Store, pero se menciona que será "a comienzos del próximo año".

Fuente: Hipertextual

lunes, 23 de agosto de 2021

Cómo los ‘deepfakes’ están cambiando nuestra visión de la realidad


Abraham Lincoln la utilizó para mejorar su imagen y aumentar su aura presidencial, José Stalin y Mao Zedong la utilizaron para borrar a sus oponentes políticos de la faz de la historia: la manipulación de las imágenes es al menos tan antigua como la fotografía misma.

Pero si antes solo los expertos podían engañar con maestría, hoy se ha convertido en un juego de niños. Basta con un software descargado de Internet, unas cuantas imágenes tomadas aquí y allá de los programas de búsqueda o de las redes sociales, y cualquiera puede crear vídeos falsos y difundirlos como un reguero de pólvora en la red. Muchos se habrán topado, por ejemplo, con el falso vídeo que se ha hecho viral de Tom Cruise jugando al golf o de la reina Isabel bailando durante su discurso anual de Navidad. "Hoy en día, una foto es suficiente para crear un buen deepfake", afirma Touradj Ebrahimi, que dirige el laboratorio de Procesamiento de Señales Multimedia de la Escuela Politécnica Federal de Lausana (EPFL).  

¿Qué significa deepfake?

El término deepfake tiene su origen en 2017 y proviene de la contracción de deep learning (el aprendizaje automático "profundo" que se basa en la inteligencia artificial) y fake (falso en inglés).

Desde hace algunos años el equipo de Ebrahimi se ha centrado en los deepfake y en el desarrollo de sistemas de última generación para verificar la integridad de las fotos, vídeos e imágenes que circulan por la red. La técnica deepfake utiliza la inteligencia artificial para generar imágenes sintéticas que parecen tan reales que engañan no solo a nuestros ojos, sino también a los algoritmos utilizados para reconocerlas. La tecnología ha demostrado ser capaz de superponer los rostros de dos personas diferentes para crear un perfil o identidad falsos.

Para Ebrahimi y su equipo, la lucha contra los deepfake es una carrera contra el tiempo y la tecnología: la manipulación de la información se ha convertido en un problema de seguridad nacional en muchas partes del mundo con la llegada de las redes sociales. Millones de personas, así como empresas y gobiernos, pueden crear contenidos y acceder a ellos libremente, pero también manipularlos.

A algunos países como Rusia, China, Irán y Corea del Norte se les considera muy activos en la difusión de noticias falsas (fake news), incluso mediante el uso de deepfakes, tanto dentro como fuera de sus fronteras nacionales, afirma Ebrahimi. Hace poco, por ejemplo, un miembro del Parlamento Europeo fue víctima de un engaño orquestado para desacreditar al equipo de Alexéi Navalny mediante falsas videollamadas que imitaban a personalidades de la oposición rusa.

Queremos ver vídeos reales

Un estudio del MIT ha demostrado que las noticias falsas se difunden hasta seis veces más rápido que las reales en Twitter. Esto hace que el fenómeno del deepfake sea especialmente preocupante, según Ebrahimi. "Los deepfake son un medio muy poderoso de desinformación porque la gente todavía tiende a creer lo que ve".

La calidad de los vídeos también sigue aumentando, por lo que se hace cada vez más difícil diferenciar los auténticos de los falsos. "En la actualidad, un Estado con recursos ilimitados o casi ilimitados puede crear vídeos falsos tan aparentemente reales que incluso engañarían a los mayores expertos", afirma Ebrahimi. Un software sofisticado puede reconocer las manipulaciones, pero el profesor de la EPFL estima que, dentro de dos a cinco años, ni siquiera las máquinas podrán distinguir los contenidos reales de los falsos.

"Cada vez más manipulaciones”

Al principio, los vídeos falsos se utilizaban principalmente para crear clips divertidos de actores y otras personas conocidas o en videojuegos. Algunos de estos vídeos pueden tener aplicaciones positivas, señala Ebrahim. "Los deepfakes ya se han utilizado en psicoterapia, para aliviar el sufrimiento de quienes han perdido a un ser querido", afirma el profesor.

Eso ocurrió en Holanda, donde un padre afligido creó un deepfake de su hija prematuramente fallecida para despedirse de ella. La web de genealogía MyHeritage es capaz de hacer algo similar: a través de su herramienta DeepNostalgia puede "resucitar" a familiares fallecidos animando sus rostros en las fotografías.

Pero con el avance de la tecnología, los deepfakes se han convertido en una herramienta eficaz de denigración, sobre todo en detrimento de las mujeres, o en una forma de extorsionar y manipular la opinión pública.

Los ciberdelincuentes incluso los han utilizado para engañar a las empresas para que les envíen dinero haciéndose pasar por el director general y fingiendo una solicitud de transferencia de dinero urgente. 

"De momento solo hay unas pocas manipulaciones de este tipo, pero a medida que la tecnología avance veremos cada vez más", predice Sébastien Marcel, investigador principal del instituto de investigación suizo Idiap. Marcel explica que la tecnología actual de deepfake solo permite manipular el contenido visual, pero no el audio. Las voces, cuando no están tomadas de otros vídeos, son imitadas por un profesional.

"Las falsificaciones de audio siguen siendo un reto, pero en el futuro veremos deepfakes ultrarrealistas, capaces de reproducir fielmente la imagen y la voz de cualquier persona en tiempo real". En ese momento, las manipulaciones como la creación de un escándalo falso sobre un rival o competidor comercial, por ejemplo, serán posibles fácilmente.

Negar la realidad

A medida que aumenta el conocimiento de la técnica deepfake, la incertidumbre sobre lo que es real y lo que no lo es puede tener un efecto no deseado y crear una cultura de "negación plausible" en la que nadie está dispuesto a asumir la responsabilidad porque todo podría ser falso, comenta la investigadora Nina Schick en su libro Deepfakes: The Coming Infocalypse.

Incluso los vídeos reales pueden confundirse con contenidos manipulados. En Gabón, el presidente Alí Bongo, ausente de la escena pública desde hace semanas por enfermedad, ha sido objeto de un deepfake que provocó un levantamiento por parte de un puñado de militares golpistas.

"Los deepfakes podrían dar a cualquiera el poder de falsificar cualquier cosa, y si todo puede ser falsificado, entonces cualquiera puede reivindicar la negación plausible", argumenta Schick. Cree que este es uno de los mayores peligros sociales que plantean los deepfakes.

Cómo combatir la cultura de las fake news

La buena noticia es que la Unión Europea no se ha tomado el problema a la ligera. Proyectos de financiación como Horizonte Europa fomentan la investigación de vídeos falsos. "Esperamos ver más toques de atención de la UE sobre deepfakes en los próximos años", señala Marcel. Desde el punto de vista técnico, hacer frente a las falsificaciones profundas significa ser proactivo y centrarse en las vulnerabilidades de los sistemas. "Pero no siempre es tan sencillo", argumenta el investigador de Idiap. "Los procedimientos académicos para conseguir financiación son lentos". En cambio, las tecnologías que están detrás de los deepfakes se desarrollan cada vez más rápido.

Ebrahimi y Marcel coinciden en que, para combatir las fake news, es esencial crear conocimiento y educar a la población para que desarrolle una conciencia crítica y un sentido más profundo de la responsabilidad cívica. "Tenemos que enseñar a nuestros hijos a cuestionar lo que ven en Internet", asegura Ebrahimi, "y a no difundir ningún contenido indiscriminadamente".

Fuente: SWI

domingo, 22 de agosto de 2021

¿Cómo puede la tecnología 5G desempeñar un papel determinante en la educación?


Imaginemos un mundo sin cables, donde la realidad virtual esté siempre presente y sea accesible en todo momento. En la era posterior a la COVID-19, el panorama educativo se ha precipitado hacia la digitalización. La mayoría de las aulas han adoptado alguna forma de aprendizaje virtual que requiere videoconferencias y otros dispositivos, pero ello también ha generado dificultades técnicas. La falta de acceso ha ampliado la brecha tecnológica en algunas partes del mundo.

Sin embargo, la integración de las redes 5G en la prestación de servicios educativos tiene el potencial de revolucionar la manera en que abordamos los problemas de conectividad y optimizar la logística del aula, al tiempo que mejora la calidad de toda la experiencia de aprendizaje. La tecnología 5G ayudará a los docentes de todos los niveles educativos a mejorar la experiencia de los alumnos. Cabe preguntar entonces: ¿qué es la tecnología 5G y cómo puede la comunidad educativa mundial aprovecharla para transformar la enseñanza y el aprendizaje ahora y en el futuro?

¿Qué es la tecnología 5G?

La tecnología 5G o tecnología inalámbrica de quinta generación es la quinta iteración de operaciones de redes celulares. Se diferencia de la 4G, la tecnología inalámbrica más extendida, debido a la latencia, esto es, el retraso entre el envío y la recepción de información. La tecnología 5G, gracias a una tasa de latencia extremadamente baja, permite que la prestación de servicios educativos sea más rápida, más confiable y más fluida.  Por ejemplo, una torre de telefonía móvil 5G puede brindar servicio a 10 veces más dispositivos, aproximadamente, que una torre de telefonía móvil 4G. Esto reviste gran importancia en un contexto educativo, ya que un menor nivel de latencia y un mayor ancho de banda disponible permiten niveles superiores de comunicación a través de mayores distancias.

Tomemos como ejemplo el campus universitario. La ampliación de la conectividad en los campus puede mejorar la accesibilidad a las redes inalámbricas, y algunas universidades ya han comenzado la integración. La Universidad de Miami ha sido la primera en implementar esta tecnología en su campus, lo que ha facilitado a los estudiantes el acceso a clases y la participación en actividades académicas. La tecnología 5G también puede mejorar la calidad de las videoconferencias, sumar capacidades de respuesta háptica o táctil, fortalecer las experiencias de aprendizaje inmersivas mediante el uso de la realidad virtual y la realidad aumentada, y contribuir a la educación personalizada. Por ejemplo, la aplicación de realidad aumentada Froggipedia permite a los alumnos estudiar los órganos internos de una rana sin dañar a ningún espécimen real. Asimismo, les permite visualizar la transformación de las ranas desde que son renacuajos hasta que adquieren su forma adulta. Otro ejemplo, en la práctica de educación continua, es VirtualSpeech, una herramienta de realidad virtual que ayuda a las personas a trabajar en sus habilidades para hablar en público de una manera más eficaz y realista.

¿Cómo puede la tecnología 5G transformar el aula a nivel mundial?

Veamos ahora los cinco beneficios principales que tiene la tecnología 5G para el aprendizaje:

1. Mejora de la interacción entre docentes y alumnos y de la colaboración entre pares

Cuando uno inicia una sesión en Zoom, existen altas probabilidades de que la conectividad se vea afectada por retrasos e interrupciones, lo que incide negativamente en la prestación de servicios educativos. Con la tecnología 5G, la calidad y fiabilidad de las plataformas de videoconferencia mejorarán en todo el mundo. Por lo tanto, los docentes y los estudiantes podrán ahora aprovechar, incluso en entornos remotos, el tiempo que antes se perdía esperando a que los programas se cargasen. Los docentes ahorrarán tiempo, dado que no tendrán que lidiar con retrasos en la conectividad ni con interrupciones en las conexión de audio y video, y podrán enfocarse en el alumno. Los estudiantes podrán descargar videos y materiales didácticos con mayor rapidez e incluso contarán con hologramas de oradores invitados en el aula sin caídas de velocidad ni retrasos. Además, dado que la tecnología 5G permite una mayor transferencia de datos, en el caso de los proyectos grupales, la comunicación entre pares se producirá con más rapidez y menos retraso, casi como si personas que se encuentran de distintos lugares geográficos estuvieran sentadas en una misma habitación.

2. Educación acelerada de calidad y adopción del aprendizaje inmersivo

Algunas habilidades, como el trabajo de laboratorio y las experiencias prácticas, requieren estimulación táctil adicional para generar el mismo nivel de aprendizaje en línea que en la vida real y en tiempo real. Los interesados en aprender nuevas habilidades y visualizar conceptos abstractos de una manera interactiva pueden beneficiarse con la integración de la realidad aumentada y la realidad virtual en aulas inmersivas. La tecnología 5G proporcionará una mayor capacidad de red y una experiencia agradable que permite a los estudiantes explorar conceptos complejos a través de la ampliación/reducción de imágenes, pellizcos e incluso el tacto. Además, las respuestas hápticas (que reproducen la sensación, el tacto o el movimiento de interactuar directamente con un objeto físico) podrían introducir formas táctiles de aprendizaje en un aula a través de plataformas de videoconferencia tradicionales, enriqueciendo así las interacciones.

3. Experiencias de aprendizaje personalizadas

En general, la educación sigue un enfoque único que, muchos sostienen, podría obstaculizar el crecimiento. La tecnología 5G ofrece la posibilidad de cambiar esta realidad. En este sentido, mejorará el nivel de personalización dando lugar a sistemas inteligentes que permitirán comprender las necesidades únicas de cada estudiante y crear trayectorias de aprendizaje específicos. Por ejemplo, los asistentes virtuales podrían permitir a las cohortes acceder a distintos conjuntos de lecciones y evaluaciones dependiendo del perfil y las preferencias de los estudiantes. Esto tiene repercusiones para la capacitación y la mejora de las competencias, así como para la enseñanza y formación técnica y profesional.

4. Impulso al aprendizaje sobre la marcha

A medida que la tecnología 5G se extienda y modifique cada vez más aspectos de la vida diaria, facilitará el aprendizaje sobre la marcha, proporcionando una mayor capacidad de respuesta y velocidad en todos los dispositivos, especialmente los móviles. Imaginemos cuánta más flexibilidad tendrán los estudiantes y profesionales ocupados que quieren (y necesitan) aprender fuera del aula.

5. Igualdad de condiciones

La tecnología 5G acelerará la promesa de democratizar el acceso a una educación de calidad de manera inclusiva y asequible, generando así condiciones equitativas, especialmente para las comunidades de escasos recursos . Por ejemplo, el aula con tecnología 5G que propone el Programa de Aprendizaje Innovador de Verizon imprime vida al aprendizaje a través de mundos inmersivos. Tiene el poder de cambiar la forma en que todos aprendemos.

Imagen: Deutsche Telekom

Fuente: Inmediaciones

sábado, 21 de agosto de 2021

Llamadas no, solo WhatsApp: ¿estamos perdiendo la capacidad de conversar?


Una de las ramas más desafiantes de la Lingüística es la que describe los mecanismos que regulan nuestras conversaciones cotidianas. Cuando explico a mis estudiantes cómo funciona una conversación, a menudo la comparo con un baile. Como en una coreografía ensayada hasta el infinito, los interlocutores coordinan sus acciones para hacer posible el milagro del diálogo. La conversación no solamente es necesaria para que los niños aprendan a hablar, sino que está en la esencia de la propia naturaleza social de nuestra especie. Conversando nos comunicamos con los otros, pero también, y sobre todo, aprendemos a cooperar.

El milagro de la conversación humana

Los expertos han descrito con detalle cómo funciona una conversación: un modelo culturalmente determinado que regula cuándo hablar y cuándo callar, cómo pedir y ceder la palabra y hasta el tiempo en el que resulta cortés mantenerla.

Lo aprendemos desde niños como parte de nuestro proceso de socialización. Y, aunque en algunas ocasiones puedan identificarse pequeñas disfunciones (interrupciones inesperadas o turnos que se solapan), las más de las veces funciona con la precisión de un reloj suizo.

Sin embargo, por muy admirable que resulte este milagro no podemos ignorar que presenta ciertas limitaciones. Así, la escritura surgió en parte para compensar la evanescencia de la palabra hablada. Y desde las señales de humo hasta el telégrafo muchos ingenios tecnológicos sirven para comunicar más allá de donde los sonidos llegan de forma natural.

Conversación digital eterna y múltiple

En la era digital nuestra capacidad comunicativa parece no tener límites. Sin embargo, conviene recordar que para que una conversación funcione no basta con ser oídos, también tenemos que ser escuchados. Y para ello los interlocutores deben estar atentos y mutuamente disponibles. Vivimos hiperconectados e inmersos en una eterna conversación que se desarrolla de forma paralela y simultánea en distintos dispositivos y aplicaciones. Y precisamente por ello nuestra atención parece estar más dispersa que nunca.

Merece la pena meditar sobre la manera en que la mediación tecnológica está modificando nuestra forma de comunicarnos. En Reclaiming Conversation: The Power of Talk in a Digital Age, Sherry Turkle reflexiona sobre las consecuencias de la cultura digital en nuestras relaciones interpersonales para salir en defensa de los intercambios cara a cara como forma de acercarnos al otro. Se pregunta si no habremos sacrificado la verdadera conversación en aras de una aparente conexión ilimitada que nos deja más solos que nunca.

Conversar en tiempo de WhatsApp

Más allá de los inevitables juicios de valor, en mis últimas investigaciones vengo preguntándome sobre cómo influyen las características de las aplicaciones destinadas a la comunicación interpersonal en nuestra forma de conversar.

El caso de WhatsApp es especialmente interesante. En sus más de diez años de vida hemos asistido a numerosos cambios. Hemos vivido la irrupción los emojis o stickers para suplir la frialdad del texto escrito o la incorporación de mensajes de audio. Cada uno de estos cambios se ha incorporado a nuestras rutinas de uso. Algunos han sido recibidos con sorpresa y hasta con polémica.

No podemos olvidar el revuelo causado por la introducción en el año 2014 del doble check azul. Desde entonces, los silencios en WhatsApp son más significativos que nunca y la que fuera una de las principales ventajas de la aplicación, la discreción, quedó fuertemente dañada.

Hasta han surgido expresiones como clavar el visto o dejar en visto para dar cuenta de la ansiedad que produce la toma de conciencia de que un mensaje ha sido recibido y leído pero no contestado:

Y aquí no acaban las controversias. Desde hace unos meses, cuando recibimos un audio de WhatsApp, podemos decidir entre escucharlo a velocidad normal o acelerarlo. Este hilo resume brillantemente las luces y las sombras de esta nueva funcionalidad.

¿Auténticas conversaciones?

Los mensajes de WhatsApp se producen en ausencia de nuestro interlocutor, lo que limita la operatividad de uno de los principios básicos de la interacción comunicativa: la regulación. Se pierde la posibilidad de adaptar nuestro discurso a la reacción de nuestro interlocutor, algo natural en la conversación cara a cara.

Entonces, ¿por qué empleamos tanto la mensajería instantánea? Para algunos, WhatsApp es una alternativa eficiente cuando no pueden mantenerse otro tipo de interacciones. Sin embargo, para otros no es una opción sustitutoria, sino prioritaria. Pertenecen al nutrido grupo de fans del llamadas no, solo WhatsApp.

A pesar de que pasen las horas conectados a sus aplicaciones de mensajería instantánea, conseguir que los más jóvenes hagan o respondan una llamada de teléfono es muy difícil. Si la ausencia de regulación puede ser fuente de conflictos y malentendidos comunicativos, ¿por qué los mileniales rehúyen de tal manera la conversación para refugiarse en WhatsApp?

Está claro que los intercambios de WhatsApp no demandan la misma atención que los telefónicos o presenciales. De hecho, podemos mantener varios al mismo tiempo, algo que, salvo situaciones muy excepcionales, resulta muy difícil y además tremendamente descortés en las conversaciones cara a cara.

Por muy instantáneo que parezca WhatsApp, siempre habrá unos segundos que separen el momento en que se producen nuestras palabras de aquel en el que se reciben. Y estos segundos pueden convertirse en horas o días. Las conversaciones empiezan y acaban, se retoman y se abandonan sin que parezca haber unas normas muy claras.

Al fin y al cabo, salvo excepciones, casi todos los intercambios digitales se realizan en concurrencia con otra actividad: contesto a un WhatsApp mientras me lavo los dientes, por ejemplo.

Este modelo de conversación líquida ofrece mucha libertad y requiere muy poco compromiso. A diferencia de una autentica conversación que demanda nuestra atención y disponibilidad, WhatsApp nos permite regular los tiempos a nuestro antojo, silenciar los intercambios que nos aburren y dejar en espera los mensajes para cuando nos venga en gana.

Así, mientras los boomers (la generación alrededor de los sesenta y setenta años) esperan con ansia que suenen sus teléfonos, los jóvenes los tienen eternamente silenciados. Y los mensajes que reciben han de esperar hasta que ellos decidan mirar sus móviles (aunque sea algo que hagan más de 150 veces al día).

Ante esta falta de disponibilidad, ¿podemos seguir hablando de auténticas conversaciones? Hemos de volver a la metáfora del baile para responder a esta pregunta. ¿Recuerdan la canción de Eurovisión 1991? Si bailar de lejos no es bailar, conversar así, a través de Whatsapp, puede ser, al menos en no pocas ocasiones, como estar hablando solos.

Bailemos pegados, conversemos más.

Imagen: WahooArt

Fuente: The Conversation