miércoles, 18 de febrero de 2026

Los niños e Internet: la educación por encima de la regulación


En 2026, continúa el debate sobre el impacto de la tecnología y las redes sociales en los niños y adolescentes. Las nuevas tecnologías, como los chatbots con inteligencia artificial, parecen haber avivado aún más este debate. Expertos, padres y políticos parecen preguntarse qué se debe hacer para ayudar a los niños y adolescentes a tener experiencias beneficiosas y limitar al mismo tiempo las que pueden ser negativas o perjudiciales.

En el primer mes de enero de 2026, la Academia Americana de Pediatría publicó nuevas directrices sobre el tiempo de pantalla y las redes sociales. Entre los elementos más destacados de este nuevo informe y directrices se encontraba la idea de que limitar el tiempo de pantalla no era suficiente para prevenir los posibles daños en el ecosistema digital. La Comisión Federal de Comercio (FTC) también organizó un taller sobre la verificación de la edad en el que participé. Esto podría indicar razonablemente que la FTC está considerando cómo estas preocupaciones pueden intersectarse con la autoridad existente en virtud de la Ley de Protección de la Privacidad Infantil en Internet (COPPA) u otras autoridades.

A nivel mundial y en muchos estados de Estados Unidos, también ha ido creciendo el debate sobre qué medidas políticas, si es que hay alguna, deben adoptarse. El año pasado se produjeron importantes restricciones al contenido en línea en el Reino Unido en nombre de la protección de los niños, una prohibición de las redes sociales para los menores de 16 años en Australia y muchos intentos de imponer requisitos de verificación de la edad o de diseño adecuado a la edad a nivel estatal y federal en Estados Unidos. Las consecuencias no deseadas de estos enfoques para la libertad de expresión y la privacidad de todos los usuarios han sido significativas, incluso en los primeros días de aplicación de estas leyes.

Cualquier adulto racional y preocupado quiere proteger a la próxima generación de cualquier daño, pero la política es una solución única para un problema que es más individualizado y varía de una familia a otra.

Los padres siguen siendo los mejores para tomar decisiones

Cada niño y cada familia son diferentes, y las preocupaciones sobre los jóvenes y la tecnología no siempre son las mismas, incluso entre los niños de la misma familia. A algunos padres les preocupa el tiempo que sus hijos pasan con los dispositivos. Otros están muy preocupados por la posible exposición a contenidos nocivos, como pornografía, trastornos alimentarios o autolesiones. Otros pueden tener preocupaciones similares a las del mundo offline, como quién se pone en contacto con sus hijos o el acoso escolar.

Dada la amplia gama de preocupaciones, es poco probable que las políticas aborden todas ellas, ni pueden tomar las decisiones matizadas que un padre podría tomar sobre las excepciones. La política quita esta responsabilidad a los padres y, en muchos sentidos, implica que no se puede confiar en ellos para tomar las decisiones por sí mismos. Como escribió Christopher Koopman, padre de siete hijos y miembro del Abundance Institute, en una reciente publicación en X: "Me inquieta la rapidez con la que algunas personas pasan de preocuparse por los niños en Internet a la conclusión de que no se puede confiar en los padres. Cuando se describe el consentimiento de los padres como una 'laguna jurídica' o un 'problema de acción colectiva', lo que realmente se está diciendo es que nuestro juicio es el obstáculo. Como algunos padres tienen dificultades para establecer o hacer cumplir los límites, el resto de nosotros deberíamos perder la capacidad de tomar esas decisiones por nuestros propios hijos".

Los padres tienen mucho que gestionar, pero eso no niega que, por lo general, sean los más indicados para tomar estas decisiones. En lugar de centrarse en limitar sus opciones, los responsables políticos y las empresas deberían empoderar a los padres para que comprendan qué herramientas hay disponibles y cómo utilizarlas. Grupos de la sociedad civil como Family Online Safety Initiative (FOSI) también proporcionan plantillas para ayudar a los padres a hablar sobre tecnología con sus hijos. Por último, no debemos olvidarnos de los propios niños y adolescentes. Las empresas, los educadores y los padres deben ayudarles a comprender qué hacer si se encuentran con un problema, un contenido o un contacto al que no quieren estar expuestos.

Mejores prácticas frente a mandatos políticos

Muchas plataformas han implementado diversos controles parentales en diferentes niveles de la experiencia en línea, desde el propio dispositivo hasta las tiendas de aplicaciones y las aplicaciones individuales. Estos controles varían desde los ajustes predeterminados en las cuentas de adolescentes que limitan quién puede ponerse en contacto con un usuario, hasta los ajustes predeterminados que limitan los resultados de búsqueda inapropiados, pasando por muchas otras funciones que pueden ser útiles para usuarios de todas las edades. Muchos de estos elementos pueden considerarse mejores prácticas, y la industria suele desarrollar normas formales o informales en torno a estas cuestiones.

Además, han surgido opciones y herramientas "seguras" especializadas que proporcionan información adicional a los padres, independientemente de las aplicaciones y productos convencionales. Debemos aplaudir a las empresas por responder a las preocupaciones y demandas de los usuarios en el mercado. Pero el hecho de que algo sea una práctica recomendada no significa que pueda o deba convertirse en un mandato legislativo.

Sin embargo, si estas prácticas se legislan en lugar de ser el resultado de decisiones voluntarias o respuestas a las expectativas del mercado, pueden no ser beneficiosas e incluso impedir soluciones mejores en el futuro.

La legislación es estática, mientras que la innovación sigue siendo dinámica. Lo que hoy puede considerarse una buena práctica para verificar la edad de una persona podría quedar obsoleto en el futuro. La ley rara vez puede evolucionar tan rápido como la tecnología, y las regulaciones pueden fijar lo que era la mejor opción en ese momento, al tiempo que impiden que los servicios utilicen mejores opciones en el futuro.

Además, exigir buenas prácticas supone que todas las tecnologías funcionan igual y se dirigen al mismo usuario. Las expectativas en torno a los controles parentales y la disponibilidad de los mismos pueden variar drásticamente en función del público al que se dirige un sitio web. En algunos casos, es posible que un sitio web nunca haya estado destinado o dirigido a menores de 18 años, pero que, sin embargo, tenga niños como usuarios debido a las necesidades o intereses de una familia en particular. A diferencia de la COPPA, muchas propuestas de verificación de la edad tienen un alcance mucho más amplio, por lo que corren el riesgo de suscitar preocupaciones sobre una verificación de la edad mucho más amplia de lo necesario. Por ejemplo, tras la aplicación de una ley del Reino Unido, Spotify y Discord verificaron la edad de los usuarios para acceder al contenido completo debido al posible contenido "perjudicial".

Los padres, los jóvenes y la industria deben trabajar juntos para determinar qué opciones pueden responder a las preocupaciones, pero estas mejores prácticas voluntarias e impulsadas por el mercado pueden adaptarse mejor a las necesidades particulares de cualquier plataforma que un enfoque legislativo de arriba abajo que eliminaría la posibilidad de elegir.

Las leyes de seguridad infantil en Internet tienen un impacto cuestionable y consecuencias significativas

Siempre hay compensaciones y la experiencia de la aplicación de las leyes de seguridad en Internet existentes permite ver las consecuencias que estas leyes pueden tener.

En primer lugar, cabe preguntarse si estas leyes son realmente eficaces. Algunas pruebas preliminares sugieren que no lo son. Los niños australianos se apresuraron a utilizar aplicaciones no cubiertas por la ley cuando entró en vigor la "prohibición de las redes sociales". Muchas de ellas tienen menos seguridad o controles parentales que las aplicaciones tradicionales. En el Reino Unido y algunos estados de Estados Unidos donde se ha puesto en práctica la verificación de la edad, las búsquedas, el uso y las descargas de VPN suelen dispararse.

El impacto más observable del riesgo de la verificación es el costo para la privacidad. Las violaciones de datos se producen incluso con buenas prácticas de ciberseguridad, y la verificación de la edad requiere la recopilación de datos más sensibles. Desde la violación de los registros de verificación de edad de Discord en el Reino Unido, que comprometió más de 70.000 identificaciones, hasta la violación del sitio web de seguridad para citas Tea, no es de extrañar que muchos usuarios se sientan incómodos o preocupados por la posible filtración de información más sensible. Estos riesgos no hacen más que aumentar a medida que más sitios en línea exigen la verificación de la identidad.

Es preocupante que algunos responsables políticos parezcan dispuestos a aplicar políticas cada vez más restrictivas para lograr un resultado. Esto se puede ver en las respuestas que sugieren, cuando estas leyes no han tenido pleno éxito, que se han propuesto políticas adicionales para limitar el cifrado o el uso de VPN en lugares como el Reino Unido. Estas tecnologías de mejora de la privacidad se utilizan para proteger a muchos actores positivos, incluidas empresas y denunciantes, pero podrían verse amenazadas por responsables políticos que nos harían a todos menos seguros.

Aunque proteger a los niños y adolescentes en Internet es un objetivo noble, deben considerarse cuidadosamente las consecuencias reales de estas leyes. Además de las preocupaciones mencionadas anteriormente sobre la ineficacia y la privacidad, en Estados Unidos, en particular, existen importantes preocupaciones relacionadas con la Primera Enmienda, como he comentado en artículos anteriores.

Conclusión

Es probable que los debates sobre la mejor manera de proteger a los jóvenes en Internet se intensifiquen, especialmente porque las nuevas tecnologías, como los chatbots con IA, pueden amplificar la incertidumbre y las preocupaciones de los padres y los políticos.

Una amplia gama de grupos, como la AAP, intentarán ofrecer orientación a los padres, pero cada familia seguirá teniendo que tomar las mejores decisiones sobre los riesgos asociados a sus preocupaciones y los beneficios que puede obtener del uso adecuado de la tecnología.

Nuestras mejores soluciones serán aquellas que den prioridad a la educación sobre la regulación, permitiendo una amplia gama de opciones que se adapten a las necesidades de las diferentes familias. También debemos tener en cuenta que las cuestiones relativas a la seguridad de los jóvenes en Internet no solo afectan a la próxima generación, sino a todos los usuarios de Internet.

Imagen: State Farm

Fuente: El Cato

martes, 17 de febrero de 2026

Gabriel: cuando los datos cualitativos empiezan a hablar en números


La investigación en ciencias sociales vive de historias: lo que la gente cuenta en una entrevista, lo que un profesor decide incluir en un temario, la forma en que una empresa se presenta en una oferta de empleo, incluso lo que una comunidad deja ver en fotografías antiguas. Ese material es valioso porque captura matices, contradicciones y contexto. El problema llega cuando quieres convertir todo eso en evidencia que pueda analizarse con rigor estadístico. Revisar miles de documentos a mano se parece a intentar vaciar una piscina con una cucharita: se puede, pero el coste en tiempo y energía acaba condicionando qué preguntas se investigan y cuáles se abandonan.

Con esa tensión de fondo, OpenAI presentó el 13 de febrero de 2026, a través de su equipo de investigación económica, GABRIEL, un kit de herramientas open source pensado para transformar texto e imágenes no estructurados en mediciones cuantitativas que luego pueden analizarse con métodos habituales en economía y ciencias sociales. La idea central es simple de explicar y compleja de ejecutar: usar GPT para que el trabajo repetitivo de etiquetar y puntuar documentos deje de ser el cuello de botella, sin quitar al investigador del asiento del conductor. La propia OpenAI lo plantea como una ayuda para estudiar lo cualitativo “a escala”, apoyándose en un tutorial y un artículo académico donde reportan pruebas de precisión.

De la lectura paciente al “termómetro” de una idea

Quien ha hecho análisis cualitativo conoce el ritual: definir categorías, entrenar codificadores, discutir ambigüedades, volver a codificar y comprobar consistencia. Ese proceso tiene virtud metodológica, pero también un coste enorme. GABRIEL propone un giro práctico: si puedes describir lo que quieres medir en lenguaje cotidiano, el sistema aplica esa misma pregunta de manera consistente a grandes colecciones de documentos y devuelve una puntuación para cada pieza.

Imagina que estás evaluando anuncios de empleo y te interesa algo tan humano como “¿cómo de family-friendly es esta oferta?”. Tradicionalmente, un equipo revisaría muestras, fijaría criterios, debatiría casos frontera y terminaría con una tabla de códigos. Aquí, el enfoque se parece a construir un termómetro: defines qué significa “family-friendly” para tu estudio, conviertes esa definición en una pregunta operativa y dejas que el instrumento tome la temperatura una y otra vez, sin cansarse, en miles o millones de textos. El valor no está en que una máquina “entienda” la vida familiar como una persona, sino en que puede aplicar una misma vara de medir con estabilidad, mientras tú supervisas si esa vara está bien calibrada.

Medir con palabras corrientes, pero con disciplina científica

Uno de los puntos más interesantes del planteamiento es que la medida se describe en lenguaje natural. Eso baja la barrera de entrada para investigadores que no quieren construir modelos desde cero ni diseñar pipelines complejos. Aun así, conviene leer esa facilidad con una mirada exigente: describir una medida en “palabras corrientes” no elimina la responsabilidad de definir bien el constructo.

En la práctica, el reto metodológico se desplaza. En lugar de pelearte con un formulario de etiquetas interminable, te peleas con la precisión del concepto. ¿Qué señales cuentan como “apoyo a la conciliación”? ¿Mencionan flexibilidad horaria, permisos parentales, teletrabajo, cultura de equipo? ¿Cómo tratas el marketing vacío, ese texto que suena bien pero no promete nada verificable? GABRIEL, tal como lo presenta OpenAI, busca que el investigador dedique más energía a decidir qué medir, a validar resultados y a extraer conclusiones cuidadosas. Dicho de otro modo: automatiza el martilleo repetitivo, no el juicio científico.

Análisis de texto e imágenes: de papers a fotografías

La propuesta no se queda en “clasificar textos”. OpenAI describe usos que atraviesan distintos tipos de material cualitativo. En un conjunto amplio de papers científicos, por ejemplo, el sistema puede identificar qué métodos se usan y cómo cambian con el tiempo. Esto puede ser útil para estudiar tendencias metodológicas, sesgos de publicación o la difusión de ciertas técnicas, sin limitarse a lo que aparece en bases de datos ya estructuradas.

En educación, se menciona el análisis de planes docentes para medir cuánto espacio se da a determinadas competencias o contenidos. Aquí la metáfora cotidiana sería la de revisar la despensa: no miras solo si hay comida, miras qué proporción ocupa cada ingrediente. Un currículo puede “tener” ética o estadística, pero lo relevante para algunas preguntas es cuánto peso real tiene y cómo varía entre instituciones o periodos.

También se habla de extraer detalles históricos estructurados para cada pequeño pueblo de Europa. Ese tipo de trabajo suele requerir lectura paciente de archivos, fichas locales, descripciones dispersas. Automatizar parte de esa extracción puede abrir estudios comparativos que antes eran impracticables por pura logística. Y en el terreno comercial, aparece un caso familiar: analizar grandes volúmenes de reseñas para descubrir patrones de lo que la gente valora. Es el equivalente a escuchar miles de conversaciones en una cafetería para entender qué elogian o critican los clientes, pero con un cuaderno de notas que no se queda sin tinta.

Herramientas “de taller” para datos desordenados

Quienes investigan saben que el dolor no está solo en etiquetar; está en preparar datos. OpenAI incluye en GABRIEL utilidades que suenan menos glamorosas, pero suelen salvar proyectos: combinar datasets aunque las columnas no coincidan bien, detectar duplicados de forma inteligente, codificar pasajes específicos dentro de documentos largos, ayudar a idear hipótesis o teorías científicas y, de forma especialmente sensible, desidentificar información personal en textos para proteger la privacidad.

Ese último punto merece atención. Cuando trabajas con entrevistas, comentarios o documentos administrativos, la línea entre “dato útil” y “dato personal” puede ser fina. Automatizar la detección y eliminación de identificadores reduce riesgos, aunque no debería sustituir protocolos éticos ni revisiones humanas en investigaciones delicadas. La promesa razonable aquí es de apoyo operativo: menos exposición innecesaria, más control sobre qué se comparte y cómo se almacena.

Precisión, sesgos y validación: lo que no se puede delegar

OpenAI afirma en su artículo técnico que ha evaluado el rendimiento de GPT para etiquetar datos cualitativos en múltiples casos y que los resultados son “altamente precisos”. Ese tipo de afirmación es alentadora, pero cualquier investigador curtido sabe que “preciso” depende de la definición del objetivo, de la calidad del material y de la estabilidad del criterio.

La validación sigue siendo el punto delicado. Si mides “tono hostil” en redes sociales, el contexto cultural y el sarcasmo importan. Si mides “enfoque práctico” en un temario, una asignatura puede enseñar habilidades de forma implícita sin enunciarlas. Si mides “rigor metodológico” en un paper, el lenguaje puede ser impecable y aun así esconder problemas. Herramientas como GABRIEL pueden reducir la fricción de trabajar con grandes volúmenes, pero el control de calidad exige muestrear, comparar con codificación humana, hacer pruebas de robustez y documentar supuestos. En términos domésticos: un lavavajillas te quita trabajo, pero tú sigues revisando si quedó algún plato con grasa antes de guardarlo.

Open source en Python y foco en accesibilidad

El lanzamiento se plantea como una biblioteca open source para Python, acompañada de un cuaderno tutorial, con la intención explícita de requerir poca experiencia técnica. Esta decisión es relevante: gran parte de la investigación empírica ya vive en Python, y el formato de notebook facilita que equipos diversos prueben flujos de trabajo, compartan experimentos y reproduzcan resultados.

OpenAI también indica que seguirá mejorando la herramienta con feedback de la comunidad académica. En proyectos de este tipo, la comunidad no solo corrige bugs; también fija normas de uso responsable, propone benchmarks más representativos y detecta casos donde la automatización puede inducir errores sutiles. Si GABRIEL se adopta de forma amplia, su impacto real dependerá tanto del software como de las prácticas que lo rodeen: documentación clara, ejemplos reproducibles, transparencia en configuraciones y, sobre todo, honestidad metodológica al reportar resultados.

Fuente: Wwwhatsnew

La Duma otorga al FSB poder para ordenar el bloqueo de comunicaciones en Rusia


La Duma Estatal, la Cámara Baja del Parlamento ruso, ha dado este martes el visto bueno definitivo a un proyecto de ley que impone a los operadores de telecomunicaciones la obligación de interrumpir sus servicios cuando así lo solicite el Servicio Federal de Seguridad (FSB).

El texto ha sido aprobado en segunda y tercera lectura tras una iniciativa del Gobierno que busca facultar a estas compañías para cortar sus servicios si lo reclama el FSB, que pasaría a disponer de amplias atribuciones para bloquear las comunicaciones una vez que la norma reciba el respaldo del Consejo de la Federación y la ratificación del presidente, Vladimir Putin.

Las modificaciones contempladas en el proyecto permitirían al organismo ordenar el corte de Internet fijo y móvil, de las comunicaciones telefónicas y de “cualquier otro medio de comunicación” ante “amenazas de seguridad”, una medida que Moscú justifica como necesaria para “proteger a los ciudadanos y al Estado” frente a dichos riesgos.

Al mismo tiempo, los operadores de comunicaciones quedarían libres de responsabilidad por los apagones que se deriven de estas órdenes, en línea con los pasos que las autoridades rusas han ido dando para restringir el uso de aplicaciones de mensajería como WhatsApp y Telegram, así como de otras redes sociales.


Imagen: Shutterstock

Fuente: Democrata