viernes, 4 de noviembre de 2016

Datos masivos en el sector público: Suena bien… pero, ¿cómo?

Ya nadie cuestiona que estamos en medio de una revolución de los datos. ¿Pero cómo importa esto para los gobiernos? Como muchos han citado, cada día se crean 2.5 trillones de bytes de datos. Hacia 2015, el 90% de la información existente había sido creada únicamente en los dos años anteriores. En el sector público, el procesamiento y análisis de datos masivos y diversos (Big Data) es un componente cada vez más relevante para el diseño, la implementación y el monitoreo de políticas.

Desde sistemas inteligentes de transporte, capaces de monitorear la frecuencia y los cuellos de botella de los buses en tiempo real, hasta el uso de algoritmos predictivos del delito para orientar la ubicación geográfica de los policías, el análisis de grandes cantidades de datos está cambiando la forma de gestionar lo público. Mientras tanto, responsables de políticas de diferentes áreas buscan avanzar hacia el paradigma de la toma de decisiones basada en evidencia y exigen más y mejor información a sus equipos de programación y análisis de datos.

Sin embargo, es más fácil decirlo que hacerlo. ¿Cómo asegurar condiciones apropiadas para el acceso automático a los datos? ¿Qué tipo de herramientas son más adecuadas para almacenar la información? ¿Quién debería gestionar el análisis? ¿Cuáles son los riesgos de hacerlo?

Para dar inicio a una discusión sobre este tipo de interrogantes, la división de Capacidad Institucional del Estado del BID preparó una guía de políticas de datos masivos, destinada a funcionarios públicos de América Latina y el Caribe. A partir del análisis de 6 casos (tributación en China, Brasil y Estados Unidos, transporte en Londres y seguridad en Nueva York) se identificaron factores de éxito para la modernización tecnológica de gobiernos en ciencia de datos y la promoción de ecosistemas de datos.

En base a los casos, el estudio elabora una serie de recomendaciones para encarar los desafíos en el desarrollo de sistemas de análisis de datos masivos en gobiernos:

Apoyo del liderazgo

La adopción de una visión clara y exhaustiva sobre el rol de los datos es la piedra angular de proyectos de datos masivos. En ausencia de ese apoyo se dificultan tareas clave como el intercambio de datos entre diferentes instituciones y los cambios organizacionales que requiere la gestión basada en datos. Así lo refleja el caso de Transport for London, cuyo éxito en la integración de capacidades tecnológicas e información fue posible gracias al empuje del alcalde Boris Johnson, construyendo e implementando una visión sobre el rol de la información en la gestión de la ciudad.

Estructura de gobernanza

De ella depende que una visión se haga operativa. Lo más importante en este aspecto es asegurar el intercambio veloz -o automático- de información entre oficinas o instituciones a priori distantes, así como facilitar la adaptación de los procesos internos de gestión para sacar mayor provecho de las soluciones de datos. En Brasil, por ejemplo, el Sistema Público de Escrituración Digital fue creado para estandarizar y acelerar el intercambio de información entre las diversas agencias recaudatorias, cuya dispersión y falta de comunicación daba lugar a fraudes de los contribuyentes.

Marcos regulatorios

Las normativas sobre la propiedad de los datos y los algoritmos, sus licencias y sus mecanismos de apertura son fundamentales para la construcción de un ecosistema de datos en un gobierno o una comunidad determinada. Como parte de esta agenda, es importante que los gobiernos de la Región se embarquen en una discusión sobre la propiedad de los metadatos generados por empresas a las que concesionan servicios públicos. Por otra parte, sistemas para la integración de plataformas entre organismos regulatorios y empresas, como en el que se usa en Brasil para acelerar procesos de facturación e inspecciones impositivas, requieren de normativas específicas sobre el uso y la organización de la información.

Almacenamiento de los datos

Las herramientas para almacenar los datos deben hacerlo de manera segura y facilitando un acceso fluido a ellos. Los servicios de la nube son una alternativa costo/efectiva y evitan tener que asumir tareas de mantenimiento. Esta fue la opción adoptada por la policía de Nueva York, que incorporó el Real-Time Crime Center desarrollado por IBM.

Herramientas para el análisis y recursos humanos capacitados

La escasez de recursos humanos capacitados en ciencia de datos y el costo de las soluciones para el análisis y visualización de datos masivos pueden resultar prohibitivos para muchas instituciones. Sin embargo, los casos estudiados reflejan la importancia de que el trabajo de los programadores ocurra en colaboración cercana con sus potenciales usuarios en cada organismo y no de manera centralizada. En Transport for London, por ejemplo, las tareas fueron divididas entre una unidad destinada a proveer información personalizada al usuario y una unidad de planeamiento, encargada de crear los modelos predictivos para identificar posibles mejoras de infraestructura.

Fuente: Gobernarte

No hay comentarios.:

Publicar un comentario