martes, 23 de marzo de 2021

Procesamiento del lenguaje natural: una piedra angular en la gestión del conocimiento en la era digital


El entendimiento que tiene una organización sobre la información con la que cuenta, es clave para su éxito y para serle aún más útil a sus clientes. Gran parte de esa información está escrita en texto, lo que hace al texto un tipo de dato muy valioso; sin embargo, en estos días la enorme cantidad de datos que se genera en la mayoría de las organizaciones excede la capacidad manual de sus trabajadores de entenderlos y de hacer uso correcto de estos.

Desde hace 20 años, la International Data Corporation (IDC) estimó que los knowledge workers invertían hasta el 30% de sus jornadas tan solo buscando información, e investigaciones más recientes indican que ese porcentaje es inclusive más alto en la actualidad. Los científicos de datos, por ejemplo, dedican aproximadamente el 82% de su tiempo a buscar, limpiar, transformar y gestionar datos, lo que se apega a nuestro modelo iceberg de IA. Eso significa que dedican solo el 18% de sus horas laborales al entendimiento de datos, lo que presenta un gran desafío para las organizaciones que necesitan llevar a cabo análisis de calidad para la toma de decisiones.

¿Cuál es la solución entonces? Entrenar máquinas para automatizar los procesos de análisis de datos. Si realmente quieren aprovechar al máximo la información que generan, las organizaciones actuales deben de ser capaces de analizar datos a gran escala, y no hablamos de 10 documentos a la vez, sino de millones de documentos. Las técnicas de procesamiento del lenguaje natural (PLN) hacen exactamente eso.

El lenguaje es como compartimos el conocimiento

Para comprender el valor del procesamiento del lenguaje natural, basta con ver la importancia del lenguaje. Al principio de nuestra especie, vivíamos en pequeños grupos que se reunían por las noches alrededor de una fogata para compartir historias. Esas historias estaban llenas de conocimiento útil que nuestros antepasados aprendieron a través de sus experiencias, y fue el lenguaje el que permitió la transferencia de ese conocimiento tan trascendental. Con el tiempo y a medida que las sociedades crecieron, estas historias comenzaron a presentarse por escrito para que pudieran transmitirse a las generaciones futuras; posteriormente buscamos formas para almacenar y compartir este conocimiento, y comenzaron a aparecer las bibliotecas, como la Biblioteca de Asurbanipal, establecida en el siglo VII a. C., y la famosa Biblioteca de Alejandría fundada alrededor del año 250 a. C., y que contenía hasta 400.000 pergaminos.

Esta situación continuó evolucionando durante miles de años y requirió una actualización periódica de los métodos utilizados para organizar y compartir ideas. Fue así como nació el campo de la gestión del conocimiento, que responde a la necesidad de organizar, compartir y adaptar constantemente el conocimiento adquirido.  Una de las primeras menciones del término “gestión del conocimiento” fue en la década de 1980, cuando Toyota, el fabricante de automóviles, adoptó una serie de rutinas para la transmisión de información; por ejemplo, pedirles a sus trabajadores de la línea de montaje que al finalizar su jornada completaran un informe sobre sus actividades y lo compartieran con sus colegas que estaban por iniciar el siguiente turno. El medio para esta transferencia de conocimiento fue, por supuesto, el lenguaje.

Durante las últimas décadas, la tecnología ha avanzado rápidamente y hemos visto un incremento en el uso de bases de datos, sistemas de gestión de registros, taxonomías y ontologías complejas para tratar de ordenar la saturación de información que caracteriza a nuestra existencia. Hoy vivimos en un mundo en donde cada día se intercambian 300 mil millones de correos electrónicos, y en donde se espera que, para el 2025, la cantidad de datos generados diariamente supere los 460 exabytes, que equivale a alrededor de 460 mil millones de gigabytes. Actualmente, la cantidad de texto creada por una organización en un solo día puede ser exponencialmente mayor que toda la colección de palabras en la Biblioteca de Alejandría en su momento de mayor apogeo.

En medio de esta tormenta continua de datos nuevos, luchamos por recrear lo fácil que fue compartir conocimiento al lado de esa fogata. Seguimos pensando que si tuviéramos la metodología adecuada, los documentos correctos o la plataforma de software más apta, seguramente lograríamos recrear esa dinámica y su vez, podríamos volver a compartir de manera efectiva la información que necesitamos para hacer mejor nuestro trabajo. Sin embargo, la realidad es que tenemos demasiados datos para hacer esto por nosotros mismos a gran escala.

La PLN es clave para gestionar los flujos de conocimiento

Entonces, ¿cómo puede ayudar el procesamiento del lenguaje natural? La PLN nos brinda las herramientas para capacitar a las máquinas a que imiten la comprensión de palabras y lenguaje, el cual sigue siendo nuestro medio central para compartir conocimiento.

Las técnicas de procesamiento del lenguaje natural ya juegan un papel en tu vida diaria. ¿Has tenido una “conversación” con tu banco a través de un chat? Eso es PLN. ¿Has utilizado la función de autocompletar cuando escribes un texto en tu móvil? Eso es PLN. O piensa en lo que sucede cuando le preguntas a Alexa qué horas son, y ella responde que son las 10 PM. Ella escuchó tu pregunta, convirtió ese sonido en texto, evaluó lo que probablemente estabas buscando, consideró tu ubicación y le dio sentido a todo eso para brindarte una respuesta precisa en apenas 1 segundo. Eso es PLN.

Las empresas ya utilizan PLN todos los días para aumentar ingresos y/o reducir costos. Por ejemplo, Globe Telecom en Filipinas, con más de 62 millones de clientes, implementó un chatbot para reducir la presión de su centro de llamadas, lo que generó un aumento del 22% en la satisfacción del cliente, una reducción del 50% en las llamadas a la línea directa y un aumento del 350% en la productividad de los empleados. Estas técnicas se han convertido en herramientas de gestión del conocimiento invaluables para respaldar los flujos de información dentro de una organización. JPMorgan Chase, por ejemplo, implementó un bot que era capaz de leer documentos legales y analizar contratos complejos ahorrando así más de 360.000 horas de mano de obra en sus primeros 10 meses. Otro buen ejemplo es el Ministerio de Modernización de Argentina, que desarrolló una herramienta de PLN, TextAr, que lee las preguntas externas que recibe la Secretaría de Relaciones Parlamentarias, y con base en el contenido las categoriza automáticamente para generar un informe dirigido a las partes responsables de trabajar con esa información. Esto ahorra cientos de horas que se dedicaban a leer estos mensajes uno a uno.

En el BID, el uso de la inteligencia artificial es una pieza central de nuestro abordaje de la gestión del conocimiento, y aprovechamos las técnicas de PLN para desarrollar herramientas que enfrenten los desafíos en la gestión del conocimiento, como ubicar experticia, resumir documentos, clasificar artículos, sistematizar aprendizajes, organizar conocimiento para mejorar su SEO, clasificar grandes cantidades de texto y crear un mapa de vocabulario organizacional para identificar conocimiento relevante.

Al paso al que se están acumulando los datos, el PLN ofrece un enfoque radical y rentable para lidiar con la enorme cantidad de texto que las organizaciones generan diariamente. Como tal, los profesionales actuales de la gestión del conocimiento deben comprender cómo utilizar las técnicas y herramientas de PLN para apoyar el intercambio de conocimiento y cómo incorporarlas a su toolkit. Eso mejorará nuestra capacidad para generar soluciones a gran escala que aumenten la capacidad de gestión del conocimiento y transformen los datos existentes de una organización en conocimiento valioso.

Fuente: Abierto al Publico

No hay comentarios.:

Publicar un comentario