La promesa de la inteligencia artificial en la salud ha llegado cargada de expectativas. En muchas clínicas de Estados Unidos, ya se utilizan herramientas de IA para transcribir conversaciones, sugerir diagnósticos e incluso ofrecer códigos de facturación. Este tipo de sistemas se integran en tiempo real durante la consulta, funcionando como asistentes digitales que capturan lo que dice el paciente y lo transforman en un resumen clínico aparentemente ordenado y preciso.
Sin embargo, lo que estos modelos no pueden detectar es la inflexión en la voz cuando alguien habla con miedo, la pausa antes de mencionar un recuerdo doloroso o la mirada que evita el contacto por vergüenza. Cuando los médicos confían en que la tecnología está «escuchando» por ellos, el riego de desconexión emocional es real. Lo no dicho, lo gestual y lo implícito quedan fuera del registro, y eso implica una pérdida considerable de información clínica y humana.
Medicina basada en datos, no en personas
Durante las últimas décadas, la medicina se ha volcado en la llamada «medicina basada en evidencia«, una corriente que, aunque buscaba eliminar prácticas desactualizadas y promover el uso de estudios rigurosos, terminó estrechando el campo de la atención. Se priorizaron las cifras, los algoritmos y los protocolos por encima de la escucha, la intuición y la relación.
La llegada de la IA amplifica esta tendencia. Si antes un médico se guiaba por escalas y puntuaciones, ahora una máquina puede ofrecer la solución más estadísticamente probable en cuestión de segundos. El problema es que esto convierte al paciente en una colección de datos, no en una historia singular. El riesgo no está solo en lo que la IA no ve, sino también en lo que hace invisible: la dimensión afectiva, social y contextual del sufrimiento.
Pacientes que se preparan para agradar a las máquinas
Ya no solo los médicos usan inteligencia artificial. Cada vez más personas acuden a chatbots como ChatGPT para elaborar sus síntomas antes de una consulta. En lugar de contar espontáneamente cómo se sienten, se entrenan con la IA para usar el lenguaje clínico correcto, afinan su relato como si estuvieran presentándose a una entrevista o examen.
Esto puede facilitar ciertos diagnósticos, pero también introduce una forma de autoedición emocional. El miedo, la duda, los contextos de vida que influyen en la enfermedad quedan borrados en favor de una narrativa médica limpia, sin interferencias subjetivas. Lo que los pacientes creen que necesitan para ser escuchados es lo que la IA les ha devuelto como «correcto», lo que puede llevar a diagnósticos más rápidos pero también más despersonalizados.
Efectos colaterales en la práctica médica
Estudios recientes revelan un fenómeno preocupante: la pérdida de habilidades clínicas en los profesionales que delegan en la IA. Cuando un sistema sugiere diagnósticos, es fácil dejar de cuestionarlos. La reflexión se debilita, la creatividad en el razonamiento se apaga, y lo que antes era una labor analítica se transforma en validación pasiva.
En contextos de salud saturados, donde el tiempo apremia y los incentivos están orientados a la productividad, estas herramientas se integran no como apoyos sino como sustitutos. Paradójicamente, en lugar de liberar al médico para que mire a los ojos al paciente, la tecnología refuerza el modelo de atención rápida, donde cada minuto ganado se convierte en una visita más facturada.
Desigualdad codificada en algoritmos
Otro problema que la IA hereda (y a veces amplifica) es el de los sesgos estructurales en salud. Muchos de los conjuntos de datos con los que se entrenan estos modelos contienen desigualdades históricas: menor presencia de mujeres, personas negras o con discapacidades. Esto significa que, incluso si un sistema parece «objetivo», reproduce las exclusiones y errores del pasado.
Casos como los oxímetros que fallan en personas con piel más oscura o los algoritmos que niegan tratamientos por consideraciones económicas ya son documentados. Empresas aseguradoras usan sistemas predictivos para clasificar a pacientes como «muy costosos» y negar cobertura sin intervención humana, un proceso automatizado disfrazado de eficiencia.
El riesgo de perder la medicina como espacio de humanidad
Lo que está en juego no es solo la calidad del diagnóstico. Es el modelo de relación entre quien cuida y quien es cuidado. La medicina, entendida como práctica de acompañamiento, necesita escucha, tiempo, presencia y reconocimiento del otro como ser único. Cuando el foco se traslada al dato, se debilita esa dimensión profundamente humana.
En contextos autoritarios o sistemas orientados al lucro, la IA puede convertirse en una herramienta de control, vigilancia y deshumanización. Cada dato recolectado sobre nuestros cuerpos y mentes se convierte en un activo para otros, no en un medio para nuestro bienestar. Así, el uso de la IA en medicina puede reforzar una lógica extractiva: la salud como negocio, no como derecho.
Cómo podría ser una IA al servicio del cuidado
Pensar en una inteligencia artificial útil para la salud no implica rechazar la tecnología, sino redefinir sus fines. En un sistema público centrado en el bienestar, podría servir para detectar inequidades, apoyar a profesionales con exceso de carga laboral, o identificar pacientes que necesitan ayuda social urgente.
Fuente: WWWhat's
No hay comentarios.:
Publicar un comentario