La orden de IA para la atención médica puede acercar a los pacientes y los médicos

La inteligencia artificial en la atención médica puede acercar a pacientes y médicos

10 de noviembre de 2023 – Es posible que hayas utilizado ChatGPT-4 u otro chatbot de inteligencia artificial para hacer una pregunta sobre tu salud. O tal vez tu médico esté usando ChatGPT-4 para generar un resumen de lo que ocurrió en tu última visita. Incluso es posible que tu médico tenga un chatbot que verifique su diagnóstico de tu condición.

Pero en esta etapa del desarrollo de esta nueva tecnología, tanto los consumidores como los médicos deberían proceder con cautela, según los expertos. A pesar de la confianza con la que un chatbot de IA proporciona la información solicitada, no siempre es precisa.

A medida que se propaga rápidamente el uso de chatbots de IA, tanto en el cuidado de la salud como en otros ámbitos, ha habido llamados crecientes para que el gobierno regule la tecnología y proteja al público de las posibles consecuencias no deseadas de la IA.

Recientemente, el gobierno federal dio un primer paso en esta dirección cuando el presidente Joe Biden emitió una orden ejecutiva que requiere que las agencias gubernamentales encuentren formas de regular el uso de la IA. En el ámbito de la atención médica, la orden dirige al Departamento de Salud y Servicios Humanos a promover una innovación de IA responsable que “promueva el bienestar de los pacientes y los trabajadores en el sector de la salud”.

Entre otras cosas, se supone que la agencia establecerá un grupo de trabajo de IA en atención médica dentro de un año. Este grupo de trabajo desarrollará un plan para regular el uso de la IA y las aplicaciones habilitadas por IA en la prestación de atención médica, la salud pública, la investigación y el desarrollo de medicamentos y dispositivos médicos, y la seguridad.

El plan estratégico también abordará “la seguridad a largo plazo y el monitoreo del rendimiento en situaciones reales de las tecnologías habilitadas por IA”. El departamento también debe desarrollar una forma de determinar si las tecnologías habilitadas por IA “mantienen niveles adecuados de calidad”. Y, en colaboración con otras agencias y organizaciones de seguridad del paciente, Salud y Servicios Humanos debe establecer un marco para identificar errores “resultantes de la implementación de IA en entornos clínicos”.

La orden ejecutiva de Biden es “un buen primer paso”, según Ida Sim, MD, doctora en filosofía, profesora de medicina y jefa de investigación informática en la Universidad de California, San Francisco.

John W. Ayers, doctor en filosofía, subdirector de informática en el Instituto de Investigación Clínica y Traslacional Altman de la Universidad de California en San Diego, coincidió. Dijo que aunque la industria de la atención médica está sujeta a una supervisión rigurosa, no hay regulaciones específicas sobre el uso de la IA en la atención médica.

“Esta situación única surge del hecho de que la IA se está desarrollando rápidamente y los reguladores no pueden seguirle el ritmo”, dijo. Sin embargo, es importante avanzar con precaución en este ámbito, ya que nuevas regulaciones podrían obstaculizar el progreso médico, agregó.

Problema de “alucinación” acecha a la IA

En el año desde que apareció ChatGPT-4 y sorprendió a los expertos con su conversación similar a la de un humano y su conocimiento en muchos temas, el chatbot y otros similares se han establecido firmemente en el campo de la atención médica. Según una encuesta, el 14% de los médicos ya utilizan estos “agentes conversacionales” para ayudar a diagnosticar pacientes, crear planes de tratamiento y comunicarse en línea. También se están utilizando los chatbots para recopilar información de los registros de pacientes antes de las visitas y para resumir las notas de las visitas para los pacientes.

Los consumidores también han comenzado a utilizar chatbots para buscar información sobre atención médica, comprender los avisos de beneficios de seguros y analizar los resultados de análisis de laboratorio.

El principal problema de todo esto es que los chatbots de IA no siempre tienen la razón. A veces inventan cosas que no existen, como lo llaman algunos observadores. Según un estudio reciente realizado por Vectara, una empresa nueva fundada por antiguos empleados de Google, los chatbots inventan información al menos un 3% del tiempo, y hasta un 27% del tiempo, según el bot. Otro informe llegó a conclusiones similares.

Esto no quiere decir que los chatbots no sean notablemente buenos para llegar a la respuesta correcta la mayor parte del tiempo. En un estudio, 33 médicos de 17 especialidades hicieron 284 preguntas médicas de distintos niveles de complejidad a los chatbots y calificaron sus respuestas. Más de la mitad de las respuestas se consideraron casi correctas o completamente correctas. Sin embargo, las respuestas a 15 preguntas se calificaron como completamente incorrectas.

Google ha creado un chatbot llamado Med-PaLM que está adaptado al conocimiento médico. Este chatbot, que superó un examen de licencia médica, tiene una precisión del 92.6% al responder preguntas médicas, aproximadamente la misma que la de los médicos, según un estudio de Google.

Ayers y sus colegas llevaron a cabo un estudio comparando las respuestas de los chatbots y los médicos a las preguntas que los pacientes hicieron en línea. Los profesionales de la salud evaluaron las respuestas y prefirieron la respuesta del chatbot en casi el 80% de los intercambios. Las respuestas de los médicos fueron calificadas más bajas en cuanto a calidad y empatía. Los investigadores sugirieron que los médicos podrían haber sido menos empáticos por el estrés de la práctica.

Basura dentro, basura fuera

Los chatbots pueden usarse para identificar diagnósticos raros o explicar síntomas inusuales, y también pueden consultarse para asegurarse de que los médicos no pasen por alto posibilidades de diagnóstico obvias. Para estar disponibles para esos propósitos, deberían estar integrados en el sistema de registros electrónicos de salud de una clínica. Microsoft ya ha integrado ChatGPT-4 en el sistema de registros de salud más extendido de Epic Systems.

Un desafío para cualquier chatbot es que los registros contienen información incorrecta y muchas veces faltan datos. Muchos errores de diagnóstico están relacionados con historias de pacientes mal tomadas y exámenes físicos poco detallados documentados en el registro electrónico de salud. Y normalmente estos registros no incluyen mucha o ninguna información de los registros de otros profesionales que han visto al paciente. Basándose únicamente en los datos insuficientes del registro del paciente, puede ser difícil tanto para un humano como para una inteligencia artificial llegar a la conclusión correcta en un caso particular, según Ayers. Ahí es donde la experiencia y el conocimiento del paciente de un médico pueden ser invaluables.

Pero los chatbots son bastante buenos comunicándose con los pacientes, como mostró el estudio de Ayers. Con supervisión humana, dijo, es probable que estos agentes conversacionales puedan ayudar a aliviar la carga de los médicos en la mensajería en línea con los pacientes. Y, dijo, esto podría mejorar la calidad de la atención médica.

“Un agente conversacional no es solo algo que puede manejar tu bandeja de entrada o la carga de tu bandeja de entrada. Puede convertir tu bandeja de entrada en una bandeja de salida a través de mensajes proactivos a los pacientes,” dijo Ayers.

Los bots pueden enviar mensajes personales a los pacientes, adaptados a sus registros y a lo que los médicos creen que serán sus necesidades. “¿Qué haría eso por los pacientes?” dijo Ayers. “Hay un enorme potencial aquí para cambiar la forma en que los pacientes interactúan con sus proveedores de atención médica.”

Ventajas y desventajas de los chatbots

Si los chatbots pueden usarse para generar mensajes a los pacientes, también pueden desempeñar un papel clave en el manejo de enfermedades crónicas, que afectan hasta al 60% de todos los estadounidenses.

Sim, que también es médico de atención primaria, lo explica de esta manera: “La enfermedad crónica es algo que tienes las 24 horas del día, los 7 días de la semana. Veo a mis pacientes más enfermos durante 20 minutos cada mes, en promedio, así que no soy quien se encarga de la mayoría de la atención médica crónica”.

Ella les dice a sus pacientes que hagan ejercicio, controlen su peso y tomen sus medicamentos según las indicaciones.

“Pero no ofrezco ningún apoyo en casa”, dijo Sim. “Los chatbots de IA, debido a su capacidad de utilizar lenguaje natural, pueden estar ahí con los pacientes de formas en las que los médicos no podemos”.

Además de asesorar a los pacientes y a sus cuidadores, dijo, los agentes conversacionales también pueden analizar datos de sensores de monitoreo y hacer preguntas sobre la condición del paciente de día a día. Aunque nada de esto sucederá en el futuro cercano, dijo, representa una “gran oportunidad”.

Ayers estuvo de acuerdo, pero advirtió que deben realizarse ensayos controlados aleatorios para determinar si un servicio de mensajería asistido por IA realmente puede mejorar los resultados de los pacientes.

“Si no llevamos a cabo una ciencia pública rigurosa sobre estos agentes conversacionales, puedo imaginar escenarios en los que se implementen y causen daño”, dijo.

En general, Ayers dijo que la estrategia nacional sobre IA debería centrarse en los pacientes, en lugar de centrarse en cómo los chatbots ayudan a los médicos o reducen los costos administrativos.

Desde la perspectiva del consumidor, Ayers dijo que le preocupaba que los programas de IA dieran “recomendaciones universales a los pacientes que podrían ser irrelevantes o incluso dañinas”.

Sim también enfatizó que los consumidores no deben depender de las respuestas que los chatbots brindan a preguntas de atención médica.

“Es necesario tener mucha precaución. Estas cosas son tan convincentes en la forma en que utilizan el lenguaje natural. Creo que es un riesgo enorme. Como mínimo, se debería informar al público: ‘Hay un chatbot detrás de esto, y podría estar equivocado'”.