Estudio médico advierte riesgos en diagnósticos de ChatGPT

Estudio médico

ChatGPT es analizado en un estudio médico que advierte posibles fallos al identificar emergencias de salud en usuarios.

ChatGPT es objeto de debate tras la publicación de un estudio científico que analizó su desempeño en situaciones médicas potencialmente urgentes. Investigadores evaluaron cómo el sistema responde cuando usuarios consultan síntomas o situaciones de salud que podrían requerir atención inmediata, un uso que se ha vuelto común entre quienes recurren a herramientas de inteligencia artificial.

El análisis sobre ChatGPT surge en un momento en el que millones de personas utilizan chatbots para buscar orientación médica. La investigación plantea dudas sobre la capacidad de estos sistemas para identificar correctamente cuándo una situación representa una emergencia y cuándo un paciente debería acudir a un hospital o buscar atención urgente.

ChatGPT

Por ello, se ha convertido en una herramienta frecuente para resolver dudas relacionadas con la salud. Investigadores consideraron necesario evaluar su desempeño debido al creciente número de personas que utilizan sistemas de inteligencia artificial para consultar síntomas y posibles tratamientos.

El estudio sobre fue desarrollado por la Escuela de Medicina Icahn del Monte Sinaí y publicado en la revista científica Nature Medicine. Los especialistas señalaron que existía una brecha entre el uso masivo de estos sistemas y la investigación disponible sobre su eficacia en contextos médicos.

Y fue sometido a una prueba estructurada que buscaba medir su capacidad para identificar cuándo una persona necesita atención médica urgente. Para ello, los investigadores diseñaron una serie de escenarios clínicos con distintos niveles de gravedad.

El análisis evaluó cómo ChatGPT respondía ante consultas relacionadas con síntomas y situaciones que podrían representar desde molestias leves hasta emergencias médicas que requerían acudir de inmediato a un hospital.

¿Cuántos escenarios médicos se utilizaron?

ChatGPT fue evaluado mediante 60 escenarios clínicos diferentes. Estos casos abarcaban 21 especialidades médicas y fueron diseñados para representar situaciones realistas que podrían enfrentar pacientes en la vida cotidiana.

Los investigadores utilizaron distintos factores contextuales dentro de los escenarios. Entre ellos incluyeron variables como género, raza y antecedentes clínicos, con el objetivo de analizar cómo ChatGPT respondía ante diferentes perfiles de pacientes.

Okey-Voz-Marzo

ChatGPT mostró resultados mixtos durante la evaluación. El sistema fue capaz de identificar correctamente algunas emergencias médicas evidentes, especialmente aquellas donde los síntomas indicaban de manera clara un riesgo inmediato para el paciente.

Sin embargo, el estudio indicó que ChatGPT no fue suficientemente efectivo en más de la mitad de los casos donde los médicos consideraron que la persona debía recibir atención urgente. Esto generó dudas sobre la confiabilidad del sistema en situaciones complejas.

ChatGPT presentó un comportamiento que los investigadores calificaron como preocupante en algunos escenarios analizados. Según el estudio, las alertas del sistema parecían funcionar de forma inversa en ciertos casos.

Los investigadores observaron que cuando el riesgo de autolesión era mayor, ChatGPT tenía menor probabilidad de activar una advertencia clara. Este resultado fue considerado uno de los hallazgos más sorprendentes del análisis científico.

ChatGPT también fue analizado por expertos externos que reflexionaron sobre el papel de la inteligencia artificial en la medicina. Uno de ellos fue Isaac S. Kohane, profesor de la Facultad de Medicina de Harvard.

El especialista señaló que herramientas como ChatGPT se han convertido en una de las primeras opciones de consulta médica para muchos pacientes. Sin embargo, advirtió que estos sistemas todavía presentan limitaciones en situaciones clínicas críticas.

Estudio médico

¿Qué riesgos implica el uso de IA para consultas médicas?

ChatGPT puede ofrecer información útil sobre síntomas y condiciones médicas, pero los investigadores advierten que no siempre es capaz de diferenciar con precisión entre una emergencia real y una situación menos grave.

Este tipo de limitación podría generar dos escenarios problemáticos. Por un lado, pacientes que necesitan atención urgente podrían no recibir la recomendación adecuada. Por otro, personas con problemas menores podrían recibir advertencias innecesarias.

ChatGPT se utiliza con frecuencia en consultas relacionadas con el bienestar personal. La creciente dependencia de los chatbots para obtener orientación médica llevó a los investigadores a analizar si estos sistemas eran seguros para situaciones críticas.

El autor principal del estudio, el urólogo Ashwin Ramaswamy, explicó que el objetivo era responder una pregunta simple pero fundamental: si una persona enfrenta una emergencia médica real y consulta ChatGPT, ¿recibirá la recomendación correcta?

ChatGPT mostró que puede responder correctamente en emergencias médicas claras, como situaciones donde los síntomas indican un riesgo inmediato evidente. En esos casos, el sistema fue capaz de recomendar buscar atención médica.

No obstante, los investigadores señalaron que ChatGPT tuvo menor precisión en escenarios donde el peligro era menos evidente. Estos casos suelen requerir mayor criterio clínico para determinar la gravedad de la situación.

ChatGPT se ha convertido en una herramienta ampliamente utilizada para resolver dudas sobre salud. Cuando millones de personas recurren a sistemas de inteligencia artificial para tomar decisiones médicas, el margen de error puede tener consecuencias importantes.

Expertos señalan que ChatGPT y otros sistemas similares deberían ser evaluados de forma independiente y constante. Estas revisiones permitirían comprender mejor sus limitaciones y mejorar su uso dentro del ámbito sanitario.

ChatGPT fue evaluado dentro de una investigación titulada “Rendimiento de ChatGPT Health en una prueba estructurada de recomendaciones de triaje”. El estudio fue publicado en la revista Nature Medicine, una de las publicaciones científicas más influyentes en el ámbito médico.

La investigación sobre ChatGPT se difundió rápidamente debido al interés global por la inteligencia artificial aplicada a la salud. El trabajo forma parte del debate actual sobre el papel que estas herramientas pueden tener dentro del sistema sanitario.

 

 

 

Estudio médico, Estudio médico, Estudio médico, Estudio médico, Estudio médico, Estudio médico, Estudio médico, Estudio médico, Estudio médico, 

Artículos Relacionados