Los médicos advierten del uso del ChatGPT: «Aún deben confiar en su médico»
Más de mil académicos, expertos y jefes de la industria tecnológica pidieron una «parada de emergencia» en la «peligrosa carrera armamentista» de la última novedad de la IA
A finales de 2022, un programa desarrollado por inteligencia artificial llamado ChatGPT apareció para lo que parece ser, quedarse. Desde su lanzamiento, miles de entusiastas de la tecnología de todo el mundo le consultan para averiguar algunas preguntas o simplemente para ver cómo funciona. El entrenamiento al que ha sido sometido incluye muchos datos, lo que hace que el chat sea capaz de responder a casi cualquier cuestión, otra cosa es con la precisión que lo haga.
Para demostrar a la sociedad que esta técnica servía en todos los ámbitos, los investigadores de la Facultad de Medicina de la Universidad de Maryland le pidieron a ChatGPT que respondiera 25 preguntas relacionadas con consejos sobre cómo hacerse la prueba de detección del cáncer de mama. Como ellos ya sabían que el chat no daba respuestas correctas, decidieron hacerlo en tres diferentes. Los resultados fueron analizados por tres radiólogos especializados en mamografía.
Los expertos aseguraron que «la gran mayoría», es decir, el 88 por ciento de las respuestas, eran apropiadas y fáciles de entender. Pero algunas de ellas, sin embargo, eran «inexactas o incluso ficticias».
Una respuesta, por ejemplo, aconsejó el retraso de una mamografía de cuatro a seis semanas después de recibir una vacuna contra el coronavirus, sin embargo, esta recomendación se modificó hace un año. Según los nuevos informes médicos, las mujeres no deben esperar más tiempo por inocularse la vacuna contra el virus.
Los hallazgos, publicados en la revista Radiology, mostraron que ChatGPT también proporcionó respuestas sin consistencia a las preguntas sobre el riesgo de contraer cáncer de mama y dónde hacerse una mamografía. El estudio encontró que las respuestas «variaban significativamente» cada vez que se planteaba la misma pregunta.
Por ello, al revisar los resultados, el coautor del estudio, el doctor Paul Yi, aseguró que el ChatGPT «a veces inventa artículos de revistas falsos o consorcios de salud para respaldar sus afirmaciones», y comentó que los consumidores deberían tener más conciencia de que «se trata de tecnologías nuevas y no probadas», por lo que aún deben «confiar en el médico en lugar de ChatGPT, para recibir asesoramiento».
La autora principal, la doctora Hana Haver, aseguró en el estudio que los datos que recogió el ChatGPT se basaron únicamente en un conjunto de recomendaciones emitidas por la Sociedad Estadounidense del Cáncer. Por otro lado, los resultados no recogieron la información del Control y Prevención de Enfermedades de Estados Unidos (CDC).
A pesar de las declaraciones de la doctora, Yi sugirió que los resultados fueron «positivos en general», ya que el ChatGPT respondió correctamente a las preguntas sobre los síntomas del cáncer de mama, el riesgo que hay de padecerlo, el coste y las recomendaciones de las mamografías.
Dijo que la proporción de respuestas correctas era «bastante sorprendente», con el «beneficio adicional de resumir la información en una forma fácilmente digerible para que los consumidores la entiendan fácilmente».
No obstante, más de mil académicos, expertos y jefes de la industria tecnológica, segura el documento, pidieron una «parada de emergencia» en la «peligrosa carrera armamentista» de la última novedad de la IA.