Fundado en 1910

Consulta médicaFreepik

El ChatGPT y la IA en Salud complican el diagnóstico de los pacientes y suponen un «riesgo de desinformación»

Estas herramientas reducen la carga de trabajo de los facultativos de hasta un 20 por ciento a los médicos y un 8 por ciento a las enfermeras

En los últimos años, la tecnología ha dado un gran salto al mundo empresarial. Cada vez son más las personas que trabajan con Inteligencia Artificial (IA) o el famoso ChatGPT, y por ello, varias sociedades científicas, asociaciones de pacientes y organizaciones del ámbito hospitalario han pedido a las compañías que desarrollan IA en Salud un compromiso ético porque, advierten, cada vez es más difícil distinguir los contenidos reales de los falsos.

La Asociación de innovadores en eSalud (Aies), la red Itemas (dependiente del Instituto de Salud Carlos III) y el Instituto #SaludsinBulos han lanzado esta demanda en el simposio Hackeando la Sanidad: Inteligencia Artificial en Salud para evitar los riesgos de confidencialidad de los datos de los pacientes y desinformación que ha conllevado el uso de la IA.

Es cierto, según comentan los expertos, que el uso de la IA en salud reduce la carga de trabajo de los facultativos de hasta un 20 por ciento a los médicos y un 8 por ciento a las enfermeras, lo cual redundaría en el tiempo que puedan dedicar a los pacientes, reconocen los autores de la iniciativa, a la que ya se han sumado sociedades de Atención Primaria como semFYC y Semergen y la de enfermería Feacap.

La doctora Carmen Jódar, responsable de estrategia digital en la Junta de Andalucía y presidenta de Aies ha señalado que diversos estudios han demostrado que muchos de los diagnósticos que realiza la IA son «más precisos que los que puede realizar cualquier equipo médico». Además, también está ayudando a asignar mejor los recursos de la asistencia sanitaria y a ejecutar tratamientos más personalizados.

Pero también supone un riesgo de desinformación en salud, como están mostrando los «deep fakes» -vídeos con imágenes creadas por Inteligencia Artificial, incluso de personas reales cuya imagen y voz son manipuladas-, de modo que cada vez va a ser más difícil distinguir entre lo que es un contenido real de otro falso.

Ya está ocurriendo con ChatGPT y la Inteligencia Artificial Generativa, ha añadido Carlos Mateos, coordinador del Instituto #SaludsinBulos y del Hackathon Salud, organizado con el objetivo de impulsar soluciones basadas en la IA que ayuden a combatir la desinformación.

Lluís Blanch, coordinador de Itemas, ha considerado que la IA «debe formar parte de las soluciones tecnológicas que ayuden a la asistencia sanitaria», como las que ya se aplican en algunos centros para los diagnósticos en urgencias o en el campo de la medicina personalizada.

Pero es necesario impulsar un compromiso ético que minimice los riesgos y se sustente en garantizar la autonomía, el bienestar del paciente, la confiabilidad, la equidad, la información veraz, la privacidad, la representatividad, la responsabilidad, la sostenibilidad y la transparencia.