Fundado en 1910
.

Pixabay

Expertos en salud pública también piden detener la I+D en IA hasta que se regule

Advierten de que ciertos tipos y aplicaciones de esta tecnología suponen una «amenaza existencial para la humanidad»

Cada vez son más los profesionales de todas las áreas que se unen a los llamamientos para controlar y regular la IA y alertar de sus riesgos en caso de no hacerlo. En esta ocasión, ha sido un grupo internacional de médicos y expertos en salud pública el que se ha mostrado a favor de una moratoria en la investigación de esta tecnología hasta que su desarrollo y uso estén debidamente reglados, según publican en la revista de acceso abierto BMJ Global Health.

A pesar de su potencial transformador para la sociedad, incluso en medicina y salud pública, ciertos tipos y aplicaciones de la IA, incluida la IAG de propósito general autosuperable, suponen una «amenaza existencial para la humanidad», advierten.

Destacan tres conjuntos de amenazas asociadas al mal uso de dicha tecnología y a la incapacidad actual para anticipar, adaptarse y regular el impacto transformador de la tecnología en la sociedad.

La primera de ellas procede de la capacidad de la IA para limpiar, organizar y analizar rápidamente conjuntos masivos de datos personales, incluidas imágenes. Esto puede utilizarse para manipular comportamientos y subvertir la democracia, explican, citando su papel en la subversión de las elecciones kenianas de 2013 y 2017, las elecciones presidenciales estadounidenses de 2016 y las elecciones presidenciales francesas de 2017.

«Cuando se combinan con la rápida mejora de la capacidad de distorsionar o tergiversar la realidad con falsificaciones profundas, los sistemas de información impulsados por la IA pueden socavar aún más la democracia causando una ruptura general de la confianza o impulsando la división social y el conflicto, con las consiguientes repercusiones en la salud pública», afirman.

Los gobiernos y otros actores poderosos también pueden utilizar la vigilancia basada en la IA para controlar y oprimir a la gente de forma más directa, un ejemplo de lo cual es el Sistema de Crédito Social de China, señalan.

Este sistema combina software de reconocimiento facial y análisis de repositorios de «grandes datos» sobre transacciones financieras, movimientos, antecedentes policiales y relaciones sociales.

Pero China no es el único país que desarrolla la vigilancia mediante IA: al menos otros 75, «desde democracias liberales hasta regímenes militares, han ido ampliando estos sistemas», destacan.

La segunda serie de amenazas se refiere al desarrollo de sistemas de armas autónomas letales (LAWS, por sus siglas en inglés), capaces de localizar, seleccionar y atacar objetivos humanos sin necesidad de supervisión humana.

Los LAWS pueden acoplarse a pequeños dispositivos móviles, como drones, y podrían fabricarse en serie a bajo coste y configurarse fácilmente para matar «a escala industrial», advierten los autores.

La tercera serie de amenazas surge de la pérdida de puestos de trabajo que acompañará al despliegue generalizado de la tecnología de IA, con estimaciones que oscilan entre decenas y cientos de millones durante la próxima década. «Aunque acabar con un trabajo repetitivo, peligroso y desagradable tendría muchas ventajas, ya sabemos que el desempleo está estrechamente relacionado con resultados adversos para la salud y el comportamiento», apuntan.

Hasta la fecha, la creciente automatización sólo ha tendido a desplazar los ingresos y la riqueza del trabajo a los propietarios del capital, contribuyendo así a una distribución desigual de la riqueza en todo el mundo, indican.

La posibilidad de que apliquen su inteligencia y su poder de forma que puedan dañar o subyugar a los humanos es real y debe tenerse en cuenta

«Además, no sabemos cómo responderá psicológica y emocionalmente la sociedad a un mundo en el que el trabajo no esté disponible o sea innecesario, ni estamos pensando mucho en las políticas y estrategias que serían necesarias para romper la asociación entre desempleo y mala salud», subrayan.

Sin embargo, sugieren que la amenaza que plantea la inteligencia artificial autodidacta, que en teoría podría aprender y realizar todas las tareas humanas, es global.

«Estamos intentando crear máquinas mucho más inteligentes y potentes que nosotros mismos –subrayan–. La posibilidad de que estas máquinas apliquen su inteligencia y su poder, deliberadamente o no, de forma que puedan dañar o subyugar a los humanos, es real y debe tenerse en cuenta».

«Si se hace realidad, la conexión de la inteligencia artificial con Internet y el mundo real, incluso a través de vehículos, robots, armas y todos los sistemas digitales que dirigen cada vez más nuestras sociedades, podría representar el mayor acontecimiento de la historia de la humanidad», alertan.

«Con el crecimiento exponencial de la investigación y el desarrollo de la IA, la ventana de oportunidad para evitar daños graves y potencialmente existenciales se está cerrando. Los resultados futuros del desarrollo de la IA y la AGI dependerán de las decisiones políticas que se tomen ahora y de la eficacia de las instituciones reguladoras que diseñemos para minimizar los riesgos y daños y maximizar los beneficios», subrayan.

Se necesitarán acuerdos y cooperación internacionales, así como evitar una «carrera armamentística» de IA mutuamente destructiva, insisten. Y los profesionales de la salud tienen un papel clave a la hora de concienciar y hacer sonar la alarma sobre los riesgos y amenazas que plantea la IA.

«Para que la IA cumpla su promesa de beneficiar a la humanidad y a la sociedad, debemos proteger la democracia, reforzar nuestras instituciones de interés público y diluir el poder para que haya controles y equilibrios efectivos -recomiendan-. Esto incluye garantizar la transparencia y la rendición de cuentas de las partes del complejo industrial militar-corporativo que impulsan el desarrollo de la IA y de las empresas de medios sociales que están permitiendo que la desinformación selectiva impulsada por la IA socave nuestras instituciones democráticas y el derecho a la privacidad», concluyen.

Temas

comentarios
tracking