El nuevo Nobel de Física alerta sobre las «posibles malas consecuencias» de la IA
Geoffrey Hinton, premiado por sus descubrimientos sobre el aprendizaje automático con redes neuronales artificiales, ha recordado que «no tenemos experiencia en lo que es tener cosas más inteligentes que nosotros»
El informático británico Geoffrey Hinton, nuevo premio Nobel de Física junto al estadounidense John Hopfield por sus descubrimientos sobre el aprendizaje automático con redes neuronales artificiales, ha dicho este martes en renferencia a la inteligencia artificial (IA) que «no tenemos experiencia en lo que es tener cosas más inteligentes que nosotros». Y que, aunque el futuro pueda ser «maravilloso en muchos aspectos», también puede haber «posibles malas consecuencias».
Hinton (Londres, 1947), que es profesor de la Universidad de Toronto, intervino por teléfono durante la rueda de prensa en la que se anunció el galardón y fue preguntado sobre la influencia que las redes neuronales y el aprendizaje automático pueden tener en un futuro.
El investigador británico-canadiense consideró que la influencia va a ser «enorme» y la comparó con «la Revolución Industrial, pero en lugar de superar a la gente en fuerza física lo hará en capacidad intelectual».
«No tenemos experiencia en lo que es tener cosas más inteligentes que nosotros y va a ser maravilloso en muchos aspectos», dijo, como la atención de la salud o que las personas podrán hacer el mismo trabajo, con un asistente de IA, en mucho menos tiempo, lo que se traducirá en «enormes mejoras en la productividad».
Sin embargo, llamó la atención sobre que también hay que preocuparse por «una serie de posibles malas consecuencias». En particular, «la amenaza de que estas cosas se salgan de control».
Salida de Google
Premio de Fronteras del Conocimiento en la categoría de Tecnologías de la Información y Comunicación en 2017, Hinton llegó a ser vicepresidente e investigador de ingeniería de Google, compañía que abandonó el año pasado.
Aquella salida, según publicó el ahora Nobel en sus redes sociales en mayo del año pasado, «fue para poder hablar de los peligros de la IA sin tener en cuenta cómo afecta esto» a esa empresa, de la que indicó que «ha actuado de forma muy responsable».
Hinton, en varias entrevistas, no solo ha puesto en guardia sobre los peligros de la IA, sino que en alguna ocasión afirmó que se arrepentía de parte de su trabajo, según se recordó en la rueda de prensa.
En este sentido, explicó que «hay dos tipos de arrepentimiento», aquel con el que uno se siente «culpable», porque se hizo algo nuevo, que no se debería haber hecho, y un segundo por algo que se volvería a hacer «en las mismas circunstancias, pero puede que al final, no salga bien».
Este es el tipo de arrepentimiento que aseguró tener y agregó que «en las mismas circunstancias volvería a hacer lo mismo», aunque reiteró su preocupación de que se pueda llegar a sistemas «más inteligentes» que «eventualmente tomen el control».
El experto en IA, cuyo trabajo fue fundamental para disponer de herramientas como ChatGPT, declaró que cuando quiere saber la respuesta a algo pregunta al chatbot, el cual usa bastante, aunque advirtió: «No me fío del todo porque puede alucinar» (término que se emplea cuando la IA generativa da respuestas erróneas, imprecisas o faltas de sentido).