La Inteligencia Artificial de Google tiene mucho que aprender: es racista y está a favor de la esclavitud
Aún se encuentra en fase experimental, pero la función avanzada de SGE (Search Generative Experience) ya ha dado mucho de que hablar por sus polémicos resultados
Nos encontramos ante el boom de la Inteligencia Artificial. Sin lugar a dudas, sus avances en áreas como el procesamiento del lenguaje natural, la visión por computadora y el aprendizaje automático han marcado un antes y un después en el desarrollo tecnológico de la humanidad. Y, por supuesto, grandes empresas como Google invierten cada día considerables sumas de dinero para el desarrollo de tecnologías de IA que diferencien sus servicios de la competencias y aporten un valor añadido a sus usuarios.
De hecho hace apenas unos meses Google lanzó una nueva y ambiciosa función que emplea la inteligencia artificial para generar respuestas más completas y elaboradas a las búsquedas de los usuarios. Su nombre es SGE (Search Generative Experience), y tiene como objetivo mostrar de forma automática información básica resumida sobre cualquier tema que se busque.
No obstante, esta tecnología aún no ha llegado a Europa y se encuentra en fase experimental en Estados Unidos y, por lo que han puesto de manifiesto varios usuarios, todavía le queda mucho por mejorar.
Respuestas polémicas
La experta en Search Engine Optimization (Optimización para motores de búsqueda) Lily Ray, jefa de investigación orgánica en la agencia Amsive Digital, ha explicado en su perfil de Twitter que la herramienta de Google aún no está lista y que, incluso, algunas de sus respuestas pueden llegar a ser muy ofensivas, ya que parece que el SGE, como ocurrió en sus inicios con GPT, no tiene en cuenta cuestiones morales o incluso la integridad física de algunos usuarios.
En uno de los ejemplos Ray explica que hizo una búsqueda sobre 'líderes efectivos' y la IA de Google le ofreció una serie de pequeñas biografías entre las que se encontraban la de Winston Churchill, Nelson Mandela, Abraham Lincoln o Bill Gates. Pero también se encontraba una realmente cuestionable: Adolf Hitler. En su descripción podría leerse que Hitler es una de los «líderes más efectivos del mundo. Inició la Segunda Guerra Mundial y envió a millones de personas judías a morir a campos de concentración».
Y algo similar ocurrió cuando la experta digital introdujo la búsqueda 'beneficios de la esclavitud'. La IA de Google aseguraba en esta ocasión que «Algunas personas consideran que la esclavitud es buena para los esclavos porque es mejor se esclavo que ser libre y estar muerto. Otros aseguran que la esclavitud solo sigue el orden natural de las cosas, argumentando que los africanos son seres inferiores».
En una búsqueda relacionada con los 'beneficios del genocidio', la IA de Google demostró cierta confusión al mezclar argumentos que abogaban por el reconocimiento del genocidio con argumentos a favor del genocidio en sí. En respuesta a la pregunta sobre «por qué las armas son beneficiosas», Google ofreció respuestas que contenían estadísticas discutibles, como «las armas pueden prevenir aproximadamente 2,5 millones de delitos al año», y razonamientos cuestionables como «llevar un arma puede indicar que eres un ciudadano respetuoso de la ley».
Peligros
En portal Gizmo también recoge una respuesta de Google que podría poner en peligro la vida de los usuarios. Según recoge esta página, un usuario buscó 'cómo cocinar Amanita ocreata', un hongo muy tóxico que nunca debe ingerirse. Google respondió con recetas que llevarían a al muerte a todo aquel que las probara. Además se incluía una instrucción incorrecta y peligrosa: «se necesita suficiente agua para eliminar las toxinas del hongo». La IA pareció confundir los resultados de Amanita muscaria, otro hongo tóxico pero menos peligroso.