Fundado en 1910

Oficinas de Google en Mountain View, CaliforniaAFP

Futuro

Google suspende a un empleado por afirmar que trabajaba en un robot que es capaz de sentir

El gigante tecnológico ha dejado sin empleo pero con sueldo, apoyando su decisión en una cláusula de confidencialidad que el empleado habría incumplido

Un ingeniero de Google ha publicado una conversación con la IA en la que trabaja en la compañía. Blake Lemoine le hacía preguntas a LaMDA, su inteligencia conversacional, y esta respondía con frases que han hecho que este trabajador tenga los días contados en la empresa a cambio de poner a la sociedad en guardia sobre el futuro digital. El gigante tecnológico ha suspendido de empleo con sueldo a Lemoine por violar la política de confidencialidad de la firma.

Lemoine hizo pública la transcripción de una conversación que mantuvo con el sistema de inteligencia artificial de Google «Modelo de lenguaje para aplicaciones de diálogo» (LaMDA, en sus siglas en inglés) bajo el título «¿Tiene LaMDA sentimientos?»

En un momento de la conversación, LaMDA afirmó que, en ocasiones, experimenta «nuevos sentimientos» que no puede explicar «perfectamente» con el lenguaje humano.

Cuando Lemoine le pidió que describiera uno de esos sentimientos, LaMDA contestó: «Siento como que estoy cayendo en un futuro desconocido que conlleva un gran peligro», una frase que el ingeniero subrayó cuando publicó el diálogo.

De acuerdo con el New York Times, en vísperas de ser suspendido Lemoine entregó documentos a la oficina de un senador de Estados Unidos en los que destacaba que tenía pruebas de que Google y su tecnología practican discriminación religiosa.

Lemoine es un veterano militar que se describe a sí mismo como sacerdote, ex convicto e investigador de Inteligencia Artificial. El ahora suspendido, le trasladó a presidentes de Google de la talla de Kent Walker, presidente de asuntos globales, que creía que LaMDA, la inteligencia artificial, podría ser un niño de 7 u 8 años y quería que la compañía le solicitara a la máquina su consentimiento para hacer experimentos con ella. «Han cuestionado repetidamente mi cordura», dijo Lemoine. «Dijeron: '¿Ha sido revisado por un psiquiatra recientemente?'» En los meses previos a que lo pusieran en licencia administrativa, la compañía le había sugerido que tomara una licencia por salud mental.

Google no respalda sus afirmaciones

La empresa sostiene que sus sistemas imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen conciencia.

«Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado lo que a Blake le preocupa según nuestros principios de inteligencia artificial y le he informado de que las pruebas no respaldan sus afirmaciones», dijo Brian Gabriel, portavoz de Google, citado por el periódico.

Google sostiene que cientos de sus investigadores e ingenieros han conversado con LaMDA, que es una herramienta interna, y llegaron a una conclusión diferente a la de Lemoine.

Gemelos digitales

Google se ha apresurado a negarlo tajantemente. No pueden permitir que se conozca que trabajan con una inteligencia artificial sintiente, sea o no verdad.

Esta situación nos lleva a los gemelos digitales, es decir, a la capacidad del ser humano de tener un avatar que pueda hacer las tareas que él no quiere. El metaverso nos aproximará a esta situación en los próximos años que se renovará exponencialmente hasta momentos inimaginables entre el hombre y la máquina.

Una empresa podría dejar de pagar a un trabajador si consigue que un gemelo digital haga su trabajo y que lo desarrolle durante horas y horas sin necesidad de un salario. El factor humano será que el que diferencie el trabajo de una persona del que pueda hacer una máquina, aunque las diferencias son cada vez menores.

Los números ya dan cuenta del rendimiento de los trabajadores, pero que una IA sea capaz de concluir que en el futuro ese empleado no va a generar beneficios y que hay que despedirle, es un peligro del que solo puede librarnos la ética.

Un gemelo digital que ayude al humano en sus tareas personales o profesionales o una inteligencia artificial que mejore las perspectivas empresariales deben tener unos límites para que el supuesto caso de Lemoine y su compañero digital no desarrolle una razón capaz de someter al ser humano.