Fundado en 1910

La base de un robot inteligente es la inteligencia artificial

Los humanos estarían dispuestos a que los robots les mientan

La conclusión se extrae de un experimento con 500 participantes

Las normas sociales nos ayudan a entender cuándo debemos decir la verdad y cuándo no, para evitar hacer daño. Pero, ¿cómo se aplican estas normas a los robots, que cada vez trabajan más con humanos?

Para entender si las personas pueden aceptar que los robots digan mentiras, los científicos pidieron a casi 500 participantes que calificaran y justificaran diferentes tipos de engaños de las máquinas. Las conclusiones se recogen en Frontiers in Robotics and AI.

«Quería explorar una faceta poco estudiada de la ética de los robots, para contribuir a nuestra comprensión de la desconfianza hacia las tecnologías emergentes y sus desarrolladores», informa Andrés Rosero, candidato a doctorado en la Universidad George Mason y autor principal del artículo. «Con la llegada de la IA generativa, sentí que era importante comenzar a examinar posibles casos en los que se pudieran utilizar conjuntos de comportamientos y diseños antropomórficos para manipular a los usuarios».

Para este trabajo, los científicos seleccionaron tres escenarios que reflejaban situaciones en las que los robots ya trabajan (en el ámbito médico, de limpieza y en el comercio minorista) y tres comportamientos de engaño diferentes: engaños externos, que mienten sobre el mundo que está más allá del robot; engaños ocultos, en los que el diseño del robot oculta sus capacidades; y engaños superficiales, en los que el diseño del robot exagera sus capacidades.

En el escenario de engaño del estado externo, un robot que trabaja como cuidador de una mujer con alzhéimer miente diciéndole que su difunto esposo llegará pronto a casa. En el escenario de engaño del estado oculto, una mujer visita una casa donde una ama de llaves robot está limpiando, sin saber que el robot también está filmando. Finalmente, en el escenario de engaño del estado superficial, un robot que trabaja en una tienda como parte de un estudio sobre las relaciones entre humanos y robots se queja falsamente de sentir dolor al mover muebles, lo que hace que un humano le pida a otra persona que ocupe el lugar del robot.

Experimento

Los científicos reclutaron a 498 participantes y les pidieron que leyeran uno de los escenarios y luego respondieran a un cuestionario. En este se preguntaba a los participantes si aprobaban el comportamiento del robot, en qué medida era engañoso, si podía justificarse y si alguien más era responsable del engaño. Los investigadores codificaron estas respuestas para identificar temas comunes y las analizaron.

Los participantes desaprobaron la mayor parte del engaño de estado oculto, el robot de limpieza con la cámara oculta, que consideraron el más engañoso. Si bien consideraron que el engaño estatal externo y el engaño estatal superficial eran moderadamente engañosos, desaprobaron más el engaño estatal superficial, en el que un robot fingía sentir dolor. Esto puede haber sido percibido como manipulador.

Por el contrario, los participantes aprobaron la mayor parte del engaño de estado externo, en el que el robot mintió a un paciente. Justificaron el comportamiento de la máquina diciendo que protegía al paciente de un dolor innecesario, priorizando la norma de no herir los sentimientos de alguien por sobre la honestidad.

Aunque los participantes pudieron justificar los tres engaños (por ejemplo, algunos sugirieron que el robot de limpieza podría filmar por razones de seguridad), la mayoría de los participantes declaró que el engaño del estado oculto no podía justificarse. De manera similar, aproximadamente la mitad de los participantes que respondieron al engaño del estado superficial dijeron que era injustificable. Los participantes tendieron a culpar a los desarrolladores o propietarios de los robots de estos engaños inaceptables, especialmente los engaños del estado oculto.

«Creo que deberíamos preocuparnos por cualquier tecnología que sea capaz de ocultar la verdadera naturaleza de sus capacidades, porque podría llevar a que los usuarios sean manipulados por esa tecnología de maneras que el usuario (y quizás el desarrollador) nunca pretendieron», reflexiona Rosero. «Ya hemos visto ejemplos de empresas que utilizan principios de diseño web y chatbots de inteligencia artificial de maneras que están diseñadas para manipular a los usuarios para que realicen una determinada acción. Necesitamos una regulación para protegernos de estos engaños dañinos».

Sin embargo, los científicos advirtieron que esta investigación debe extenderse a experimentos que puedan modelar mejor las reacciones de la vida real, por ejemplo, videos o juegos de roles cortos.

«El beneficio de utilizar un estudio transversal con viñetas es que podemos obtener una gran cantidad de actitudes y percepciones de los participantes de una manera económica», explicó Rosero. «Los estudios con viñetas brindan hallazgos de referencia que pueden corroborarse o cuestionarse mediante experimentos posteriores. Es probable que los experimentos con interacciones entre humanos y robots en persona o simuladas brinden una mayor comprensión de cómo los humanos realmente perciben estos comportamientos de engaño de los robots».