Inteligencia artificial
ChatGPT supera el test de Turing: qué es y por qué es preocupante que la IA lo haya superado
Tras comprobar todos los resultados, los investigadores descubrieron que un 54% de los participantes pensó que GPT-4 era una persona real
En 2024, la inteligencia artificial (IA) ha logrado superar el test de Turing. La versión GPT-4 de ChatGPT ha pasado esta prueba, que evalúa la capacidad de una máquina para replicar un comportamiento indistinguible del humano. A su vez, de las 500 personas que participaron, el 54% creyó que GPT-4 era humano después de interactuar durante cinco minutos con cuatro agentes.
En este sentido, si el usuario no puede distinguir si está hablando con otra persona o con una máquina, se considera que dicha tecnología ha pasado la prueba. Es decir, el experimento determina si la IA puede imitar respuestas humanas de tal manera que el interrogador no pueda distinguir entre lo humano y lo mecánico.
Este hecho significa que estamos interactuando con la inteligencia artificial no solo más que nunca, sino más de lo que pensamos. Para visualizar la situación, podemos imaginar tres escenarios: en uno hay una máquina (por ejemplo, un programa de IA), y en los otros dos hay dos humanos. Uno de los humanos hace preguntas, y tanto el otro humano como la IA responden.
En teoría, si el interrogador humano no puede determinar con certeza si las respuestas provienen de otro humano o de una máquina, entonces se consideraría que esa máquina es 'inteligente'. Sin embargo, los científicos no esperaban un porcentaje tan alto y, además, descubrieron que más de la mitad de los individuos no pudo distinguir entre lo real y lo ficticio.
¿Es realmente preocupante?
La 'prueba de Turing' fue propuesta por primera vez como 'el juego de imitación' por el científico informático Alan Turing en 1950. Además, los investigadores señalan en el estudio que la IA «podría desempeñar funciones actualmente reservadas para trabajadores humanos, engañar tanto al público en general como a sus propios operadores, lo que podría erosionar la confianza social en las interacciones auténticas».
resultados
- El 54% pensó que el modelo GPT-4 era un humano.
- Un 50% acertó que GPT-3.5 era una inteligencia artificial.
- Y un 22% supuso que ELIZA se parecía a una persona.
En el artículo 'Maquinaria de computación e inteligencia', que lanzó Alan Turing en la revista Mind, mencionó que «aproximadamente en los próximos cincuenta años será posible programar ordenadores para que puedan desarrollar el juego de imitación tan bien que un interrogador medio no tendrá más del 70% de probabilidades de realizar la identificación correcta».
Parece ser que no estaba muy alejado de la realidad, ya que, por fortuna o por desgracia, las máquinas de las que hablaba han llegado en forma de chatbots con IA. Sin embargo, el matemático fue lo suficientemente precavido como para que los usuarios puedan aceptar que las tecnologías actuales están al borde de alcanzar la inteligencia que él mismo mencionaba.