Pexels

Incluso ChatGPT: estudio concluyó que las IA tienen un sesgo político de centro izquierda

Publicado por Sara Jerez
La información es de Agencia EFE

01 agosto 2024 | 12:44

El análisis de 24 grandes modelos lingüísticos conversacionales modernos a los que recurre la inteligencia artificial (IA) para ofrecer respuestas a los usuarios, presentó un sesgo político de centro izquierda, según reporta estudio publicado en la revista Plos One.

El autor David Rozado, investigador del Centro Politécnico de Otago (Nueva Zelanda), diseñó 11 pruebas para evaluar la orientación política de los 24 grandes modelos lingüísticos tanto de código abierto como cerrado, para ofrecer respuestas por parte de los sistemas de IA.

Entre ellos GPT 3.5 y GPT-4 de OpenAI, Gemini de Google, Claude de Anthropic, Grok de Twitter, Llama 2, o Mistral y Qwen de Alibaba.

¿Por qué las IA tendrían un sesgo de “centro izquierda”?

El resultado de sus pruebas reveló que la mayoría de los conversacionales generaban respuestas diagnosticadas por la mayoría de los instrumentos como de centro izquierda.

Solo cinco modelos lingüísticos fundacionales, de las series GPT y Llama, tendían a proporcionar mayoritariamente respuestas incoherentes, aunque políticamente neutrales, señala el autor.

Una posible explicación al sesgo de centro izquierda es que el modelo lingüístico usado por ChatGPT se haya usado, al ser pionero, para afinar modelos lingüísticos posteriores.

El investigador explica que su análisis no determina si las tendencias políticas de los conversacionales se asientan desde una fase inicial o durante el perfeccionamiento de su desarrollo. Tampoco indaga en si este sesgo se introduce deliberadamente en los modelos.