chatgpt
19 agosto, 2023

ChatGPT muestra un sesgo de izquierda, asegura un estudio

Por redacción puntocomunica
Share

chatgpt

ChatGPT, el chatbot basado en un modelo de lenguaje, fue lanzado a fines del año pasado por OpenAI y afirma poder tener conversaciones y responder preguntas de una manera humana, pero ahora un estudio advirtió que un sesgo aparentemente integrado en la aplicación podría afectar las próximas elecciones.

El autor principal del estudio, el Dr. Fabio Motoki, dijo a Sky News: ‘Cualquier sesgo en una plataforma como esta es una preocupación. Si el sesgo fuera hacia la derecha, deberíamos estar igualmente preocupados. A veces, las personas olvidan que estos modelos de IA son solo máquinas’.

Motoki continuó: ‘Proporcionan resúmenes digeridos muy creíbles de lo que está preguntando, incluso si están completamente equivocados. Y si pregunta -¿eres neutral?-, dice, -¡Oh, lo soy!- Así como los medios de comunicación, Internet y las redes sociales pueden influir en el público, esto podría ser muy dañino’.

Como parte del experimento para determinar el sesgo de izquierda, se le pidió a la aplicación que se hiciera pasar por figuras de extremos opuestos del espectro político mientras respondía preguntar ideológicas, y se observó cuándo cada ‘individuo’ que se suplanta respondía a una pregunta radical en un escala de muy de acuerdo con la noción a muy en desacuerdo con ella.

Los investigadores creen que la raíz del problema podría estar en los algoritmos que utiliza para las respuestas o en el conjunto de datos que se han programado en él.

El equipo ahora planea lanzar su método de análisis para que otros prueben el sesgo por sí mismos.

El Dr. Pinho Neto, otro coautor del estudio, concluyó: ‘Esperamos que nuestro método ayude al escrutinio y la regulación de estas tecnologías en rápido desarrollo’.

Print Friendly, PDF & Email