MIT study reveals large AI language models exhibit left-leaning bias despite objective training data. El estudio del MIT revela que los grandes modelos de lenguaje AI exhiben sesgo de izquierda a pesar de los datos de entrenamiento objetivos.
Researchers at MIT found that large language models, used in AI applications like ChatGPT, can exhibit a left-leaning political bias even when trained on objective information. Los investigadores del MIT encontraron que los grandes modelos de lenguaje, usados en aplicaciones de IA como ChatGPT, pueden exhibir un sesgo político de izquierda incluso cuando están entrenados en información objetiva. The study, led by PhD candidate Suyash Fulay and Research Scientist Jad Kabbara, showed that bias persisted despite using supposedly truthful datasets, raising concerns about the reliability and potential misuse of these models. El estudio, liderado por la candidata al doctorado Suyash Fulay y el científico de investigación Jad Kabara, mostró que el sesgo persistió a pesar de usar conjuntos de datos supuestamente veraces, planteando preocupaciones sobre la fiabilidad y el posible uso indebido de estos modelos.