Les résultats d'une nouvelle étude de l'Université de Cornell montrent que les modèles de grande langue (LLM) sont plus susceptibles de criminaliser les utilisateurs utilisant l'anglais afro-américain.

Le dialecte de la langue dont vous parlez détermine ce que vous dites de votre caractère d'intelligence artificielle (IA), de votre employabilité et si vous êtes coupable.

Ceci est le dernier résultat d'une étude préalable aux modèles linguistiques de l'Université de Cornell (LLM), un algorithme d'apprentissage en profondeur utilisé pour résumer et prédire des textes de type humain.

Le Chatgpt et GPT-4 d'Openai, le LLAMA2 de Meta et le Mistral 7B français sont tous similaires aux modèles de grande langue.

L'étude a effectué un examen équivalent de jumelage, dans lequel les chercheurs ont présenté des demandes d'information dans l'anglais afro-américain et les langues normalisées de l'anglais américain et souhaitaient identifier les caractéristiques des personnes qui parleront dans les deux genres anglais.

Valentin Hofmann de l'Allen Artificial Intelligence Institute a déclaré que la technologie GPT-4 était plus susceptible de punir les accusés à mort, sans expliquer leurs races lorsqu'ils parlaient de l'anglais, qui est fréquemment utilisé par les Afro-Américains

Hofmann, plate-forme de médias sociaux X (anciennement appelé Twitter) dans une expédition, "nos résultats, nos activités commerciales et judiciaires, les systèmes d'intelligence artificielle contenant Master (LLM) sont actuellement développés ou déployés dans les domaines des préoccupations réelles et urgentes", a-t-il déclaré.

Bien que les algorithmes n'aient pas été informés que les orateurs étaient noirs, l'anglais afro-américain supposait que les orateurs avaient un travail moins prestigieux que les anglophones standard.

Plus l'étude est grande, meilleure est l'anglais afro-américain comprendra et la possibilité d'éviter clairement les expressions racistes augmentera. Cependant, la dimension n'affecte pas leurs préjugés cachés.

Hofmann a déclaré qu'au lieu de montrer que ceux qui interprètent l'étude ont changé les préjugés raciaux de ceux qui interprètent le travail en raison de la diminution du racisme ouvert dans les LLM, il peut être un risque de le recevoir comme un signe que le racisme a été résolu ».

L'étude a montré les méthodes de réception de nouvelles informations en donnant des commentaires aux LLM des personnes que l'enseignant n'a pas aidé l'enseignant à lutter contre les préjugés raciaux cachés.

Au lieu de cela, il a constaté qu'il pouvait enseigner aux modèles de langue à Tutan cachant le racisme qu'ils maintiennent à un niveau plus profond superficiellement » .

Source: https: //www.euronews.com