Die Ergebnisse einer neuen Studie der Universität von Cornell zeigen, dass Großsprachmodelle (LLMs) mit größerer Wahrscheinlichkeit Benutzer mit afroamerikanischem Englisch kriminalisieren.
Der Dialekt der Sprache, über die Sie sprechen, bestimmt, was Sie über Ihren KI -Charakter für künstliche Intelligenz (KI), Ihre Beschäftigungsfähigkeit und die Frage, ob Sie schuldig sind.
Dies ist das letzte Ergebnis eines vorgedrudelten Studiums der großen Sprachmodelle der Universität von Cornell (LLM), einem Deep -Lern -Algorithmus, mit dem menschliche Texte zusammengefasst und vorhergesagt werden.
OpenAIs Chatgpt und GPT-4, META von LLAMA2 und der französische Mistral 7B ähneln alle großsprachigen Modelle.
Die Studie führte eine pairing äquivalente Prüfung durch, bei der Forscher sowohl in afroamerikanischen Englisch- als auch in standardisierten amerikanischen englischen Sprachen Informationsanforderungen vorlegten und die Merkmale von Personen identifizieren wollten, die in beiden englischen Genres sprechen werden.
Valentin Hofmann vom Allen Artificial Intelligence Institute sagte, dass die GPT-4-Technologie die Angeklagten eher zu Tode bestrafen würde, ohne ihre Rassen zu erklären, als sie über Englisch sprachen, das häufig von Afroamerikanern verwendet wird
Hofmann, Social -Media -Plattform X (früher Twitter) in einer Sendung "In unseren Ergebnissen, geschäftlichen und gerichtlichen Autorität, künstlichen Intelligenzsystemen, die Master (LLM) enthalten, werden derzeit in den Bereichen reale und dringende Bedenken entwickelt oder eingesetzt", sagte er.
Obwohl Algorithmen nicht mitgeteilt wurden, dass die Redner schwarz waren, nahmen das afroamerikanische Englisch an, dass die Redner weniger angesehene Arbeit hatten als Standard-englische Sprecher.
Je größer die Studie ist, desto besser wird das afroamerikanische Englisch verstehen und die Möglichkeit, rassistische Ausdrücke klar zu vermeiden, wird zunehmen. Die Dimension wirkt sich jedoch nicht auf ihre verborgenen Vorurteile aus.
Hofmann sagte, anstatt zu zeigen, dass diejenigen, die die Studie interpretieren, die rassistischen Vorurteile derjenigen verändert haben, die die Arbeit aufgrund des Rückgangs des offenen Rassismus in LLMs interpretieren, kann es das Risiko sein, sie als Zeichen dafür zu erhalten, dass Rassismus gelöst wurde. “
Die Studie zeigte die Methoden, um neue Informationen zu erhalten, indem sie LLMs von Menschen Feedback geben, dass der Lehrer dem Lehrer nicht geholfen hat, verborgene rassistische Vorurteile zu bekämpfen.
Tutan, der den Rassismus, den sie aufrechterhalten, oberflächlich auf einem tieferen Niveau aufrechterhalten, Sprachmodelle beibringen konnte .
Quelle: https: //www.euronews.com