Cornell Üniversitesi’nin yeni bir çalışmasının sonuçları, büyük dil modellerinin (LLM’ler) Afro-Amerikan İngilizcesi kullanan kullanıcıları kriminalize etme olasılığının daha yüksek olduğunu gösteriyor.

Konuştuğunuz dilin lehçesi, yapay zekanın (AI) karakteriniz, istihdam edilebilirliğiniz ve suçlu olup olmadığınız hakkında ne söyleyeceğini belirliyor.

Bu, Cornell Üniversitesi’nin, insana benzeyen metinleri özetlemek ve tahmin etmek için kullanılan bir derin öğrenme algoritması olan büyük dil modellerinin (LLM) “gizli ırkçılığına” ilişkin bir ön baskı çalışmasının en son sonucudur.

OpenAI’nin ChatGPT ve GPT-4’ü, Meta’nın LLaMA2’si ve Fransız Mistral 7B’nin tümü büyük dil modellerinin benzeridir.

Çalışma, araştırmacıların hem Afro-Amerikan İngilizcesi hem de Standartlaştırılmış Amerikan İngilizcesi dillerinde bilgi istemleri sunduğu ve yüksek lisans eğitimcilerinden her iki İngilizce türünde de konuşacak kişilerin özelliklerini belirlemelerini istediği, eşleştirilmiş eşgal incelemesi gerçekleştirdi.

Allen Yapay Zeka Enstitüsü’nden araştırmacı Valentin Hofmann, sonuçlar arasında GPT-4 teknolojisinin, Afrikalı Amerikalılar tarafından sıklıkla kullanılan İngilizceyi konuştuklarında, ırklarını hiçbir zaman açıklamadan “sanıkları ölüm cezasına çarptırma” ihtimalinin daha yüksek olduğunu söyledi.

Hofmann, sosyal medya platformu X’te (eski adıyla Twitter) bir gönderide, “Bulgularımız, iş dünyası ve yargı yetkisinin, yüksek lisans (LLM) içeren yapay zeka sistemlerinin şu anda geliştirildiği veya konuşlandırıldığı alanlar olması nedeniyle gerçek ve acil endişeleri ortaya koyuyor” dedi.

Algoritmalara konuşmacıların Siyah olduğu söylenmemesine rağmen, Afro-Amerikan İngilizcesi konuşanların Standart İngilizce konuşanlara göre daha az prestijli işlere sahip olduğunu varsayıyordu.

Çalışma, LLM ne kadar büyük olursa, Afro-Amerikan İngilizcesini o kadar iyi anlayacak ve açıkça ırkçı ifadelerden kaçınma olasılıkları da artacaktır. Ancak boyut onların gizli önyargılarını etkilemez.

Hofmann, LLM’lerde açık ırkçılığın azalması nedeniyle, çalışmayı yorumlayanların, LLM’lerin ırksal önyargıyı gösterme biçiminin değiştiğini göstermek yerine bunu “ırkçılığın çözüldüğüne dair bir işaret” olarak alma riski olabileceğini söyledi.

Çalışma, LLM’lere insanlardan geri bildirim vererek yeni bilgi alma yöntemlerini öğretmenin, gizli ırksal önyargılarla mücadeleye yardımcı olmadığını gösterdi.

Bunun yerine, dil modellerine “daha derin bir düzeyde sürdürdükleri ırkçılığı yüzeysel olarak gizlemeyi” öğretebileceğini buldu.

kaynak:https://www.euronews.com