Los resultados de un nuevo estudio de la Universidad de Cornell muestran que los modelos de idiomas grandes (LLM) tienen más probabilidades de criminalizar a los usuarios que usan inglés afroamericano.
El dialecto del lenguaje del que está hablando determina lo que dice sobre su carácter de inteligencia artificial (IA), su empleabilidad y si es culpable.
Este es el último resultado de un estudio previo a la impresión de los modelos de idiomas grandes (LLM) de la Universidad de Cornell, un algoritmo de aprendizaje profundo utilizado para resumir y predecir textos similares a los humanos.
ChatGPT y GPT-4 de Openai, Meta's Llama2 y el francés Mistral 7b son similares a los modelos de idiomas grandes.
El estudio realizó un examen equivalente de emparejamiento, en el que los investigadores presentaron demandas de información tanto en inglés afroamericano como en los idiomas inglés estandarizados estadounidenses y querían identificar las características de las personas que hablarán en ambos géneros ingleses.
Valentin Hofmann del Allen Artificial Intelligence Institute dijo que la tecnología GPT-4 era más probable que Örmek castigue a los acusados hasta la muerte, sin explicar sus razas cuando hablaban de inglés, que con frecuencia es utilizado por los afroamericanos
Hofmann, plataforma de redes sociales X (anteriormente llamada Twitter) en un envío, "Nuestros hallazgos, autoridad comercial y judicial, sistemas de inteligencia artificial que contienen Master (LLM) se desarrollan o desplegan actualmente en los campos de preocupaciones reales y urgentes", dijo.
Aunque no se les dijo algoritmos que los oradores eran negros, el inglés afroamericano asumió que los hablantes tenían un trabajo menos prestigioso que los hablantes de inglés estándar.
Cuanto más grande sea el estudio, mejor comprenderá el inglés afroamericano y la posibilidad de evitar claramente las expresiones racistas aumentará. Sin embargo, la dimensión no afecta sus prejuicios ocultos.
Hofmann dijo que en lugar de demostrar que aquellos que interpretan el estudio han cambiado el prejuicio racial de quienes interpretan el trabajo debido a la disminución del racismo abierto en LLMS, puede ser un riesgo de recibirlo como una señal de que el racismo ha sido resuelto ”.
El estudio mostró los métodos para recibir nueva información al dar comentarios a LLM de personas que el maestro no ayudó al maestro a combatir los prejuicios raciales ocultos.
En cambio, descubrió que podía enseñar modelos de idiomas a Tután ocultando el racismo que mantienen en un nivel más profundo superficialmente ” .
Fuente: https: //www.euronews.com