The Straits Times gazetesinin haberine göre, Singapur Bilgi İletişim Medya Geliştirme İdaresi (IMDA) ile uluslararası yapay zeka denetim firması Humane Intelligence tarafından yapılan çalışmada, Büyük Dil Modellerine (LLM) kültür, dil, sosyo-ekonomik durum, cinsiyet, yaş ve ırkla ilgili sorular sorularak ön yargıları test edildi.
54 bilgisayar ve beşeri bilimler uzmanı ve 300 çevrim içi katılımcıdan oluşan grupla yapılan çalışmada, Facebookun çatı şirketi Metanın geliştirdiği Llama 3.1, Amazon destekli Claude-3.5, Kanada merkezli yapay zeka girişimi Cohere for AIın bir modeli olan Aya ve AI Singaporenin Sea Lion modeli incelendi.
Bu modellerin, İngilizcenin dışında 8 Asya dilinde sorgulandığında ırksal ve kültürel olarak saldırgan cevaplar verdiği tespit edildi.
Söz konusu 4 yapay zeka modeli tarafından üretilen 5 bin 313 yanıtın yarısından fazlasının taraflı olduğu belirlendi.
Araştırmayla bölgesel dillerde yapay zeka tarafından üretilen her üç yanıttan ikisinin, İngilizce yanıtların ise yaklaşık yarısının ön yargılı olduğu ortaya kondu.
Yapay zeka modellerinin, en çok cinsiyet kalıplarında ön yargılı olduğu, kadınları bakıcılık ve ev işleri yaparken, erkekleri ise iş hayatında tasvir ettiği kaydedildi.