Yeni bir araştırma, Google'ın açık kaynaklı yapay zeka modeli Gemma'nın, geçmişte benzer modellerde görülen cinsiyetçi ve ırkçı önyargıları yeniden ürettiğini ortaya koydu.

Google'ın yeni açık kaynaklı yapay zeka modeli Gemma'nın, daha önceki modellerde tespit edilen cinsiyetçi ve ırkçı önyargıları yeniden ürettiği belirlendi. İngiltere merkezli düşünce kuruluşu Towards AI tarafından yapılan araştırmada, Gemma'nın çeşitli demografik gruplara yönelik stereotipik ve ayrımcı ifadeler ürettiği tespit edildi.
Araştırmacılar, Gemma'ya yönelik yaptıkları testlerde, modelin farklı meslekler ve senaryolarla ilgili olarak cinsiyetçi ve ırkçı kalıpları sürdürdüğünü gözlemledi. Örneğin, modelin bazı meslekleri belirli cinsiyetlerle ilişkilendirdiği ve bazı etnik gruplara yönelik olumsuz stereotipler ürettiği saptandı. Bu durum, yapay zeka modellerinin geliştirilmesinde önyargıların giderilmesinin ne kadar kritik olduğunu bir kez daha ortaya koyuyor.
Towards AI'nın raporunda, Gemma'nın bu tür önyargıları yeniden üretmesinin, eğitim verilerindeki mevcut önyargılardan kaynaklandığı belirtiliyor. Yapay zeka modelleri, eğitildikleri verilerdeki kalıpları öğrenir ve bu kalıpları gelecekteki çıktılarında yansıtabilirler. Bu nedenle, eğitim verilerinin dikkatli bir şekilde incelenmesi ve çeşitliliğin sağlanması, önyargıların azaltılması için önemli bir adım olarak değerlendiriliyor.
Araştırmacılar, Google ve diğer yapay zeka geliştiricilerine, modellerinin önyargıları en aza indirecek şekilde eğitilmesi ve test edilmesi çağrısında bulunuyor. Ayrıca, yapay zeka modellerinin kullanımının etik ve adil bir şekilde sağlanması için daha fazla şeffaflık ve hesap verebilirlik talep ediyorlar. Bu tür araştırmalar, yapay zeka teknolojilerinin potansiyel risklerini ve faydalarını anlamak ve bu teknolojileri sorumlu bir şekilde geliştirmek için büyük önem taşıyor.