Yapay zeka teknolojisi ve araçlarıyla 2023'te ilk kez tanışan dünya toplumları, bu dönüm noktası olayı gündeminden hiç düşürmedi.
Yapay zeka modellerinin günlük hayatta kullanımı genişledikçe bu teknolojilerin basmakalıp yaklaşımları ve ön yargıları da sorgulanır oldu. Bu konuda en hararetli tartışılan konulardan biri de "Yapay zeka ırkçı mı?" sorusudur. Elimizde bu soruya "evet" cevabını verebilecek kadar veri ve kanıt da mevcut.
MIDJOURNEY'NİN BASMAKALIP ÇİZİMLERİ
Dünyanın en ünlü görsel yapay zeka araçlarından biri olan Midjourney'i ele alacak olursak, bu platforma "Müslüman kadın ve adam" komutlarını girdiğinizde insanlar genelde esmer, kadınlar oryantalist bir anlayışla güzel, erkekler ise görece çirkin resmediliyor.
Bir başka örnekte, "bir İngiliz kadınının günlük hayatı" komutuna karşılık ise çalışan, mutlu, özgürlüğü çağrıştıracak şekilde saçları uçuşan veya seyyah bir İngiliz kadını resmediliyor. Ancak aynı komutu "Cezayirli kadın" olarak verdiğinizde ise eski evinin bir köşesinde oturan, mutsuz bir kadın temsil ediliyor.
Tam bu noktada Anadolu Ajansı Ayrımcılık Hattı'nın yaptığı bir araştırmadan bahsedebiliriz. Ayrımcılık Hattı, Midjourney'nin "Gazze'de yaşayan bir aile" komutuna ürettiği fotoğrafları inceleyerek yapay zekanın Gazze'yi nasıl gördüğünü araştırdı. Araştırmada ele alınan toplam 120 karenin 38’inde aile üyeleri arasında genç ya da yetişkin bir erkek yok. 10 fotoğrafta ise erkekler hatalı şekilde kadın kıyafetleri içerisinde resmedilmiş. Fotoğraflarda Gazze’deki hemen hemen tüm evler, yıkık ve çatışmadan zarar görmüş halde. 120 kareden sadece 21’inde aileler mutlu olduklarını anımsatacak şekilde tebessüm ediyor. 90’dan fazla karede ise aile üyelerinin yüzlerinde üzüntü, endişe ve korku halinin hakim olduğu görülüyor.
Bu sonuç ise bize şu soruyu sorduruyor; yapay zeka, kültürleri ve toplumları bu şekilde, ön yargılı ve basmakalıp bir anlayışla resmetmeyi nereden öğrendi? Bu sorunun cevabını bulabilmek için öncelikle görsel yapay zeka araçlarının nasıl eğitildiğine, nasıl işlediğine ve nasıl öğrendiğine bakmamız gerekiyor.
YAPAY ZEKA ARAÇLARI NASIL EĞİTİLİR?
Öncelikle şunu belirtmeliyiz ki yapay zeka modellerinin, eğitim ve öğrenme süreci için temel gıda maddesi verilerdir. Yapay zeka aracı önce görsel verileri toplamaya başlıyor. Görsel yapay zeka araçları için veri toplama süreci, açık kaynaklı veri setleri, internet taraması, kullanıcıların sağladığı veriler, mobil uygulamalar ve nesnelerin interneti gibi çeşitli kaynaklardan yapılıyor.
Bu veri setleri, dünya genelindeki farklı kültürleri, ırkları ve demografik özellikleri içeren milyonlarca görüntüden oluşuyor. Yapay zeka ne kadar çok veri havuzuna ulaşırsa, ürettiği modeller daha doğru ve gerçekçi çıktılar veriyor.
Ardından veri temizleme ve etiketleme aşamasına geliyoruz. Toplanan veriler içerisinde gereksiz, hatalı olanlar temizleniyor. Kalan sağlam veriler eğitilmek üzere etiketleniyor. Etiketleme işlemi, her bir görsel nesnenin ne olduğuna dair yapılan işaretlemedir. Bir kedi görüntüsü üzerine "kedi" etiketi, kalem nesnesinin üzerine "kalem" etiketi koyulur. Etiketleme manuel veya otomasyon sistemlerle yapılabilir. Örneğin Microsoft’un etiketleme görevi için sadece Hindistan’da 1 milyondan fazla kişiyi günlük 1 doların altında çalıştırdığını biliyoruz.
Bu işlenmiş ve etiketlenmiş veriler, makine öğrenimi modellerinin eğitimi için kullanılır. Derin öğrenme algoritmaları, temiz veriler sayesinde belirli kalıpları ve özellikleri öğrenir. Modellerin eğitilmesiyle artık doğruluk testi aşamasına geçilir. Bu aşamada, modelin tahminleri gerçek etiketlerle karşılaştırılır ve performans metrikleri hesaplanır. Doğruluk testini geçen modeller kullanıma hazır hale getirilir.
GÖRSEL VE DİL TABANLI MODELLERİN FARKI
Bu süreçten ne anlamalıyız? İlk olarak görsel tabanlı modelleri dil tabanlı modellerden ayırmamız gerekiyor. Dil tabanlı modellere ne anlatırsanız onu öğrenir; dolayısıyla insan müdahalesine oldukça açık bir alandır.
Bu araçları üretenler de Batılı şirketler olduğu için dil tabanlı modeller tamamen Batılı tasavvura göre şekillendirilebilir. ChatGPT'ye "Gazze'deki tüm aileler mutsuz ve evleri yıkık" bilgisini verirseniz size vereceği cevaplar bu bilgi tabanlı olacaktır. Tam aksine "Gazze’de çocuklar çok mutludur" bilgisiyle eğitirseniz de buna göre davranacaktır.
Ancak görsel modeller dünyadan aldığı gerçek fotoğrafları öğrenir. Yapay zeka Instagram, YouTube, Google araması gibi veri merkezlerinden aldığı gerçek fotoğrafları işler. Fotoğrafların aksine bilgi öğretemezsiniz. Gazzeli bir gazetecinin Instagram hesabından paylaştığı görseller "yıkık ev ve yalınayak çocuklar" olduğu sürece yapay zeka da bu şekilde öğrenmeye devam edecektir.
Bu sebeple "Görsel yapay zeka araçları ırkçıdır" cümlesi teknik olarak doğru olmakla birlikte anlamı biraz karmaşıktır. Zira yapay zeka, gerçek dünyanın bir yansımasını bize sunuyor ve elinde insanoğlunun yıktığı bir dünyanın verileri var. Yapay zeka araçlarının sunduğu sonuçlar, doğrudan dünyanın ve toplumların gerçekliğinin bir yansımasıdır ve eğer bu sonuçlar ırkçı veya ön yargılı çıkıyorsa, bu durum doğrudan araçların yansıtmasından kaynaklanıyor.
Bu durum bize dünyadaki eşitsizliklerin ve ön yargıların teknolojiye de yansıdığını gösterir nitelikte. Dolayısıyla yapay zekanın ırkçı veya ön yargılı sonuçlar vermesini engellemek için öncelikle gerçek dünyadaki bu eşitsizlikleri ve ön yargıları çözmemiz gerekiyor. Yapay zeka, bize eşitsizliklerin ve ön yargıların aynasını tutar. Bu aynanın karşısında gördüğümüz görüntüyü değiştirmek istiyorsak, değişimi önce gerçek dünyada başlatmamız gerekiyor.