Derin Öğrenme ve Ön Yargı: Zihinsel Yanılgılarımızı Tekrarı mı Ediyoruz?

Derin Öğrenme ve Ön Yargı: Zihinsel Yanılgılarımızı Tekrarı mı Ediyoruz?

Prof. Dr. Aynur Özge

Bir yapay zekâ sistemi düşünün: milyonlarca veriyle beslenmiş, örüntüleri tanıyor, kararlar veriyor. Fakat bir gün fark ediliyor ki, kararları bir grup insana karşı sistematik olarak adaletsiz. Neden mi? Çünkü bu “zeka,” insan zihninin gizli kusurlarını – yani bias (önyargı) denen bilişsel kısa yolları – farkında olmadan taklit etmiş olabilir.

Bugün hem teknoloji dünyasında hem de nörobilimde sıkça konuşulan bir konu bu: Zihinsel yanılgılarımız, yapay zekâya da bulaşıyor mu?

Bias Nedir? Beynimizin Hızlı ama Hatalı Yolları

Bias, aslında beynimizin enerji tasarrufu için kullandığı kısa yolların bir ürünü. Günlük hayatta milyonlarca karar alırız: Kim güvenilir, hangi bilgi doğru, hangi yol daha kısa… Beynimiz tüm bunlara yetişebilmek için bazı kestirme karar yolları oluşturur. Ne yazık ki, bu yollar her zaman “doğru”ya çıkmaz.

Örneğin;

  • Onay yanlılığı (confirmation bias): Zihnimiz, inandığı şeyi destekleyen bilgiyi arar, karşıt fikirleri görmezden gelir.
  • Temsil yanılgısı (representativeness bias): Biri takım elbise giydi diye onu uzman sanmak gibi.
  • Çerçeveleme etkisi (framing effect): Aynı veriyi farklı kelimelerle sununca farklı algılamamız.

İşte bu yanılgılar, verilerimize da sızarsa… yapay zekânın da aynı hataları yapmasına neden olabilir.

Derin Öğrenme Ne Yapıyor?

Derin öğrenme (deep learning), yapay sinir ağları kullanarak verilerdeki örüntüleri tespit eder. Ancak eğitildiği veri zaten insanın yanlı (biased) kararlarıyla doluysa, makine de bu önyargıyı “öğrenir.”

Örneğin:

  • Bir şirketin işe alım verisi geçmişte erkek adayları tercih etmişse, AI da yeni başvurularda erkekleri daha yüksek puanlayabilir.
  • Bir sağlık tarama sistemine kadınlarda daha az kalp krizi teşhisi konmuş veriler yüklenmişse, yapay zekâ kadın hastaları “daha az riskli” sayabilir.

Yani sistem, “insan zihninden öğreniyor” ama onun hatalarını da birlikte alıyor.

Gerçek Hayattan Bir Örnek: Otomatik Adalet Sistemleri

ABD’de bir eyalet, suçluların yeniden suç işleme riskini hesaplayan bir yapay zekâ sistemi kullandı. Ama sonra fark edildi ki bu sistem, siyahi bireyler için daha yüksek risk puanı veriyordu. İnsan yargı sistemindeki önyargılar, verilerle AI sistemine taşınmıştı. Bu olay büyük bir etik tartışma başlattı.

Çözüm Nerede? Farkındalık ve Şeffaflıkta

Peki bu sistemleri nasıl daha adil hale getirebiliriz?

  • Veri temizliği: Eğitilen veriler önyargılardan arındırılmalı.
  • Model şeffaflığı: AI’nın nasıl karar verdiği açıklanmalı. “Kara kutu” sistemlerden kaçınmalıyız.
  • Etik rehberlik: Psikologlar, sosyologlar, etik uzmanları teknoloji ekiplerine entegre edilmeli.
  • Çeşitlilik: Eğitim verilerinde, tüm etnik köken, yaş grubu, cinsiyet ve sosyoekonomik düzeyler eşit temsil edilmeli.

Sonuç: Aynaya Bakmak Gibi

Yapay zekâ, aslında bir ayna gibi. Ona ne gösterirsek, onu yansıtır. Eğer biz önyargılıysak, o da öyle davranır. Ama aynı zamanda, onun davranışlarını gözlemleyerek kendi zihinsel hatalarımızı da görebiliriz. Bu yüzden, AI sadece bir araç değil; aynı zamanda insanlığı daha iyi anlama fırsatı.

avatar
Prof. Dr. Aynur ÖZGE, MD, PhD

Prof. Dr. Aynur Özge, Mersin Üniversitesi Tıp Fakültesi'nde Nöroloji Anabilim Dalı'nda öğretim üyeliği yapmaktadır. Uzmanlık alanları arasında Algoloji ve Klinik Nörofizyoloji bulunmaktadır. Eğitimini tamamladıktan sonra akademik kariyerine odaklanarak, nöroloji alanında derinlemesine bir uzmanlık edinmiştir.