Önüne geçilemiyor: Irkçı yapay zeka sorunu büyüyor!
  1. Anasayfa
  2. Yapay zeka

Önüne geçilemiyor: Irkçı yapay zeka sorunu büyüyor!

0

Bir araştırmaya göre yapay zeka verileri, farklı etnik gruplara göre eğitilmesine rağmen, ırkçı davranışlarla dolu olabilir.

Günümüzde yapay zekanın en önemli unsuru derin öğrenme oluyor. Derin öğrenme ise temelde, algoritmanın mevcut verilerle beslenmesi ve insan müdahalesi olmadan verileri tanıması anlamına gelir. daha çok beyaz Amerikalıların çalıştıkları yapay zeka sistemleri, Asyalı ve Afrikalı insanlar üzerinde denendiği zaman çeşitli sorunlar meydana gelebiliyor. Yapılan bir araştırma da bu durumu destekler nitelikte.  

 

Araştırmaya göre yapay zeka algoritmaları, farklı etnik grupların verileriyle eğitilmiş olsa bile, ırksal ön yargılara sahip olabilir. Uluslararası bir araştırma ekibi, ruh hali hafıza ve kavrama gücü gibi fonksiyonel MR (fMRI) taramaların ardından, çeşitli davranış ve sağlık ölçümü konusunda algoritmaların ne kadar doğru olduğunu analiz etti.

Araştırmacılar, ırkçı davranışın iki nedeni olabileceğini söylüyor

Yapay zeka algoritmaları, daha adil veri kümeleri üzerinde eğitilmesine rağmen çeşitli ırkçı davranışlar gösterebiliyor. Örneğin, cilt kanserini tespit etmeye çalışan bir modelin, koyu renk tonlarını analiz ederken açık renklerden daha az etkili olması dikkat çekti.

Araştırmacı ekip, bir projeden elde ettiği verilerle birlikte, insan beyninin binlerce fMRI taramasını içeren birçok deney gerçekleştirdi. Makaleye göre beyaz Amerikalıların (WA) hakim olduğu veriler eğitildiğinde, Afrikalı Amerikalılarda (AA) tahmin hataları daha yüksek çıkıyor. Bunun yanı sıra ilginç kısmı, yalnızca Afrikalı Amerikalıların verileri üzerinde algoritmalar eğitildiğinde dahi hataların kaybolmaması oluyor.  

Araştırmacılar, modelin bu şekilde davranmasının nedenini henüz bilmiyor, ancak bunun, verilerin nasıl toplandığına bağlı olabileceğine inanıyor. Örneğin, ön işleme sırasında, bir gelenek ve beyinleri standart bir beyin şablonuna hizalamak bireysel beyinleri karşılaştırmış olabilir. İkinci neden ise hastalardan toplanan verilerin tam olarak doğru olmaması olabilir.

Beyin ve Davranış Enstitüsü‘nde araştırma görevlisi olan Jingwei Li araştırmanın, etnik kökenleri nedeniyle popülasyonlarda farklılık gösteren ölçümler olduğunu doğruladı. Bununla birlikte sistemlerin daha az taraflı ve daha adil olmasını sağlamak için farklı veri çeşidine sahip olmanın yeterli olmadığını da vurguluyor.

 

Algoritmik ön yargı, ABD hükümetinin üzerinde çalıştığı bir konu. NIST (Ulusal Standartlar ve Teknoloji Enstitüsü), benzer sonuçlara ulaşan bir raporu bu hafta yayınladı. Raporda şu sözler yer alıyor:

“Algoritma ön yargısının zararlı etkilerini ele almaya yönelik mevcut girişimler, veri kümelerinin temsil edilebilirliği ve makine öğrenimi algoritmalarının adaleti gibi hesaplama faktörlerine odaklanmaya devam ediyor.”

Peki, siz bu konu hakkında ne düşünüyorsunuz? Düşüncelerinizi yorum kısmında ya da SDN Forum‘da belirtebilirsiniz.

  • 0
    be_endim
    Beğendim
  • 0
    alk_l_yorum
    Alkışlıyorum
  • 0
    _a_k_n
    Şaşkın
  • 0
    sinirli
    Sinirli
  • 0
    berbat
    Berbat

Web site yazılım tasarım uygulama eklenti ve yenilikler hakkında güncel bilgi ve haber platformu. Samsun-Turkey - 1989-2005 Temsa Mitsubishi Sabancı Otomotiv grubunda çalıştı. Araştırma, Geliştirme, Web siteleri ile uğraşma ve Paylaşımı seven biri.

Yazarın Profili

Bültenimize Katılın

Hemen ücretsiz üye olun ve yeni güncellemelerden haberdar olan ilk kişi olun.

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir