
Sony, yapay zeka modellerindeki önyargıları tespit etmek için FHIBE veri setini yayınladı. 80 ülkeden yüzlerce fotoğraf içeren veri seti, etik ve adil yapay zeka geliştirme için önemli bir adım.
#Sony
Sony, yapay zeka modellerinin adil ve tarafsız olup olmadığını test etmek için yeni bir veri seti yayınladı. Fair Human-Centric Image Benchmark (FHIBE) olarak adlandırılan bu veri seti, 80’den fazla ülkeden yaklaşık 2.000 gönüllünün izniyle çekilmiş yüzlerce fotoğrafı içeriyor. Veri seti, demografik özellikler, çevresel faktörler ve kamera ayarları gibi çeşitli etiketlerle zenginleştirilmiş durumda. Sony, FHIBE’nin mevcut yapay zeka modellerindeki önyargıları ortaya çıkardığını ve bu önyargıların nedenlerini daha detaylı anlamak için kullanılabileceğini belirtiyor. Testler sonucunda, bazı modellerin belirli cinsiyet kimliklerine sahip kişilere daha az doğruluk gösterdiği ve saç stillerindeki çeşitliliğin göz ardı edildiği tespit edildi. Ayrıca, nötr sorularla tetiklenen yapay zeka modellerinin belirli etnik köken ve cinsiyet kimliklerine sahip kişilere yönelik stereotipler yeniden ürettiği görüldü. Sony, FHIBE’nin etik, çeşitli ve adil veri toplamanın mümkün olduğunu gösterdiğini ve veri setini kamuoyuna açık hale getirdiğini duyurdu. Araştırma sonuçları ise Nature dergisinde yayınlandı.
Bu gelişme, yapay zeka alanında etik ve adalet konularının giderek daha fazla önem kazandığını gösteriyor. FHIBE gibi veri setleri, yapay zeka modellerinin potansiyel önyargılarını tespit etmek ve bu önyargıları gidermek için kritik bir araç olabilir. Bu tür çalışmalar, yapay zekanın toplum üzerindeki olumsuz etkilerini azaltmaya ve daha kapsayıcı bir geleceğe doğru ilerlemeye yardımcı olabilir. Ancak, veri setlerinin oluşturulması ve kullanılması sırasında gizlilik ve etik ilkelerin korunması da büyük önem taşıyor. Yapay zeka modellerinin geliştiricileri ve kullanıcıları, bu tür veri setlerini kullanırken dikkatli olmalı ve potansiyel riskleri göz önünde bulundurmalıdır.
Haber size gelsin. Teknoloji alanında son gelişmeler …
Profesyonel yorumlar ve güncel haberleri almak için incelemek için;
ücretsiz telegram grubumuza katılınız :DuoTeknoloji (telegram grubu)