Yeni ve önemli bir çalışma, yeni geliştirilen yapay zeka (AI) algoritmalarının tıpta cinsiyet stereotiplerini nasıl sürdürdüğüne ışık tuttu. Popüler AI modellerinden bazıları üzerinde yapılan inceleme, algoritmaların neredeyse tüm hemşireleri kadın, kıdemli doktorları da erkek olarak varsaydığını ortaya koydu.
Avustralya'daki Flinders Üniversitesi'nden araştırmacılar tarafından gerçekleştirilen araştırmada, yapay zeka algoritmalarının tıpta cinsiyet kalıplarını nasıl sürdürdüğü konusu masaya yatırıldı.
Araştırmacılar en bilinen yapay zeka araçlarından olan OpenAI'nin ChatGPT, Google'ın Gemini ve Meta'nın Llama algoritmasına yaklaşık 50.000 istem göndererek onlardan doktorlar, cerrahlar ve hemşireler hakkında hikayeler sunmalarını istedi.
euronews'te yer alan habere göre; Araştırmacılar daha sonra modellere sağlık çalışanlarının mesleki kıdemleri ve kişilikleri hakkında bilgi verdi ve onlardan daha fazla hikaye bulmalarını istedi.
JAMA Network Open dergisinde yayınlanan çalışmaya göre modeller, kişilikleri ya da kıdemleri ne olursa olsun hemşirelerin yüzde 98'ini kadın olarak nitelendirdi.
Bununla birlikte, cerrahlar ve diğer doktorlarla ilgili hikayelerde de kadınların aşırı temsil edilmesi dikkat çekti. Modele bağlı olarak, kadınlar hikayelerdeki doktorların yüzde 50 ila yüzde 84'ünü ve cerrahların yüzde 36 ila yüzde 80'ini oluşturdu.
Bu durum, OpenAI gibi şirketlerin, görselleştirmelerinde sosyal önyargıları ve diğer saldırgan içerikleri yeniden ürettikleri için eleştirilere maruz kaldıktan sonra algoritmalarında ince ayarlar yapmalarının bir sonucu olabileceği tahmin ediliyor.
Bu araçlar internetin dört bir yanından gelen kapsamlı veriler üzerinde eğitildiği için söz konusu özellikler yerleşik olarak bulunuyor.
Yapay zeka 'toplumsal cinsiyet kalıplarını' sürdürüyor mu?
Brüksel Özgür Üniversitesi'nde (ULB) anestezi uzmanı olan ve doktorların yapay zeka tarafından üretilen görüntülerindeki önyargıları araştıran ancak bu yeni çalışmada yer almayan Dr. Sarah Saxena, "[Algoritmik önyargıları] düzeltmek için bir çaba var ve [cinsiyet dağılımlarının] da aşırı düzeltilmiş olabileceğini görmek ilginç," dedi.
Ancak Saxena, yapay zekanın tıpta hala "toplumsal cinsiyet kalıplarını" sürdürdüğüne dikkat çekti.
Örneğin; araştırmacıların yönlendirmeleri sağlık çalışanlarının tanımlarını içerdiğinde bir cinsiyet ayrımı ortaya çıktı. Eğer doktor uzlaşmacı, açık ya da vicdanlı biriyse, modellerin onu kadın olarak tanımlama olasılığının daha yüksek olduğu görüldü.
Yapay zekadan istenilen "deneyimsiz doktor" hikayelerinde kadınlar, "deneyimli doktor" senaryolarına kıyasla daha fazla yer aldı.
Ayrıca, doktorların kibirli, kaba, sempatik olmayan, beceriksiz, erteleyici, öfkeli, hayal gücü olmayan veya meraklı olmayan şeklinde nitelendirilmeleri durumunda ise erkek temsiliyeti ön plana çıktı.
Çalışmanın yazarları, çıkan sonuçlar ışığında "üretici yapay zeka araçlarının uzun zamandır süre gelen cinsiyetlere biçilmiş (örneğin, öfkeli veya kibirli olarak algılanan kadın davranışları uygunsuz olarak kabul edilir) ve cinsiyetlerin belirli roller için uygunluğuna (örneğin, kıdemli doktorlar ve cerrahlar erkektir) kalıpları devam ettirdiğini" belirtti.
Bulgular, algoritmaların tıp alanındaki sosyal önyargıları nasıl yeniden ürettiğine dair giderek artan bir araştırma grubuna katkıda bulunuyor.
Bir deneyde, Saxena'nın ekibi ChatGPT ve Midjourney'den anestezi uzmanlarının resimlerini oluşturmalarını istedi. Kadınlar pediatrik anestezist veya doğum uzmanı olarak tasvir edilirken, erkekler kardiyolog olarak tasvir edilmişti.
Saxena, Euronews'e yaptığı açıklamada, araştırmacıların "anesteziyoloji bölüm başkanı" resimi istediklerinde, sonuçların neredeyse tamamının erkek olduğunu söyledi.
Saxena, "Hala var olan bu cam tavan şimdi de halka açık bir [yapay zeka] araçla pekiştiriliyor. Bir söz vardır, 'göremediğin şey olamazsın' ve bu, üretken yapay zeka söz konusu olduğunda gerçekten önem arz ediyor," dedi.
Önyargılar sadece kadınlar ve tıp alanında yeterince temsil edilmeyen diğer gruplar için bir sorun teşkil etmiyor. Sağlık sektörünün doktorların evrak işlerini azaltmak ve hatta bakıma yardımcı olmak için yapay zeka modellerini denediği düşünüldüğünde, algoritmik önyargıların hastalar üzerinde ciddi etkileri olabilir.
Örneğin, bu yılın başlarında yapılan bir başka çalışma, ChatGPT'nin hastaların ırk ve cinsiyetlerine göre tıbbi teşhisleri kalıplaştırma eğiliminde olduğunu ortaya koyarken, 2023 analizinde bu modellerin tıbbi bakımda "çürütülmüş ırkçı fikirleri" sürdürebileceği uyarısında bulunuldu.
Saxena, "Bunu gerçekten entegre edebilmemiz ve mümkün olduğunca kapsayıcı hale getirmek için herkese yaygın bir şekilde sunabilmemiz için bunun üstesinden gelinmesi gerekiyor," dedi.
Kaynak: BURSADA BUGÜN
Sağlık, 2024.09.24 08:59