Yapay zekada ‘ayrımcılık’ riski

Yeditepe Üniversitesi Hukuk Fakültesi öğretim üyesi Prof. Dr. Tınç, yapay zeka algoritmalarının, cinsiyet, yaş, köken üzere şahsî özelliklere dayalı olarak ayrımcılık yapabileceğini belirtti.

Yapay zekada ‘ayrımcılık’ riski
reklam
Yayınlama: 24.12.2024
3
A+
A-

Yeditepe Üniversitesi Hukuk Fakültesi öğretim üyesi Prof. Dr. Mehmet Rıfat Tınç, yapay zekanın ayrımcılıktaki rolünü kıymetlendirdi ve Türkiye ile dünyada bu bahiste alınan tedbirleri ele aldı.

Yapay zeka algoritmalarının, cinsiyet, yaş, köken üzere şahsî özelliklere dayalı olarak ayrımcılık yapabileceğini belirten Prof. Dr. Tınç, “Teknolojik bir objenin ayrımcılık yapması, onu türel açıdan bir kabahat aletine dönüştürebilir. Bu nedenle yapay zekanın nasıl ve neden ayrımcılık yapabileceğini anlamak büyük değer taşıyor” dedi.

‘YAPAY ZEKA İKİ FARKLI BİÇİMDE AYRIMCILIK YAPABİLİR’

reklam

Algoritmaların hukuk bilgisi ve toplumsal görgüsü olmadığı için ayrımcılık yapma ihtimali bulunduğunu vurgulayan Tınç, kelamlarını şöyle sürdürdü:

“Hatta bir yazılım, hukuk mantığını büsbütün benimsemiş olsa bile, ayrımcılık savlarıyla yargıya taşınacak tartışmalar kaçınılmaz olacaktır. Zira ne yazılımlar ne de robotlar, toplumun ve hukukun gelişimini durdurabilir”

Prof. Dr. Tınç, bu durumda bilhassa hukukçuların, yapay zeka ayrımcılığının ortaya çıkaracağı yeni ve kritik sorulara karşılıklar üretmesi gerektiğinin altını çizdi. Prof. Dr. Tınç’, “Yapay zeka, iki farklı biçimde ayrımcılık yapabilir. Aritmetik ayrımcılık, birebir durumda olan şahıslara farklı muamele yapılması. Örneğin, birebir iş için birebir performansı gösteren iki kişinin farklı fiyat alması. Geometrik ayrımcılık ise farklı durumda olan bireylere birebir muamele yapılması. Örneğin, bir imtihanda engelli bir bireye başkalarıyla birebir mühletin verilmesi” dedi.

reklam

‘MEVZUATIMIZDA DÜZENLEMELER YAPILMALI’

“Algoritmalar, beşerler üzere ahlâk sahibi olamazlar” diyen Tınç, şöyle devam etti: “Kendilerine dayatılan ahlâk kurallarının dışına çıkamazlar ya da kendi kendilerine bu kuralları geliştiremezler. Hasebiyle, yapay zekanın kesinlikle dışarıdan müdahaleye, insan eliyle revize edilmeye ve güncellenmeye açık olması gerekir. Müdahale edemediğimiz, revize edemediğimiz ve yalnızca kendi kendini geliştiren bir yapay zeka, ileride istemediğimiz sonuçlar doğurabilir. Bir müddet sonra bizi ilerletmek yerine geriletebilir ya da ahlâk anlayışımızın ve şuur yapımızın gerisinde kalabilir. Bu nedenle, Avrupa ve Japonya’da olduğu üzere, yapay zekanın yol açabileceği yanılgılar ve kabahatler için mevzuatımızda yeni düzenlemeler yapılması gerekecektir.”

Yapay zekanın bir hukuk bireyi olmaması, sorumluluğun belirlenmesini zorlaştırıyor. Prof. Dr. Tınç, yapay zekayı geliştiren ve kullanan şirketler ile şahısların, bu teknolojinin yol açtığı ziyanlar için sorumlu tutulabileceğini vurguladı. Ayrıyeten, yapay zekanın ayrımcılık yapmasını önlemek maksadıyla şu önlemlerin alınabileceğini belirtti:

“Algoritmik Tedbirler: Algoritmaların sistemli olarak denetlenmesi ve önyargıların giderilmesi. Yazılımlarda sistematikleşme eğilimlerine karşı güncellemeler ve düzeltici formüllerin mecburî kılınması.

“Kurumsal Tedbirler: Yapay zekayı kullanan kurumların makul aralıklarla denetlenmesi.

“İnsani Tedbirler: Yapay zeka sistemlerinin insan kontrolü altında tutulması. Örneğin, bir yapay zeka şikâyet ünitesi ya da “Yapay Zeka Adliyesi” oluşturulabilir.”

Tınç, hâlihazırda bilişim hatalarıyla ilgilenen özel yetkili kurumlarımızın mevcut olduğunu hatırlatarak, yapay zeka mağdurlarının da dayanak alabileceği isimli kurumların kurulabileceğini tabir etti.

Prof. Dr. Mehmet Rıfat Tınç, şu değerlendirmelerde bulundu: “Yapay zekanın sunduğu fırsatların yanı sıra, ayrımcılık üzere önemli riskleri de bulunuyor. Bu riski minimize etmek için hukuksal, teknik ve toplumsal seviyede tedbirler alınması gerekiyor. Yapay zekanın insanlığa hizmet etmesi için etik ve adil bir formda geliştirilmesi ve kullanılması büyük kıymet taşıyor.”

(DEMİRÖREN HABER AJANSI)

Kaynak: Gazete Duvar

reklam
Bir Yorum Yazın

Ziyaretçi Yorumları - 0 Yorum

Henüz yorum yapılmamış.