Anasayfa/ Makale/ İşe Alımda Yapay Zekâ: Algoritmik Ayrımcılık...

Makale

İşe alım süreçlerinde kullanılan yapay zekâ uygulamaları, hız ve verimlilik sağlasa da algoritmik ayrımcılık gibi ciddi hukuki riskler barındırmaktadır. Bu makalede, işverenlerin adayları değerlendirirken algoritmalar sebebiyle yol açabileceği ayrımcılık türleri, bilgi edinme hakkının sınırları ve hukuki sorumluluklar incelenmektedir.

İşe Alımda Yapay Zekâ: Algoritmik Ayrımcılık ve Sınırlar

Günümüzde iş dünyasının hızla dijitalleşmesiyle birlikte, insan kaynakları yönetimi ve özellikle işe alım süreçlerinde yapay zekâ teknolojilerinin kullanımı giderek yaygınlaşmaktadır. İşverenler, yapay zekâ destekli uygulamalar sayesinde binlerce öz geçmişi dakikalar içinde tarayabilmekte, aday havuzunu genişletebilmekte ve video mülakatlar üzerinden adayların işe uygunluğunu nesnel kriterlerle değerlendirme hedefine ulaşmaya çalışmaktadır. Ne var ki, insan müdahalesinin azaldığı bu otomatik süreçler, görünürde objektif olsa da arka planda ciddi hukuki ve etik ihlallere zemin hazırlayabilmektedir. İşe alım sürecinde taraflar arasında hukuki anlamda kurulan sözleşme benzeri güven ilişkisi gereği, işverenin işçi adayına karşı ayrımcılık yapmama ve dürüstlük kuralına uyma yükümlülüğü bulunmaktadır. Tam da bu noktada, algoritmik ayrımcılık kavramı karşımıza çıkmakta olup, algoritmaların eğitildiği verilerdeki insani ön yargıların karar mekanizmalarına yansıması, temel hak ve özgürlüklerin ihlali boyutuna ulaşabilmektedir.

Algoritmik Ayrımcılık Kavramı ve Ortaya Çıkış Şekilleri

Yapay zekâ sistemleri, verileri işleyerek mantıksal çıkarımlar yapan algoritmalar bütünüdür. Her ne kadar algoritmaların kendi başlarına ön yargı, duygu veya düşünceleri olmasa da, bu sistemler nihayetinde insan elinden çıkan kodlara ve insanların sağladığı veri setlerine dayanmaktadır. Bu nedenle, insan geliştiricilerin bilinçli ya da bilinçsiz olarak sahip olduğu ön yargılar, eğitim verileri aracılığıyla algoritmalara aktarılmaktadır. Algoritmanın hatalı, eksik veya belirli bir grubu dışlayan verilerle eğitilmesi sonucu objektif karar verememesine algoritmik ön yargı denilmektedir. Bu ön yargıların, işe alım gibi kritik karar verme süreçlerinde bireylerin temel hak ve özgürlüklerini kısıtlayıcı nitelikte olumsuz çıktılar üretmesi ise algoritmik ayrımcılık olarak adlandırılmaktadır. Örneğin, yalnızca erkek adayların ağırlıkta olduğu bir veri setiyle eğitilen sistemin, kadın adayları otomatik olarak daha düşük puanlaması bu durumun tipik bir sonucudur. Hukuki açıdan bu ihlal, doğrudan ayrımcılık veya görünürde tarafsız kuralların dezavantajlı gruplar üzerinde orantısız etki yaratması şeklinde dolaylı ayrımcılık olarak tezahür edebilir.

İşe Alımda Bilgi Edinme Hakkının Hukuki Sınırları

İşverenlerin, başvuran adaylar arasından en uygun olanını seçebilmek için aday hakkında çeşitli yöntemlerle bilgi edinme hakkı ve menfaati bulunmaktadır. Ancak bu hak mutlak ve sınırsız değildir; Anayasa, İş Kanunu ve Türkiye İnsan Hakları ve Eşitlik Kurumu Kanunu (TİHEKK) gibi mevzuatlar çerçevesinde ayrımcılık yasakları ile sınırlandırılmıştır. İşveren, bilgi edinme hakkını kullanırken dürüstlük kuralı çerçevesinde hareket etmeli ve adayın özel yaşamına müdahale teşkil edecek, işin doğasıyla doğrudan ilgili olmayan sorular sormaktan kaçınmalıdır. Algoritmaların, adayların yüz ifadelerinden, ses tonlarından veya sosyal medya verilerinden siyasi görüş, cinsel yönelim veya sağlık durumu gibi bilgileri analiz edebilme kapasitesi, bilgi edinme hakkının sınırlarının zımni olarak aşılmasına sebep olabilmektedir. Adaya yöneltilen soruların yasal sınırları aşması durumunda, hukuken adayın doğru yanıt vermeme, yani yalan söyleme hakkı doğduğu kabul edilmektedir. İşe alım sürecinde yapay zekânın bu sınırları ihlal eden dolaylı çıkarımları, hukuka aykırı bilgi edinme faaliyetidir.

Algoritmik Ayrımcılığın Hukuki Yaptırımları ve İspat Sorunu

Türk hukukunda doğrudan yapay zekâyı veya algoritmik sistemleri düzenleyen özel bir kanun bulunmamakla birlikte, işe alım süreçlerinde meydana gelen zararlar mevcut borçlar ve iş hukuku ilkeleri çerçevesinde çözümlenmektedir. İşe alım görüşmeleri esnasında taraflar arasında oluşan sosyal temas, işverene koruyucu yan yükümlülükler yükler. Algoritmik ayrımcılık sebebiyle adayın zarara uğraması, sözleşme görüşmelerindeki kusurlu davranış olan culpa in contrahendo sorumluluğu kapsamında değerlendirilebilir. Ayrıca, hukuka aykırı fiil sonucu oluşan zararlar, Türk Borçlar Kanunu'nun (TBK) haksız fiil sorumluluğu hükümlerine tabi tutulabilmektedir. İşverenin, ayrımcılık riski taşıyan bir yapay zekâ sistemini kullanırken gerekli özeni göstermemesi, organizasyon eksikliği kapsamında TBK m. 66/3 uyarınca adam çalıştıranın kusursuz sorumluluğunu da gündeme getirebilir.

Algoritmik ayrımcılık vakalarında yargı süreçlerinde karşılaşılan en büyük engel ispat zorluğudur. Aşağıdaki sebepler ispat yükünü ağırlaştırmaktadır:

  • Kara Kutu Etkisi (Black Box): Algoritmaların arka planda kararları nasıl ve hangi ağırlıktaki kriterlerle aldığının insanlar tarafından dahi tam olarak çözümlenememesi.
  • İlliyet Bağının Kurulamaması: Zarar veren sonuç ile algoritmanın işleyişi arasındaki neden-sonuç ilişkisinin istatistiksel olasılıklara dayanması.
  • Şeffaflık Eksikliği: Adayın, çoğu zaman yapay zekâ tarafından değerlendirildiğinden veya hangi verilerinin ayrımcılığa yol açtığından haberdar olmaması.
4 dk okuma Yayınlanma: Güncelleme: