Yapay zekâ sistemleri kredi değerlendirmesi, işe alım, sigorta fiyatlaması, risk analizi ve kamu hizmetlerine erişim gibi alanlarda yaygın biçimde kullanılmaktadır. Ancak bu sistemlerin önyargılı veri setleriyle eğitilmesi veya hatalı model tasarımı, belirli kişi veya gruplar aleyhine ayrımcı sonuçlar doğurabilir. Bu durum “algoritmik ayrımcılık” olarak adlandırılır.

Peki algoritmik ayrımcılık hukuka aykırı mıdır? Zarar gören kişiler tazminat davası açabilir mi?

Türkiye’de bu konuda özel bir AI kanunu bulunmamaktadır. Ancak ayrımcılık yasağı anayasal bir ilkedir ve genel sorumluluk hükümleri uygulanır. Tazminat taleplerinin temel dayanağı Türk Borçlar Kanunu’dur.

Algoritmik Ayrımcılık Nedir?

Algoritmik ayrımcılık; yapay zekâ sisteminin belirli kişi veya gruplara karşı sistematik olarak olumsuz, adaletsiz veya eşitsiz sonuç üretmesidir.

Örnekler:

  • Kadın adayların sistematik olarak elenmesi
  • Belirli mahallede yaşayanlara daha yüksek kredi riski atanması
  • Etnik kökene dolaylı etki eden veri nedeniyle olumsuz sonuç
  • Yaşlı bireylerin sigorta başvurularında otomatik red

Ayrımcılık açık (doğrudan) veya dolaylı (veri temelli) olabilir.

Hukuki Dayanak

Türkiye’de eşitlik ilkesi Anayasal güvence altındadır. Ayrıca özel hukukta haksız fiil hükümleri uygulanır.

Bir algoritmik karar nedeniyle zarar doğmuşsa şu unsurlar incelenir:

  • Hukuka aykırılık
  • Kusur
  • Zarar
  • Nedensellik bağı

Bu unsurların varlığı halinde tazminat sorumluluğu doğabilir.

Maddi Zarar

Algoritmik ayrımcılık sonucu maddi zarar ortaya çıkabilir.

Örneğin:

  • Haksız kredi reddi nedeniyle ticari kayıp
  • İşe alınmama nedeniyle gelir kaybı
  • Sigorta primi artışı

Bu zararların somut olarak ispat edilmesi gerekir.

Manevi Zarar

Ayrımcılık yalnızca ekonomik değil; kişilik haklarına da zarar verebilir.

  • Onur kırıcı sonuçlar
  • Psikolojik zarar
  • Sosyal dışlanma

manevi tazminat talebine konu olabilir.

Kusur Kimde?

Algoritmik ayrımcılık vakalarında sorumluluk şu taraflar arasında incelenir:

  • Yazılım geliştirici
  • Veri sağlayıcı
  • Sistemi kullanan kurum
  • Kararı uygulayan kişi

Eğer sistem önyargılı veriyle eğitilmişse geliştirici sorumluluğu doğabilir.  Kurum gerekli denetimi yapmamışsa kurumsal sorumluluk gündeme gelebilir.

Veri ve KVKK Boyutu

Algoritmik kararlar çoğu zaman kişisel veri işlemeye dayanır.

Özellikle otomatik karar verme süreçleri, Kişisel Verilerin Korunması Kanunu kapsamında önem taşır.

Kişi:

  • Hakkında otomatik karar verilmesine itiraz edebilir
  • Açıklama talep edebilir
  • Düzeltme veya silme isteyebilir

Yanlış veya ayrımcı karar, veri koruma ihlali de oluşturabilir.

İspat Sorunu ve “Kara Kutu” Problemi

Algoritmik ayrımcılık davalarının en zor yönü ispat yüküdür.

AI sistemleri:

  • Karmaşık model yapısına sahiptir
  • Karar sürecini açıklamayabilir

Bu nedenle zarar gören kişinin ayrımcılığı teknik olarak kanıtlaması zor olabilir. Mahkemeler bilirkişi incelemesi yaparak modelin veri setini ve karar mekanizmasını analiz edebilir.

Sözleşmesel İlişki Varsa

AI sisteminin kullanımı bir sözleşmeye dayanıyorsa (örneğin işe alım platformu), sözleşmeye aykırılık hükümleri de uygulanabilir.

Ancak ayrımcılık yasağı kamu düzeniyle ilgili olduğu için sözleşme ile bertaraf edilemez.

Uluslararası Yaklaşım

Artificial Intelligence Act, yüksek riskli AI sistemlerinde ayrımcılık riskine karşı denetim ve şeffaflık yükümlülükleri getirmiştir. AB yaklaşımı, insan gözetimi ve risk değerlendirmesini zorunlu kılar.

Türkiye’de ise genel eşitlik ve sorumluluk ilkeleri uygulanmaktadır.

Tazminat Davası Süreci

Algoritmik ayrımcılık nedeniyle zarar gören kişi:

  1. Öncelikle ilgili kuruma başvurabilir
  2. Veri işleme söz konusuysa veri sorumlusuna müracaat edebilir
  3. Tazminat davası açabilir
  4. Manevi ve maddi zarar talebinde bulunabilir

Mahkeme kusur ve zarar oranına göre karar verir.

Hukuki Değerlendirme

Bugün için temel çerçeve şöyledir:

  • Algoritmik ayrımcılık hukuka aykırı olabilir.
  • Maddi ve manevi tazminat talep edilebilir.
  • Kusur ve illiyet bağı aranır.
  • Veri koruma hukuku da devreye girebilir.
  • İspat yükü teknik inceleme gerektirir.

Yapay zekâ sistemlerinin karar alma süreçlerinde şeffaflık ve denetim eksikliği, ayrımcılık riskini artırmaktadır. Mevcut hukuk sistemi genel haksız fiil ve eşitlik ilkeleriyle çözüm üretmeye çalışsa da, algoritmik ayrımcılığa özgü daha açık düzenlemelerin yapılması gelecekte kaçınılmaz görünmektedir.

Leave a Reply

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Facebook Twitter Instagram Linkedin Youtube