Yapay zekâ sistemleri kredi değerlendirmesi, işe alım, sigorta fiyatlaması, risk analizi ve kamu hizmetlerine erişim gibi alanlarda yaygın biçimde kullanılmaktadır. Ancak bu sistemlerin önyargılı veri setleriyle eğitilmesi veya hatalı model tasarımı, belirli kişi veya gruplar aleyhine ayrımcı sonuçlar doğurabilir. Bu durum “algoritmik ayrımcılık” olarak adlandırılır.
Peki algoritmik ayrımcılık hukuka aykırı mıdır? Zarar gören kişiler tazminat davası açabilir mi?
Türkiye’de bu konuda özel bir AI kanunu bulunmamaktadır. Ancak ayrımcılık yasağı anayasal bir ilkedir ve genel sorumluluk hükümleri uygulanır. Tazminat taleplerinin temel dayanağı Türk Borçlar Kanunu’dur.
Algoritmik Ayrımcılık Nedir?
Algoritmik ayrımcılık; yapay zekâ sisteminin belirli kişi veya gruplara karşı sistematik olarak olumsuz, adaletsiz veya eşitsiz sonuç üretmesidir.
Örnekler:
- Kadın adayların sistematik olarak elenmesi
- Belirli mahallede yaşayanlara daha yüksek kredi riski atanması
- Etnik kökene dolaylı etki eden veri nedeniyle olumsuz sonuç
- Yaşlı bireylerin sigorta başvurularında otomatik red
Ayrımcılık açık (doğrudan) veya dolaylı (veri temelli) olabilir.
Hukuki Dayanak
Türkiye’de eşitlik ilkesi Anayasal güvence altındadır. Ayrıca özel hukukta haksız fiil hükümleri uygulanır.
Bir algoritmik karar nedeniyle zarar doğmuşsa şu unsurlar incelenir:
- Hukuka aykırılık
- Kusur
- Zarar
- Nedensellik bağı
Bu unsurların varlığı halinde tazminat sorumluluğu doğabilir.
Maddi Zarar
Algoritmik ayrımcılık sonucu maddi zarar ortaya çıkabilir.
Örneğin:
- Haksız kredi reddi nedeniyle ticari kayıp
- İşe alınmama nedeniyle gelir kaybı
- Sigorta primi artışı
Bu zararların somut olarak ispat edilmesi gerekir.
Manevi Zarar
Ayrımcılık yalnızca ekonomik değil; kişilik haklarına da zarar verebilir.
- Onur kırıcı sonuçlar
- Psikolojik zarar
- Sosyal dışlanma
manevi tazminat talebine konu olabilir.
Kusur Kimde?
Algoritmik ayrımcılık vakalarında sorumluluk şu taraflar arasında incelenir:
- Yazılım geliştirici
- Veri sağlayıcı
- Sistemi kullanan kurum
- Kararı uygulayan kişi
Eğer sistem önyargılı veriyle eğitilmişse geliştirici sorumluluğu doğabilir. Kurum gerekli denetimi yapmamışsa kurumsal sorumluluk gündeme gelebilir.
Veri ve KVKK Boyutu
Algoritmik kararlar çoğu zaman kişisel veri işlemeye dayanır.
Özellikle otomatik karar verme süreçleri, Kişisel Verilerin Korunması Kanunu kapsamında önem taşır.
Kişi:
- Hakkında otomatik karar verilmesine itiraz edebilir
- Açıklama talep edebilir
- Düzeltme veya silme isteyebilir
Yanlış veya ayrımcı karar, veri koruma ihlali de oluşturabilir.
İspat Sorunu ve “Kara Kutu” Problemi
Algoritmik ayrımcılık davalarının en zor yönü ispat yüküdür.
AI sistemleri:
- Karmaşık model yapısına sahiptir
- Karar sürecini açıklamayabilir
Bu nedenle zarar gören kişinin ayrımcılığı teknik olarak kanıtlaması zor olabilir. Mahkemeler bilirkişi incelemesi yaparak modelin veri setini ve karar mekanizmasını analiz edebilir.
Sözleşmesel İlişki Varsa
AI sisteminin kullanımı bir sözleşmeye dayanıyorsa (örneğin işe alım platformu), sözleşmeye aykırılık hükümleri de uygulanabilir.
Ancak ayrımcılık yasağı kamu düzeniyle ilgili olduğu için sözleşme ile bertaraf edilemez.
Uluslararası Yaklaşım
Artificial Intelligence Act, yüksek riskli AI sistemlerinde ayrımcılık riskine karşı denetim ve şeffaflık yükümlülükleri getirmiştir. AB yaklaşımı, insan gözetimi ve risk değerlendirmesini zorunlu kılar.
Türkiye’de ise genel eşitlik ve sorumluluk ilkeleri uygulanmaktadır.
Tazminat Davası Süreci
Algoritmik ayrımcılık nedeniyle zarar gören kişi:
- Öncelikle ilgili kuruma başvurabilir
- Veri işleme söz konusuysa veri sorumlusuna müracaat edebilir
- Tazminat davası açabilir
- Manevi ve maddi zarar talebinde bulunabilir
Mahkeme kusur ve zarar oranına göre karar verir.
Hukuki Değerlendirme
Bugün için temel çerçeve şöyledir:
- Algoritmik ayrımcılık hukuka aykırı olabilir.
- Maddi ve manevi tazminat talep edilebilir.
- Kusur ve illiyet bağı aranır.
- Veri koruma hukuku da devreye girebilir.
- İspat yükü teknik inceleme gerektirir.
Yapay zekâ sistemlerinin karar alma süreçlerinde şeffaflık ve denetim eksikliği, ayrımcılık riskini artırmaktadır. Mevcut hukuk sistemi genel haksız fiil ve eşitlik ilkeleriyle çözüm üretmeye çalışsa da, algoritmik ayrımcılığa özgü daha açık düzenlemelerin yapılması gelecekte kaçınılmaz görünmektedir.