Yapay zekâ sistemleri kredi değerlendirmesinden sağlık teşhisine, işe alım süreçlerinden otonom sürüşe kadar birçok alanda karar verici konuma gelmiştir. Ancak bu kararların hatalı, eksik veya önyargılı olması durumunda ciddi zararlar ortaya çıkabilmektedir.

Peki yapay zekâ kararlarından doğan zararlar hukuken nasıl değerlendirilir?

Türk hukukunda yapay zekâya özgü ayrı bir sorumluluk rejimi bulunmamaktadır. Bu nedenle değerlendirme genel hükümler çerçevesinde yapılır. Tazminat sorumluluğunun temel dayanağı Türk Borçlar Kanunu hükümleridir.

Yapay Zekâ Kararlarının Yol Açabileceği Zarar Türleri

AI kararlarından doğabilecek zararlar farklı alanlarda ortaya çıkabilir:

  • Yanlış kredi reddi nedeniyle ekonomik kayıp
  • Hatalı teşhis nedeniyle sağlık zararı
  • Otonom sistem kazası
  • Yanlış risk analizi sonucu itibar kaybı
  • Önyargılı algoritma nedeniyle ayrımcılık

Bu zararlar maddi veya manevi nitelikte olabilir.

Maddi Zarar

Maddi zarar, kişinin malvarlığında meydana gelen eksilmeyi ifade eder.

Örnekler:

  • Tedavi giderleri
  • İş gücü kaybı
  • Gelir kaybı
  • Araç veya eşya hasarı

AI kararının doğrudan bu zarara yol açtığı ispat edilmelidir.

Manevi Zarar

Manevi zarar:

  • Kişilik haklarının ihlali
  • Psikolojik zarar
  • İtibar kaybı
  • Özel hayatın zedelenmesi

gibi durumlarda ortaya çıkar.

Örneğin hatalı bir algoritma nedeniyle kişinin “yüksek riskli müşteri” olarak etiketlenmesi manevi zarara yol açabilir.

Sorumluluk Kime Aittir?

Yapay zekâ sisteminin kendisi hukuki kişiliğe sahip değildir. Bu nedenle sorumluluk insan veya tüzel kişilere yüklenir.

Sorumlu olabilecek taraflar:

  • Yazılım geliştirici
  • Üretici firma
  • Sistemi kullanan kurum
  • Veri sağlayıcı
  • Operatör

Sorumluluk, kusur ve nedensellik bağına göre belirlenir.

Kusur ve İhmal

Tazminat sorumluluğu için genellikle kusur aranır.

Eğer:

  • Sistem yeterince test edilmemişse
  • Güvenlik önlemleri alınmamışsa
  • Risk analizi yapılmamışsa
  • Bilinen hata düzeltilmemişse

kusur söz konusu olabilir.

Kusursuz Sorumluluk İhtimali

Bazı durumlarda kusur aranmayabilir.

Özellikle:

  • Tehlikeli faaliyet
  • Ürün sorumluluğu
  • Otonom araç kazaları

kusursuz sorumluluk ilkesi uygulanabilir. Bu yaklaşım, yüksek riskli AI sistemleri için önemlidir.

İlliyet Bağı (Nedensellik)

Zarar ile AI kararı arasında doğrudan bağlantı kurulmalıdır.

Eğer:

  • İnsan müdahalesi sonucu zarar doğmuşsa
  • Üçüncü kişinin eylemi etkili olmuşsa

sorumluluk sınırlanabilir. Bilirkişi incelemesi çoğu zaman belirleyicidir.

Kişisel Veri ve Ayrımcılık Boyutu

AI kararları çoğu zaman kişisel veri işlemeye dayanır.

Eğer karar:

  • Hatalı veri
  • Önyargılı model
  • Yanlış sınıflandırma

nedeniyle verilmişse Kişisel Verilerin Korunması Kanunu kapsamında da sorumluluk doğabilir. Ayrımcılık iddiaları ayrıca anayasal ve insan hakları boyutu taşıyabilir.

Sözleşmesel Sorumluluk

AI hizmeti bir sözleşmeye dayanıyorsa, tarafların hak ve yükümlülükleri sözleşme hükümlerine göre belirlenir.

Garanti hükümleri ve sorumluluk sınırlamaları dikkate alınır. Ancak ağır kusur halinde sorumluluk sınırlaması geçersiz olabilir.

Uluslararası Eğilim

Artificial Intelligence Act, yüksek riskli AI sistemleri için risk yönetimi ve insan gözetimi zorunluluğu getirmiştir.

AB’de ayrıca AI kaynaklı zararlar için ürün sorumluluğu düzenlemeleri güncellenmektedir.

İspat Sorunu ve “Kara Kutu” Problemi

AI sistemleri çoğu zaman karmaşık ve açıklanamaz yapıya sahiptir.

Zarar gören kişinin:

  • Hatanın kaynağını
  • Algoritma kusurunu
  • Veri hatasını

ispat etmesi zor olabilir. Bu durum ileride ispat yükünün hafifletilmesi tartışmalarını gündeme getirebilir.

Güncel Hukuki Çerçeve

Bugün için temel değerlendirme şöyledir:

  • AI kararları doğrudan hukuki sorumluluk taşımaz.
  • Zarar varsa sorumluluk insan veya şirkete aittir.
  • Kusur ve illiyet bağı aranır.
  • Yüksek riskli sistemlerde kusursuz sorumluluk tartışılabilir.
  • Maddi ve manevi tazminat talep edilebilir.

Yapay zekâ kararlarının hayatın merkezine yerleşmesi, zarar ve sorumluluk ilişkisini daha karmaşık hale getirmiştir. Mevcut hukuk sistemi genel sorumluluk ilkeleriyle çözüm üretmeye çalışsa da, yüksek riskli AI uygulamaları için daha net ve özel düzenlemelerin yapılması gelecekte kaçınılmaz görünmektedir.

Leave a Reply

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Facebook Twitter Instagram Linkedin Youtube