Yapay zekâ sistemleri artık yalnızca yazılım değil; finans, sağlık, otomotiv, güvenlik ve kamu hizmetleri gibi kritik alanlarda karar verici konumdadır. Bu sistemlerin hatalı çalışması halinde zarar doğduğunda en sık sorulan soru şudur:

Sorumluluk üreticide mi, yoksa kullanıcıda mı?

Türk hukukunda yapay zekâya özgü özel bir sorumluluk kanunu bulunmamaktadır. Değerlendirme genel hükümler çerçevesinde yapılır. Tazminat sorumluluğunun temel dayanağı Türk Borçlar Kanunu, cezai boyutta ise Türk Ceza Kanunu hükümleridir.

Bu yazıda üretici ve kullanıcı sorumluluğunu ayrıntılı ve sistematik biçimde ele alıyoruz.

Sorumluluğun Belirlenmesinde Temel Kriterler

Bir zarar meydana geldiğinde şu unsurlar incelenir:

  • Hukuka aykırılık
  • Kusur (kast veya ihmal)
  • Zarar
  • İlliyet bağı (nedensellik)

AI sistemlerinde bu unsurların tespiti teknik açıdan karmaşık olabilir. Özellikle algoritmaların “kara kutu” niteliği, sorumluluk dağılımını zorlaştırır.

Üreticinin Sorumluluğu

Üretici; AI sistemini tasarlayan, geliştiren veya piyasaya süren kişi ya da şirkettir.

Üretici şu durumlarda sorumlu tutulabilir:

1. Tasarım Hatası

Sistem güvenli değilse, yeterince test edilmemişse veya öngörülebilir riskleri barındırıyorsa tasarım kusuru söz konusu olabilir.

Örneğin bir otonom araç yazılımının yağmurlu havada sensör hatası verdiği biliniyorsa ve bu düzeltilmemişse üretici sorumlu olabilir.

2. Yazılım Güncelleme Eksikliği

Güvenlik açığı bilindiği halde güncelleme yapılmamışsa ihmal söz konusudur.

3. Ürün Sorumluluğu

Eğer AI fiziksel bir ürünün parçasıysa ve ürün güvenli değilse ayıplı ürün sorumluluğu gündeme gelir. Bu durumda kusur aranmayabilir.

4. Yetersiz Uyarı

Kullanıcıya sistemin sınırları açıkça bildirilmemişse üretici sorumluluğu doğabilir.

Kullanıcının Sorumluluğu

Kullanıcı; AI sistemini işleten, uygulayan veya fiilen kullanan kişidir.

Kullanıcı şu hallerde sorumlu olabilir:

1. Talimata Aykırı Kullanım

Sistem kullanım kılavuzuna aykırı şekilde çalıştırılmışsa üreticinin sorumluluğu azalabilir.

2. Yanlış Veri Girişi

AI sistemleri çoğu zaman verilen veriye göre karar verir. Hatalı veya eksik veri girilmesi zarar doğurmuşsa kullanıcı kusurlu sayılabilir.

3. İnsan Denetiminin İhmal Edilmesi

Bazı sistemlerde insan gözetimi zorunludur. Kullanıcı bu denetimi yapmamışsa sorumluluk doğabilir.

Örneğin bir doktor, AI teşhis önerisini kontrol etmeden uygulamışsa mesleki sorumluluğu gündeme gelebilir.

Paylaşılan (Müşterek) Sorumluluk

Çoğu AI vakasında sorumluluk tek bir tarafa yüklenmez.

Örneğin:

  • Yazılım eksik test edilmiş
  • Kullanıcı gerekli güncellemeyi yapmamış
  • Kurum yeterli eğitim vermemiş

Bu durumda kusur oranına göre sorumluluk paylaştırılır. Mahkeme, her tarafın katkı oranını belirler.

İlliyet Bağı Sorunu

Zarar ile hangi tarafın eylemi arasında doğrudan bağlantı olduğu tespit edilmelidir.

Eğer:

  • Kullanıcının ağır kusuru illiyet bağını kesiyorsa
  • Üçüncü kişinin müdahalesi söz konusuysa

üretici sorumluluktan kurtulabilir. Bu noktada teknik bilirkişi incelemesi belirleyicidir.

Ceza Hukuku Boyutu

Eğer zarar:

  • Yaralanma
  • Ölüm
  • Büyük çaplı maddi kayıp

şeklindeyse taksirli suç hükümleri uygulanabilir. Ancak AI sistemi fail değildir. Sorumluluk insana aittir.

Üretici bilinçli risk almışsa bilinçli taksir; kullanıcı açık ihmalkârlık göstermişse taksir söz konusu olabilir.

Sözleşmesel İlişki

Taraflar arasında sözleşme varsa:

  • Sorumluluk sınırlandırılabilir
  • Garanti hükümleri uygulanabilir

Ancak ağır kusur veya kast halinde sorumluluk sınırlaması geçerli olmayabilir.

Veri ve Güvenlik Boyutu

AI sistemleri çoğu zaman kişisel veri işler.

Eğer veri güvenliği sağlanmamışsa Kişisel Verilerin Korunması Kanunu kapsamında ayrıca idari yaptırım doğabilir. Bu durumda veri sorumlusu olan kurum öncelikli sorumludur.

Yüksek Riskli Sistemlerde Yaklaşım

Artificial Intelligence Act, yüksek riskli AI sistemlerinde risk yönetimi ve insan gözetimi zorunluluğu getirmiştir.

Bu yaklaşım, üretici ve kullanıcı arasında daha net sorumluluk dağılımı yapılmasını hedeflemektedir. Türkiye’de ise genel sorumluluk ilkeleri uygulanmaktadır.

Güncel Hukuki Yaklaşım

Bugün için genel değerlendirme şu şekildedir:

  • AI sistemi doğrudan sorumlu değildir.
  • Tasarım veya güvenlik kusuru varsa üretici sorumludur.
  • Talimata aykırı kullanım veya ihmal varsa kullanıcı sorumludur.
  • Çoğu durumda sorumluluk paylaştırılır.
  • İlliyet bağı ve kusur oranı belirleyicidir.

Sonuç olarak “üretici mi kullanıcı mı sorumlu?” sorusunun tek bir cevabı yoktur. Her somut olay, teknik inceleme ve hukuki analiz gerektirir. Yapay zekâ sistemlerinin karmaşık yapısı, sorumluluğun çoğu zaman zincirleme veya paylaşılan biçimde ortaya çıkmasına yol açmaktadır. Bu nedenle hem üreticilerin hem de kullanıcıların risk yönetimi ve hukuki farkındalık düzeyini yüksek tutması kritik öneme sahiptir.

Leave a Reply

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Facebook Twitter Instagram Linkedin Youtube