Yapay zekâ sistemleri artık yalnızca yazılım değil; finans, sağlık, otomotiv, güvenlik ve kamu hizmetleri gibi kritik alanlarda karar verici konumdadır. Bu sistemlerin hatalı çalışması halinde zarar doğduğunda en sık sorulan soru şudur:
Sorumluluk üreticide mi, yoksa kullanıcıda mı?
Türk hukukunda yapay zekâya özgü özel bir sorumluluk kanunu bulunmamaktadır. Değerlendirme genel hükümler çerçevesinde yapılır. Tazminat sorumluluğunun temel dayanağı Türk Borçlar Kanunu, cezai boyutta ise Türk Ceza Kanunu hükümleridir.
Bu yazıda üretici ve kullanıcı sorumluluğunu ayrıntılı ve sistematik biçimde ele alıyoruz.
Sorumluluğun Belirlenmesinde Temel Kriterler
Bir zarar meydana geldiğinde şu unsurlar incelenir:
- Hukuka aykırılık
- Kusur (kast veya ihmal)
- Zarar
- İlliyet bağı (nedensellik)
AI sistemlerinde bu unsurların tespiti teknik açıdan karmaşık olabilir. Özellikle algoritmaların “kara kutu” niteliği, sorumluluk dağılımını zorlaştırır.
Üreticinin Sorumluluğu
Üretici; AI sistemini tasarlayan, geliştiren veya piyasaya süren kişi ya da şirkettir.
Üretici şu durumlarda sorumlu tutulabilir:
1. Tasarım Hatası
Sistem güvenli değilse, yeterince test edilmemişse veya öngörülebilir riskleri barındırıyorsa tasarım kusuru söz konusu olabilir.
Örneğin bir otonom araç yazılımının yağmurlu havada sensör hatası verdiği biliniyorsa ve bu düzeltilmemişse üretici sorumlu olabilir.
2. Yazılım Güncelleme Eksikliği
Güvenlik açığı bilindiği halde güncelleme yapılmamışsa ihmal söz konusudur.
3. Ürün Sorumluluğu
Eğer AI fiziksel bir ürünün parçasıysa ve ürün güvenli değilse ayıplı ürün sorumluluğu gündeme gelir. Bu durumda kusur aranmayabilir.
4. Yetersiz Uyarı
Kullanıcıya sistemin sınırları açıkça bildirilmemişse üretici sorumluluğu doğabilir.
Kullanıcının Sorumluluğu
Kullanıcı; AI sistemini işleten, uygulayan veya fiilen kullanan kişidir.
Kullanıcı şu hallerde sorumlu olabilir:
1. Talimata Aykırı Kullanım
Sistem kullanım kılavuzuna aykırı şekilde çalıştırılmışsa üreticinin sorumluluğu azalabilir.
2. Yanlış Veri Girişi
AI sistemleri çoğu zaman verilen veriye göre karar verir. Hatalı veya eksik veri girilmesi zarar doğurmuşsa kullanıcı kusurlu sayılabilir.
3. İnsan Denetiminin İhmal Edilmesi
Bazı sistemlerde insan gözetimi zorunludur. Kullanıcı bu denetimi yapmamışsa sorumluluk doğabilir.
Örneğin bir doktor, AI teşhis önerisini kontrol etmeden uygulamışsa mesleki sorumluluğu gündeme gelebilir.
Paylaşılan (Müşterek) Sorumluluk
Çoğu AI vakasında sorumluluk tek bir tarafa yüklenmez.
Örneğin:
- Yazılım eksik test edilmiş
- Kullanıcı gerekli güncellemeyi yapmamış
- Kurum yeterli eğitim vermemiş
Bu durumda kusur oranına göre sorumluluk paylaştırılır. Mahkeme, her tarafın katkı oranını belirler.
İlliyet Bağı Sorunu
Zarar ile hangi tarafın eylemi arasında doğrudan bağlantı olduğu tespit edilmelidir.
Eğer:
- Kullanıcının ağır kusuru illiyet bağını kesiyorsa
- Üçüncü kişinin müdahalesi söz konusuysa
üretici sorumluluktan kurtulabilir. Bu noktada teknik bilirkişi incelemesi belirleyicidir.
Ceza Hukuku Boyutu
Eğer zarar:
- Yaralanma
- Ölüm
- Büyük çaplı maddi kayıp
şeklindeyse taksirli suç hükümleri uygulanabilir. Ancak AI sistemi fail değildir. Sorumluluk insana aittir.
Üretici bilinçli risk almışsa bilinçli taksir; kullanıcı açık ihmalkârlık göstermişse taksir söz konusu olabilir.
Sözleşmesel İlişki
Taraflar arasında sözleşme varsa:
- Sorumluluk sınırlandırılabilir
- Garanti hükümleri uygulanabilir
Ancak ağır kusur veya kast halinde sorumluluk sınırlaması geçerli olmayabilir.
Veri ve Güvenlik Boyutu
AI sistemleri çoğu zaman kişisel veri işler.
Eğer veri güvenliği sağlanmamışsa Kişisel Verilerin Korunması Kanunu kapsamında ayrıca idari yaptırım doğabilir. Bu durumda veri sorumlusu olan kurum öncelikli sorumludur.
Yüksek Riskli Sistemlerde Yaklaşım
Artificial Intelligence Act, yüksek riskli AI sistemlerinde risk yönetimi ve insan gözetimi zorunluluğu getirmiştir.
Bu yaklaşım, üretici ve kullanıcı arasında daha net sorumluluk dağılımı yapılmasını hedeflemektedir. Türkiye’de ise genel sorumluluk ilkeleri uygulanmaktadır.
Güncel Hukuki Yaklaşım
Bugün için genel değerlendirme şu şekildedir:
- AI sistemi doğrudan sorumlu değildir.
- Tasarım veya güvenlik kusuru varsa üretici sorumludur.
- Talimata aykırı kullanım veya ihmal varsa kullanıcı sorumludur.
- Çoğu durumda sorumluluk paylaştırılır.
- İlliyet bağı ve kusur oranı belirleyicidir.
Sonuç olarak “üretici mi kullanıcı mı sorumlu?” sorusunun tek bir cevabı yoktur. Her somut olay, teknik inceleme ve hukuki analiz gerektirir. Yapay zekâ sistemlerinin karmaşık yapısı, sorumluluğun çoğu zaman zincirleme veya paylaşılan biçimde ortaya çıkmasına yol açmaktadır. Bu nedenle hem üreticilerin hem de kullanıcıların risk yönetimi ve hukuki farkındalık düzeyini yüksek tutması kritik öneme sahiptir.