Yapay zekâ sistemleri, işe alım süreçlerinde CV tarama, aday puanlama ve ön eleme aşamalarında yaygın biçimde kullanılmaktadır. Ancak algoritmaların karar alma süreçlerine dahil olması, ayrımcılık yasağı ve eşit davranma borcu açısından yeni hukuki tartışmaları beraberinde getirmektedir. Özellikle otomatik karar sistemlerinin şeffaf olmaması, adayların hangi kriterlere göre elendiğinin belirsiz kalmasına yol açabilir.
Türkiye’de işe alım süreçleri; eşitlik ilkesi ve kişisel verilerin korunması hükümleri çerçevesinde değerlendirilir. Bu kapsamda Anayasa’nın eşitlik ilkesi, İş Kanunu’nun eşit davranma borcu ve Kişisel Verilerin Korunması Kanunu hükümleri doğrudan uygulama alanı bulur.
AI ile Ön Eleme ve Otomatik Puanlama
Birçok şirket, yüzlerce başvuru arasından uygun adayları belirlemek için makine öğrenmesi tabanlı filtreleme sistemleri kullanmaktadır. Bu sistemler, geçmiş işe alım verilerini analiz ederek “ideal aday” profili oluşturur. Ancak geçmiş verilerde mevcut olan bilinçsiz önyargılar, algoritma tarafından yeniden üretilebilir.
Ayrımcılık Riskinin Kaynakları
- Geçmiş verilerde cinsiyet veya yaş temelli dengesizlik
- Belirli üniversite veya şehir mezunlarına öncelik verilmesi
- Dil, aksan veya isim üzerinden dolaylı ayrımcılık
- Sosyoekonomik arka planı yansıtan veri kalıpları
Bu tür önyargılar, doğrudan insan müdahalesi olmaksızın sistematik bir dışlamaya neden olabilir.
Hukuki Çerçevede Eşitlik ve Şeffaflık
İşveren, işe alım sürecinde objektif kriterler belirlemek ve ayrımcılıktan kaçınmakla yükümlüdür. Algoritmik sistem kullanılması, bu yükümlülüğü ortadan kaldırmaz. Aksine, kullanılan teknolojinin hukuka uygunluğu ayrıca denetlenmelidir.
Eşit Davranma Borcu
İş Kanunu uyarınca işveren, haklı ve objektif bir neden olmaksızın adaylar arasında farklı işlem yapamaz. AI sisteminin belirli bir grubu sistematik olarak elenmesine yol açması, eşit davranma borcunun ihlali sonucunu doğurabilir.
Kişisel Verilerin İşlenmesi
Adaylara ait özgeçmiş verileri, test sonuçları ve hatta sosyal medya analizleri kişisel veri niteliğindedir. Bu verilerin işlenmesi açık, belirli ve meşru bir amaca dayanmalı; veri minimizasyonu ilkesi gözetilmelidir. Gereğinden fazla veri toplanması veya adayın bilgisi dışında profil çıkarılması hukuka aykırı kabul edilebilir.
Algoritmik Kararların Denetlenebilirliği
AI destekli işe alım sistemlerinin en kritik sorunu “kara kutu” niteliğinde olmalarıdır. Kararın hangi parametrelere göre verildiği açıklanamıyorsa, adayın itiraz hakkı fiilen ortadan kalkabilir.
Hukuki Risk Alanları
- Otomatik ret kararlarının gerekçesiz olması
- Şeffaf olmayan puanlama sistemleri
- Hassas veri kullanımının açık rızaya dayanmaması
- Sistematik dışlama nedeniyle tazminat talepleri
Bu riskler yalnızca idari yaptırımlarla sınırlı kalmaz; aynı zamanda işe iade ve ayrımcılık tazminatı davalarına konu olabilir.
İşverenler İçin Uyum Stratejisi
AI sistemlerinin işe alımda kullanılması tamamen yasak değildir. Ancak bu sistemlerin insan denetimi altında çalışması, kararların tek başına algoritmaya bırakılmaması ve düzenli etki analizlerinin yapılması gerekir.
Güvenli Uygulama İlkeleri
- Algoritma denetimi ve test süreçleri oluşturulmalı
- Ayrımcılık analizi düzenli yapılmalı
- Adaylara şeffaf bilgilendirme sağlanmalı
- Nihai karar mutlaka insan değerlendirmesine tabi tutulmalı
- Veri saklama süreleri açıkça belirlenmeli
Dijital İnsan Kaynaklarında Hukuki Sorumluluk
AI destekli işe alım sistemleri, hız ve maliyet avantajı sağlasa da hukuki sorumluluğu ortadan kaldırmaz. İşveren, algoritmik kararların sonuçlarından da sorumludur. Eşitlik ilkesini ve veri koruma yükümlülüklerini gözeten bir yapı kurulmadığı takdirde, teknoloji avantajı ciddi hukuki risklere dönüşebilir.
İnsan Onuru ve Teknoloji Dengesi
İşe alım süreci yalnızca teknik bir eleme mekanizması değil, aynı zamanda adayların temel haklarının söz konusu olduğu bir hukuki alandır. Yapay zekâ uygulamaları, insan onuruna ve eşitlik ilkesine uygun şekilde yapılandırıldığında sürdürülebilir ve güvenilir bir istihdam politikası oluşturulabilir.