Günümüzde, yapay zekâ sistemleri, günlük yaşamı kolaylaştırması ve iş dünyasına kattığı değer ile kendinden söz ettirmektedir.
Fakat gelişmekte olan bu sistemlerin kullanımından kaynaklanabilecek sorunların değerlendirilmesi ve yaptırımlar uygulanması konusunda belirsizlikler bulunmaktadır. Avrupa Komisyonu ve Avrupa Parlamentosu tarafından anlaşmaya varılan AB Yapay Zekâ Yasası adlı düzenleme, belirsizliklerin giderilmesi adına büyük önem arz etmektedir. Bu bağlamda, dünyanın ilk yapay zekâ düzenlemesi olarak bilinen yasanın dikkat çeken hükümlerini ve ilgili tartışma konularını sizler için derledik.
Düzenlemenin genel tanımı şu şekildedir; Avrupa Birliği, son dönemde büyük bir gelişim gösteren yapay zekâ (AI) alanındaki ilerlemeyi düzenlemek amacıyla AB Yapay Zekâ Yasasını (EU AI Act) düzenlemiştir.
Sağlık hizmetleri, enerji, üretim, haberleşme ve araştırma gibi birçok alanda kullanılan yapay zekânın faydaları olduğu gibi risk teşkil ettiği durumlar da söz konusudur. Bu risklerin düzenlenmesi adına oluşturulmaya başlanan ve Nisan 2021’de Avrupa Komisyonu tarafından tanıtılan yasa, yapay zekâ sistemlerini risklerine göre sınıflandırarak analiz etmekte ve bu risk seviyelerine göre uygulanacak düzenlemeleri belirlemektedir. AB Yapay Zekâ Yasası, dünyada yapay zekânın düzenlenmesi adına atılan ilk adım olması sebebiyle önem arz etmektedir.
AB Yapay Zekâ Yasasının amaçları şunlardır:
- AB pazarına sunulan ve kullanılan yapay zekâ sistemlerinin güvenli olduğundan ve temel haklar ile AB değerlerine saygı gösterdiğinden emin olmak,
- Yatırımı ve yapay zekâ alanındaki inovasyonu kolaylaştırmak için hukuki kesinlik sağlamak,
- Temel haklar ve yapay zekâ sistemlerine uygulanabilir güvenlik gereksinimleri konusundaki mevcut düzenlemelerin etkin bir şekilde uygulanmasını ve denetlenmesini artırmak;
AB Yapay Zekâ Yasası şunlar için geçerlidir:
- Üçüncü bir ülkede kurulmuş olduğuna bakılmaksızın AB’de piyasaya sürülen yapay zekâ sistemlerini hizmete sunanlar
- AB içinde yapay zekâ sistemlerini kullananlar;
- Yapay zekâ sistemlerinden üretilen çıktıların AB içinde kullanıldığı fakat üçüncü bir ülkede bulunan sistem sağlayıcıları ve kullanıcıları.
Yaptırımlar
AB Yapay Zekâ Yasası, üye devletlerin bir ulusal denetim otoritesi dâhil olmak üzere, düzenlemenin uygulanışını denetlemekle görevli olacak bir veya daha fazla yetkili makam belirlemelerini öngörmektedir. Bununla birlikte, AB düzeyinde üye devletler ve komisyon temsilcilerinden oluşan bir Avrupa Yapay Zekâ Kurulu kurulması da planlanmaktadır.
Ulusal pazar gözetim otoriteleri, yüksek riskli yapay zekâ sistemleri için operatörlerin yükümlülük ve gereksinimlere uygunluğunu değerlendirmekten sorumlu olacaklardır. Bu otoriteler, yapay zekâ sistemlerinin kaynak kodu dâhil olmak üzere gizli bilgilere erişim sağlayacak ve birtakım bağlayıcı gizlilik yükümlülüklerine tabi olacaklardır. AB Yapay Zekâ Yasasına uymayan veya uysa bile kişilerin sağlığına, güvenliğine veya temel haklarına bir risk oluşturan yapay zekâ sistemlerini yasaklama, sınırlama, geri çekme veya geri çağırma konusunda düzeltici tedbirler almak konusunda yetkili olacaklardır.
Yapay Zekâ Yasasına uyumsuzluk durumunda, ihlalin ciddiyetine bağlı olarak değişen ölçeklerde idari para cezaları öngörülmüştür. Bu cezalar en fazla 30 milyon Euro veya toplam dünya çapındaki yıllık gelirin %6'sı olabilecektir.
Kabul Edilemez Risk (Unacceptable Risk)
- Kabul edilemez riskli yapay zekâ sistemleri, insinsanlara tehdit oluşturan sistemlerdir ve yasaklanmalarına karar verilmiştir. Şu yapay zekâ faaliyetleri kabul edilemez risk kapsamında değerlendirilecektir:
- İnsanların veya belirli savunmasız grupların bilişsel davranışsal manipülasyonu: Örneğin çocuklarda tehlikeli davranışları teşvik eden oyuncaklar
- Toplumsal puanlama: Davranış, sosyoekonomik durum veya kişisel özelliklere dayalı olarak insanların sınıflandırması
- Biyometrik tanımlama ve insanların kategorize edilmesi
- Yüz tanıma gibi gerçek zamanlı ve uzaktan biyometrik tanımlama sistemleri
- Kabul edilemez riskli yapay zekâ uygulamalarında yasal amaçlar için izin verilebilecek bazı istisnaların olabileceği belirtilmiştir. Örneğin, biyometrik tanımlama sistemlerine mahkeme onayından sonra ciddi suçları kovuşturmak için izin verilebilecektir.
Yüksek Risk (High Risk)
- Güvenliği veya temel insan haklarını olumsuz yönde etkileyen yapay zekâ sistemlerinin yüksek risk olarak kabul edileceğine karar verilmiştir. Yüksek risk iki farklı kategoride değerlendirilmektedir:
- I. AB'nin ürün güvenliği mevzuatına tabi ürünlerde kullanılan yapay zekâ sistemleri
- II. AB veri tabanına kaydedilmesi gereken belirli alanlardaki yapay zekâ sistemleri:
- Kritik altyapının yönetimi ve işletimi
- Eğitim ve mesleki eğitim
- İstihdam, işçi yönetimi ve kendi işine erişim (access to self-employment)
- Temel özel hizmetlere, kamu hizmetleri ve avantajlarına erişim ve kullanım
- Kanun uygulayıcılığı
- Göç, sığınma ve sınır kontrol yönetimi
- Hukukun yorumlanması ve uygulanması desteği
- Tüm yüksek riskli yapay zekâ sistemlerinin piyasaya sürülmeden önce ve yaşam döngüleri boyunca değerlendirileceğine karar verilmiştir.
Sınırlı Risk (Limited Risk)
- Sınırlı riskli yapay zekâ sistemlerinin, kullanıcıların bilinçli kararlar almasına olanak tanıyan şeffaflık gereksinimlerine uyması gerekmektedir. Kullanıcı uygulamalarla etkileşimden sonra kullanıma devam etmek isteyip istemediğine karar verebilir. Kullanıcılar, yapay zekâ ile etkileşimde bulunurken bu konularda bilgilendirilmelidir. Bu risk tanımı özellikle resim ses ve video içeriklerini manipüle ederek hizmet sunan yapay zekâ sistemlerini içermektedir.
Düşük veya Minimal Risk (Low or Minimal Risk)
- Düşük veya minimal risk taşıyan tüm diğer yapay zekâ sistemleri, ek yasal yükümlülüklere uymadan AB'de geliştirilebilecek ve kullanılabilecektir. Ancak AB Yapay Zekâ Yasası, yüksek riskli yapay zekâ sistemleri için zorunlu gereksinimleri gönüllü olarak uygulamaya teşvik etmek amacıyla genel bir davranış çerçevesi oluşturmayı öngörmektedir.