AB Yapay Zeka Yasası

Günümüzde, yapay zekâ sistemleri, günlük yaşamı kolaylaştırması ve iş dünyasına kattığı değer ile kendinden söz ettirmektedir. Fakat gelişmekte olan bu sistemlerin kullanımından kaynaklanabilecek sorunların değerlendirilmesi ve yaptırımlar uygulanması konusunda belirsizlikler bulunmaktadır. Avrupa Komisyonu ve Avrupa Parlamentosu tarafından anlaşmaya varılan AB Yapay Zekâ Yasası adlı düzenleme, belirsizliklerin giderilmesi adına büyük önem arz etmektedir. Bu bağlamda, dünyanın ilk yapay zekâ düzenlemesi olarak bilinen yasanın dikkat çeken hükümlerini ve ilgili tartışma konularını sizler için derledik.

Düzenlemenin genel tanımı şu şekildedir; Avrupa Birliği, son dönemde büyük bir gelişim gösteren yapay zekâ (AI) alanındaki ilerlemeyi düzenlemek amacıyla AB Yapay Zekâ Yasasını (EU AI Act) düzenlemiştir. Sağlık hizmetleri, enerji, üretim, haberleşme ve araştırma gibi birçok alanda kullanılan yapay zekânın faydaları olduğu gibi risk teşkil ettiği durumlar da söz konusudur. Bu risklerin düzenlenmesi adına oluşturulmaya başlanan ve Nisan 2021’de Avrupa Komisyonu tarafından tanıtılan yasa, yapay zekâ sistemlerini risklerine göre sınıflandırarak analiz etmekte ve bu risk seviyelerine göre uygulanacak düzenlemeleri belirlemektedir. AB Yapay Zekâ Yasası, dünyada yapay zekânın düzenlenmesi adına atılan ilk adım olması sebebiyle önem arz etmektedir.


AB Yapay Zekâ Yasasının amaçları şunlardır:

  •  AB pazarına sunulan ve kullanılan yapay zekâ sistemlerinin güvenli olduğundan ve temel haklar ile AB değerlerine saygı gösterdiğinden emin olmak,
  • Yatırımı ve yapay zekâ alanındaki inovasyonu kolaylaştırmak için hukuki kesinlik sağlamak,
  • Temel haklar ve yapay zekâ sistemlerine uygulanabilir güvenlik gereksinimleri konusundaki mevcut düzenlemelerin etkin bir şekilde uygulanmasını ve denetlenmesini artırmak;

AB Yapay Zekâ Yasası şunlar için geçerlidir:

  • Üçüncü bir ülkede kurulmuş olduğuna bakılmaksızın AB’de piyasaya sürülen yapay zekâ sistemlerini hizmete sunanlar
  • AB içinde yapay zekâ sistemlerini kullananlar;
  • Yapay zekâ sistemlerinden üretilen çıktıların AB içinde kullanıldığı fakat üçüncü bir ülkede bulunan sistem sağlayıcıları ve kullanıcıları.

Yaptırımlar

AB Yapay Zekâ Yasası, üye devletlerin bir ulusal denetim otoritesi dâhil olmak üzere, düzenlemenin uygulanışını denetlemekle görevli olacak bir veya daha fazla yetkili makam belirlemelerini öngörmektedir. Bununla birlikte, AB düzeyinde üye devletler ve komisyon temsilcilerinden oluşan bir Avrupa Yapay Zekâ Kurulu kurulması da planlanmaktadır.

Ulusal pazar gözetim otoriteleri, yüksek riskli yapay zekâ sistemleri için operatörlerin yükümlülük ve gereksinimlere uygunluğunu değerlendirmekten sorumlu olacaklardır. Bu otoriteler, yapay zekâ sistemlerinin kaynak kodu dâhil olmak üzere gizli bilgilere erişim sağlayacak ve birtakım bağlayıcı gizlilik yükümlülüklerine tabi olacaklardır. AB Yapay Zekâ Yasasına uymayan veya uysa bile kişilerin sağlığına, güvenliğine veya temel haklarına bir risk oluşturan yapay zekâ sistemlerini yasaklama, sınırlama, geri çekme veya geri çağırma konusunda düzeltici tedbirler almak konusunda yetkili olacaklardır.

Yapay Zekâ Yasasına uyumsuzluk durumunda, ihlalin ciddiyetine bağlı olarak değişen ölçeklerde idari para cezaları öngörülmüştür. Bu cezalar en fazla 30 milyon Euro veya toplam dünya çapındaki yıllık gelirin %6'sı olabilecektir. 

  • Kabul edilemez riskli yapay zekâ sistemleri, insanlara tehdit oluşturan sistemlerdir ve yasaklanmalarına karar verilmiştir. Şu yapay zekâ faaliyetleri kabul edilemez risk kapsamında değerlendirilecektir:
  • İnsanların veya belirli savunmasız grupların bilişsel davranışsal manipülasyonu: Örneğin çocuklarda tehlikeli davranışları teşvik eden oyuncaklar
  • Toplumsal puanlama: Davranış, sosyoekonomik durum veya kişisel özelliklere dayalı olarak insanların sınıflandırması
  • Biyometrik tanımlama ve insanların kategorize edilmesi
  • Yüz tanıma gibi gerçek zamanlı ve uzaktan biyometrik tanımlama sistemleri
  • Kabul edilemez riskli yapay zekâ uygulamalarında yasal amaçlar için izin verilebilecek bazı istisnaların olabileceği belirtilmiştir. Örneğin, biyometrik tanımlama sistemlerine mahkeme onayından sonra ciddi suçları kovuşturmak için izin verilebilecektir.
  • Güvenliği veya temel insan haklarını olumsuz yönde etkileyen yapay zekâ sistemlerinin yüksek risk olarak kabul edileceğine karar verilmiştir. Yüksek risk iki farklı kategoride değerlendirilmektedir:
  • I. AB'nin ürün güvenliği mevzuatına tabi ürünlerde kullanılan yapay zekâ sistemleri
  • II. AB veri tabanına kaydedilmesi gereken belirli alanlardaki yapay zekâ sistemleri:
  • Kritik altyapının yönetimi ve işletimi
  • Eğitim ve mesleki eğitim
  • İstihdam, işçi yönetimi ve kendi işine erişim (access to self-employment)
  • Temel özel hizmetlere, kamu hizmetleri ve avantajlarına erişim ve kullanım
  • Kanun uygulayıcılığı
  • Göç, sığınma ve sınır kontrol yönetimi
  • Hukukun yorumlanması ve uygulanması desteği
  • Tüm yüksek riskli yapay zekâ sistemlerinin piyasaya sürülmeden önce ve yaşam döngüleri boyunca değerlendirileceğine karar verilmiştir.
  • Sınırlı riskli yapay zekâ sistemlerinin, kullanıcıların bilinçli kararlar almasına olanak tanıyan şeffaflık gereksinimlerine uyması gerekmektedir. Kullanıcı uygulamalarla etkileşimden sonra kullanıma devam etmek isteyip istemediğine karar verebilir. Kullanıcılar, yapay zekâ ile etkileşimde bulunurken bu konularda bilgilendirilmelidir. Bu risk tanımı özellikle resim ses ve video içeriklerini manipüle ederek hizmet sunan yapay zekâ sistemlerini içermektedir.
  • Düşük veya minimal risk taşıyan tüm diğer yapay zekâ sistemleri, ek yasal yükümlülüklere uymadan AB'de geliştirilebilecek ve kullanılabilecektir. Ancak AB Yapay Zekâ Yasası, yüksek riskli yapay zekâ sistemleri için zorunlu gereksinimleri gönüllü olarak uygulamaya teşvik etmek amacıyla genel bir davranış çerçevesi oluşturmayı öngörmektedir.

AB Yapay Zekâ Yükümlülük Direktifi

  • 28 Eylül 2022 tarihinde Avrupa Komisyonu, Yapay Zekâ Yükümlülük Direktifi için öneri yayımlamıştır. 
  • Yapay Zekâ sistemleri veya kullanımından kaynaklanan sorunlara ilişkin talepleri ele almakta ve hukuki olmayan sorumluluk kurallarını düzenlemeyi amaçlamaktadır.
  • Yapay Zekâ Yükümlülük Direktifi, yapay zekâ tarafından neden olunan zararlar için yeni bir sorumluluk düzenlemesi getirmesi açısından AB Yapay Zekâ Yasasını tamamlayıcı bir yapıya sahiptir.
  • Bu direktif, hukuki kesinlik sağlayarak tüketicilerin yapay zekâ ürünlerine ve hizmetlerine olan güvenini artırmakta ve tüketicilerin yapay zekâ kaynaklı zararlar için tazminat taleplerine yardımcı olmaktadır.
  • Daha detaylı bilgi için AB Yapay Zekâ Yükümlülük Direktifi ile ilgili yazımıza buradan ulaşabilirsiniz. 

Düzenlemenin Mevcut Teknolojilere Etkisi

Yasa kapsamında ChatGPT gibi üretken yapay zekâ hizmeti sağlayıcıları, birtakım şeffaflık gereksinimlerine uymakla yükümlüdür:

  •  Sağladığı içeriğin yapay zekâ tarafından üretildiğini açıklama,
  •   Modeli illegal içerik üretmeye karşı koruma,
  •  Eğitim için kullanılan telif hakkı verilerinin özetlerini yayınlama.

Sistematik risk taşıyan yüksek etkili genel amaçlı yapay zekâ modellerinin ayrıntılı değerlendirmelerden geçmek zorunda olacağı ve ciddi durumların Avrupa Komisyonu'na bildirilmesi gerektiği belirtilmiştir. Bu sistemlere örnek olarak daha gelişmiş bir yapay zekâ modeli olan GPT-4 verilebilir.

Düzenlemeye Dair Son Gelişmeler:

Yasa, 14 Haziran 2023 Avrupa Parlamentosu tarafından 14 Haziran 2023 tarihinde gerçekleştirilen nihai oylamada oyçokluğuyla kabul edilmiştir.

9 Aralık 2023 tarihinde Avrupa Parlamentosu, Yapay Zekâ Yasası konusunda Konsey ile geçici bir anlaşmaya varmıştır. Anlaşılan metnin AB yasası haline gelmesi için resmi olarak hem Parlamento hem de Konsey tarafından kabul edilmesi gerekmektedir. Bu yasa, yapay zekâ teknolojisinin düzenlenmesi ve yönetilmesinde dev bir adım olmakla birlikte ve yapay zekâ kullanımını AB'nin genel dijital stratejisiyle uyumlu hale getirmektedir.

Bizimle İletişime Geçin

Bize ulaşın


Bizi takip edin

İş Dünyasının Bilgi ve Öngörü Kaynağı