Dünyayı eşi benzeri görülmemiş bir şekilde dönüştürmeye başlayan yapay zeka (Artificial Intelligence, AI) günlük hayatımızda her geçen gün daha fazla öne çıkmaya devam ediyor. Beraberinde getirdiği çeşitli endişe ve bilinmezlikler sebebiyle ise, devletler ve yasa koyucular tarafından düzenleme gerektiren bir alan olup olmadığı ise uzun süredir tartışılıyordu. Yapay zekanın hızlı gelişimi karşısında küresel bir standart oluşturma hedefiyle ilk kez 21 Nisan 2021’de Avrupa Komisyonu tarafından Yapay Zekaya Yönelik Uyumlaştırılmış Kuralların Belı̇rlenmesı̇ne İlişkin Yasa Teklifi yayımlanmıştı[1]. Avrupa Komisyonu’nun hazırladığı taslak düzenlemeyi, Aralık 2022’de Avrupa Birliği (“AB”) Konseyi’nin düzenlemeye ilişkin genel yaklaşıma dair kabul edip yayımladığı görüş[2] takip etti. Haziran 2023’te ise, Avrupa Parlamentosu üyelerinin Komisyon’un taslak düzenlemesi üzerinde değişiklik yapılmasına ilişkin yaklaşımı çerçevesinde hazırladıkları taslak çalışma[3] yayımlandı. Bu üç AB kurumu arasında gerçekleşen görüşmeler ve taslak hazırlık çalışmaları neticesinde, kapsamlı bir AB Yapay Zeka Yasası’na ilişkin (EU AI Act) 3 gün süren 36 saatlik bir görüşme maratonu gerçekleşti. Bunun sonucunda Avrupa Birliği Komisyonu, Parlamentosu ve Konseyi tarafından 8 Aralık 2023’te bir anlaşmaya varılarak dünyada yapay zeka regülasyonları konusunda önemli bir adım atıldı[4].
Yapay Zeka Yasası’nın temel taşları böylece kabul edilmiş oldu, ancak yasama sürecinin henüz bitmedi. Yasa’nın nihai metnine ilişkin teknik müzakereler önümüzdeki aylarda gerçekleşecek. Son zamanlarda oldukça popüler olan ve kullanımı yaygınlaşan ChatGPT gibi yapay zeka sistemlerinin nasıl düzenleneceği de dahil olmak üzere, yapay zeka kullanımını düzenleyen önemli AB kuralları teklifi üzerinde geçici bir anlaşmaya varıldı.
AB Yapay Zeka Yasası’nın Amacı
Dönüm noktası olarak gösterilen Yapay Zeka Yasası, Avrupa’da sorumlu inovasyonu teşvik etmeyi ve Avrupa’yı güvenilir yapay zeka için küresel bir merkez haline getirmeyi amaçlıyor. Güvenli, şeffaf, izlenebilir, ayrımcı olmayan ve çevre dostu yapay zeka sistemleri ile sağlık, güvenlik ve temel hakların korunmasını garanti altına alarak, AB’de güvenilir yapay zekanın geliştirilmesini, yaygınlaştırılmasını ve kullanılmasını destekleyeceği belirtiliyor[5]. Yapay Zeka Yasası’nın, küresel kural ve ilkelerin geliştirilmesine önemli bir katkı sağlayacağı düşünülüyor. Yapay zekanın kullanımı regüle edilerek, AB’deki yapay zeka sistemlerinin güvenli olmasının yanı sıra, temel hak ve değerlere saygı gösterilmesi ve hukukun üstünlüğünün korunması amaçlanmakta. Ayrıca, söz konusu Yasa’nın uygulanması; yatırım ve inovasyon ile aynı zamanda yapay zeka için tek bir AB pazarını teşvik edecek.
AB’de Risk Odaklı Yapay Zeka Yaklaşımı
Tüm AB üye ülkelerinde ortak şekilde uygulanacak olan AB Yapay Zeka Yasası, risk temelli bir yaklaşım benimseyecek. Yapay zeka kullanımı kapsamında, AB Temel Haklar Bildirgesi’nde yer alan AB temel haklarını olumsuz etkileyebilmeye dair risk arttıkça, kuralların da o denli katı olması söz konusu. Yasa’ya göre yapay zeka sistemleri; kabul edilemez risk, yüksek risk, spesifik şeffaflık riski/sınırlı risk, minimal risk olmak üzere dört farklı risk kategorisine ayrılıyor:
- Kabul edilemez risk: İnsanların temel haklarına açık bir tehdit olarak görülen bazı yüksek riskli yapay zeka sistemleri yasaklanacak. Bu kapsamda; siyasi, dini, felsefi inançlar, cinsel yönelim, ırk gibi hassas özellikleri kullanan biyometrik kategorizasyon sistemleri, yüz tanıma veri tabanları oluşturmak için internetten veya CCTV sistemlerinden yüz görüntülerinin hedefsiz şekilde alınması, işyerlerinde ve eğitim kurumlarında duygu tanımaya yönelik kullanılan yapay zeka sistemleri, sosyal davranışa veya kişisel özelliklere dayalı sosyal puanlama yapan, insan davranışlarını manipüle ederek özgür iradelerini atlatan yapay zeka sistemleri, insanların yaşları, engelleri, sosyal veya ekonomik durumları nedeniyle zayıflıklarını istismar etmek için kullanılan yapay zeka sistemleri kabul edilemez risk sebebiyle yasaklanacak.
- Biyometrik tanımlama sistemleri ilke olarak yasaklanacak olsa da bu tür sistemlerin kamuya açık alanlarda kolluk kuvvetleri tarafından kullanılmasına yönelik bazı dar istisnalar üzerinde anlaşmaya varıldı. Buna göre, bu sistemler yalnızca önceden resmi izin alındıktan sonra ve kesin olarak tanımlanmış bir suç listesinin kovuşturulması için kullanılabilecek. Örneğin; ciddi bir suçtan aranan biri veya bir kaçırma olayı için hedefli bir arama yapılıyorsa, insan tanımlama için yapay zekanın kullanımına istisnai olarak izin verilebilecek.
- Yüksek risk: Yüksek riskli olarak tanımlanan yapay zeka sistemlerinin; risk yönetim sistemlerinin kurulumu, yüksek kaliteli veri setleri oluşturulması, kayıt tutma, teknik konulara ilişkin belgeleme, sistemin uygun şekilde kullanımı için şeffaflık ve kullanıcılara bilgi sağlanması, gerçek kişiler tarafından denetim ve yüksek düzeyde dayanıklılık, doğruluk ve siber güvenlik dahil olmak üzere katı gerekliliklere uyması gerekecek.
- Bu tür yüksek riskli yapay zeka sistemlerine; su, gaz ve elektrik sektörleri gibi belirli kritik altyapılar, tıbbi cihazlar, eğitim kurumlarına erişim ve kabul için adayları değerlendirme, işe alımlarda adayların seçimine yönelik yararlanılan sistemler veya kolluk kuvvetleri, sınır kontrolü, yasaların uygulanması, adaletin ve demokratik süreçlerin idaresine yönelik alanlarda kullanılan belirli sistemler örnek olarak verilebilir. Bu çerçevede bazı yapay zeka sistemlerinin demokrasi, hukukun üstünlüğü, bireysel özgürlüklerin yanı sıra, etkili başvuru hakkı ve adil yargılanma hakkı üzerindeki muhtemel önemli etkileri göz önünde bulundurularak yüksek riskli olarak sınıflandırılması gerektiği belirtiliyor.
- Spesifik şeffaflık riski: Sohbet robotları (chatbot) gibi yapay zeka sistemleri kullanılırken, kullanıcıların bir makine ile etkileşime girdiklerinin farkında olmaları gerektiği belirtiliyor. Deepfake veya diğer yapay zeka oluşumlu içeriklerin bunu gösterir şekilde etiketlenmesi ve biyometrik sınıflandırma veya duygu tanıma sistemleri kullanıldığında kullanıcıların bilgilendirilmesi gerekecek. Ayrıca, sağlayıcıların sistemleri sentetik ses, video, metin ve görüntü içeriğinin makine tarafından okunabilir bir formatta işaretleneceği ve yapay olarak üretildiği veya manipüle edildiği tespit edilebilecek şekilde tasarlamaları gerekecek.
- Minimal risk: Yapay zeka sistemlerinin büyük çoğunluğu minimum risk kategorisine girmekte. Yapay zeka destekli öneri sistemleri veya spam filtreleri gibi minimum riskli uygulamalar, insan hakları veya güvenliği için yalnızca minimum risk oluşturduğundan veya hiç risk oluşturmadığından yükümlülükleri olmayacak. Gönüllülük esasına göre, şirketler yine de bu yapay zeka sistemleri için ek davranış kuralları taahhüt edebilecek.
Yapay Zeka Yasası’na Uymamanın Yaptırımı Ne Olacak?
Yasadaki kurallara uymayan şirketlere para cezası uygulanacak. Cezalar, yasaklanan yapay zekâ uygulamalarının ihlalleri için 35 milyon Avro veya global yıllık cironun %7’si (hangisi daha yüksekse), diğer yükümlülüklerin ihlalleri için 15 milyon Avro veya %3 ve yanlış bilgi sağlanması halinde 7,5 milyon Avro veya %1,5 arasında değişecek. KOBİler ve start-up şirketler için Yapay Zeka Yasası’nın ihlali halinde, idari para cezaları konusunda daha orantılı sınırlar öngörülüyor.
Yapay Zeka Konusunda Avrupa’dan Bir İlk Daha: Avrupa Yapay Zeka Ofisi
AB üye ülkelerindeki ulusal piyasa gözetim otoriteleri, yeni kuralların ulusal düzeyde uygulanmasını denetleyecek. Avrupa Komisyonu bünyesinde yeni bir Avrupa Yapay Zeka Ofisi kurulması ise, Avrupa düzeyinde koordinasyonu sağlayacak. Yeni Yapay Zeka Ofisi, genel amaçlı yapay zeka modellerine ilişkin yeni kuralların uygulanmasını ve yürütülmesini de denetleyecek. Yapay Zeka Ofisi’nin, bu konuda bağlayıcı kuralları uygulayan ilk organ olması bakımından uluslararası bir referans noktası haline gelmesi bekleniyor.
AB Yapay Zeka Yasası Ne Zaman Yürürlüğe Giriyor?
AB Komisyonu Başkanı Ursula von der Leyen tarafından “dünyada bir ilk” ve “tarihi”[6] olarak nitelendirilen AB Yapay Zeka Yasası’nın nihai metninin resmi olarak 2024’ün başlarında onaylanması bekleniyor. Henüz nihai hale getirilmemiş olan yasa metnine dair geçici anlaşma, belirli hükümler için bazı istisnalar dışında, Yapay Zeka Yasası’nın yürürlüğe girmesinden iki yıl sonra uygulanmasını öngörüyor. Dolayısıyla Yasa, 2026 yılında bütünüyle uygulama alanı bulacak. İstisnalar kapsamında, Yasa tarafından öngörülen yasaklar 6 ay sonra uygulanmaya başlayacak, Genel Amaçlı Yapay Zeka’ya ilişkin hükümler ise 12 ay sonra uygulanacak.
Yapay Zeka Yasası’na İlişkin Bizi Başka Neler Bekliyor?
Yasa resmi olarak onaylanıp yürürlüğe girdikten sonra, genel olarak uygulanabilir hale gelmesinden önceki geçiş döneminde bir köprü oluşturmak amacıyla, Avrupa Komisyonu tarafından gönüllü olarak temel yükümlülükleri uygulamayı taahhüt eden Avrupa ve dünyadan yapay zeka geliştiricilerini bir araya getiren bir Yapay Zeka Paktı (AI Pact) oluşturulacak.
Son zamanlarda dünya gündeminde oldukça önemli ve ilgi çekici bir yere sahip olan yapay zeka düzenlemelerine ilişkin gelişmeleri takip edip incelemeye devam edeceğiz.
[1] https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206, Son erişim tarihi: 16.12.2023
[2] https://www.consilium.europa.eu/en/press/press-releases/2022/12/06/artificial-intelligence-act-council-calls-for-promoting-safe-ai-that-respects-fundamental-rights/, Son erişim tarihi: 19.12.2023
[3] https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.html, Son erişim tarihi: 19.12.2023
[4] Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world – Consilium (europa.eu), Son erişim tarihi: 17.12.2023
[5] EU AI Act: first regulation on artificial intelligence | News | European Parliament (europa.eu), Son erişim tarihi: 17.12.2023
[6] Statement by President von der Leyen on the AI Act (europa.eu), Son erişim tarihi: 17.12.2023