Yapay Zekâ Gündemdeyken: Avrupa Birliği Yapay Zekâ Yasasının Yıl Dönümünde Yasaya Bakış
I. Giriş
Avrupa Birliği (“AB”) tarafından hazırlanan ve yapay zekâya ilişkin ilk yasal düzenleme olan Yapay Zekâ Yasası (“Yasa”) (Artificial Intelligence Act.) 13 Mart 2024 tarihinde Avrupa Parlamentosu’nda kabul edilerek Avrupa Birliği tarafından 21 Nisan 2024’te onaylanmıştı. Yapay Zekâ Yasası, geçtiğimiz yıl 1 Ağustos 2024’te AB’nin Resmî Gazetesinde yayımlanarak yürürlüğe girmiştir.
Her gün yapay zekanın özellikle hukuk ile kesişiminde dünya genelinde gelişmeler yaşanırken; yaklaşık bir sene önce yayımlanmış olan ve 2 Yasa’nın bir kısım önemli hükümlerinin yürürlüğe girmesiyle birlikte Yasa’nın getirdiklerini yakından incelemenin ve Yasa’nın yayımlanması sonrasındaki bu gelişmeleri aktarmanın faydalı olacağını düşünüyoruz.
Yasa’nın tam metnine buradan ulaşabilirsiniz.
II. Tanım, Amaç ve Kapsam
Yasa’ya göre yapay zekâ; farklı düzeylerde özerklikle çalışmak üzere tasarlanan, aldığı girdilerden çıkarımlar yaparak tahminler, içerikler, öneriler veya fiziksel ya da sanal ortamları etkileyebilecek kararlar gibi çıktılar üreten makine tabanlı bir sistemi ifade eder.
Yasa’nın 1. maddesine göre amaç; AB değerleriyle uyumlu bir şekilde iç pazarın işleyişini iyileştirmek, insan odaklı ve güvenilir yapay zekâ sistemlerinin benimsenmesini teşvik etmek, Avrupa Birliği Temel Haklar Şartı’nda vurgulanan demokrasi, hukukun üstünlüğü ve çevre koruma dahil olmak üzere sağlık, güvenlik ve temel hakların yüksek düzeyde korunmasını sağlamak, yapay zekâ sistemlerinin AB genelinde zararlı etkilerine karşı koruma sağlamak ve yenilikleri desteklemektir.
Yasa, yapay zekâ sistemlerinin güvenli ve şeffaf olmasını amaçlayan geniş kapsamlı bir yasal çerçeve niteliğindedir. Yasa ile bireylerin hak ve özgürlükleri korunurken küresel çapta bir standart oluşturması hedeflenmektedir. Bu kapsamda Yasa; yüksek risk içeren yapay zekâ uygulamaları için risk değerlendirmesi, şeffaflık önlemleri ve temel insan haklarına uyum gibi her spektrumdan çokça yükümlülük içermektedir.
Yasa temel olarak, yapay zekâ sistemlerinin kullanımına yönelik küresel ve ortak kurallar oluşturulmasını hedeflemekte ve bu amaç doğrultusunda aşağıdaki düzenlemeleri içermektedir:
- Yapay zekâ sistemlerinin AB sınırları içinde piyasaya sürülmesine, hizmet kapsamına alınmasına ve kullanılmasına ilişkin uyumlaştırmaya yönelik kurallar belirlenmiştir. Geçtiğimiz süreçte, AB Yapay Zeka Ofisi ile Yapay Zeka Kurulu’nun da kurulmasıyla birlikte denetim altyapısı geliştirilmiş ve bu yapı Ağustos 2025 itibariyle devreye girmiştir. Yapay Zeka Ofisi; “Yapay Zeka ve Robotikte Mükemmellik”, “Düzenleme ve Uyumluluk”, “AI Güvenliği”, “Yapay Zeka İnovasyonu ve Politika Koordinasyonu” ve “Toplumsal Fayda İçin Yapay Zeka” olmak üzere beş adet birimden oluşmaktadır. Yapay Zeka Ofisi’nin görevleri arasında; Yasa’yı desteklemek, yapay zeka kurallarını uygulamak, güvenilir yapay zekanın geliştirilmesi ve kullanımının güçlendirilmesi ve uluslararası iş birliğinin teşvik edilmesi sayılmıştır. Yapay Zeka Kurulu ise; Avrupa Birliği üye devletlerinin temsilcilerinden oluşan ve Avrupa Komisyonu bünyesindeki Yapay Zeka Ofisi tarafından desteklenen bir danışma organıdır. Kurulun temel görevi; ulusal yetkililer arasında koordinasyonu sağlayarak teknik ve düzenleyici uzmanlıkların paylaşımını teşvik etmek, yapay zeka politikaları, inovasyon ve uluslararası iş birlikleri konularında tavsiyelerde bulunmak ve böylece Yasa’nın AB genelinde etkili ve tutarlı şekilde uygulanmasına katkıda bulunmaktır.
- Belirli yapay zekâ uygulamalarının kullanımının yasaklanacağı öngörülmüştür. Bu doğrultuda “kabul edilemez risk” kategorisindeki yapay zeka uygulamaları 2 Şubat 2025’ten itibaren kesin olarak yasaklanmış olup AB Komisyonu bunlarla ilgili yeni rehberler yayımlamıştır.
- Yüksek riskli yapay zekâ sistemleri için özel gereklilikler ve bu sistemleri kullanan işletmelere yönelik yükümlülükler getirileceği düzenlenmiştir. 2 Şubat 2026 itibarıyla, yüksek riskli sistemler için resmi rehberler yayımlanması; bu sistemler için zorunlu uyumluluk, teknik dokümantasyon anlamında denetimlerin başlatılması beklenmektedir.
- Belirli yapay zekâ sistemleri için uyumlaştırılmış şeffaflık kuralları düzenleneceği öngörülmüştür. Yasa kapsamında, “sınırlı riskli” sistemler için (ör. deepfake, yapay içerik) kullanıcıya “yapay zeka ile üretildi” bilgisinin verilmesi zorunlu hâle getirilmiştir. Ayrıca, şeffaflık yükümlülüklerinin uygulamasına ilişkin kılavuz rehberin Komisyon tarafından hazırlanacağı da Yasa’da hüküm altına alınmıştır ancak bu kılavuz rehber henüz yayımlanmamıştır.
- Genel amaçlı yapay zekâ modellerinin (“GPAI”) piyasaya sürülmesine yönelik uyumlaştırılmış kurallar getirileceği düzenlenmiştir. 22 Nisan 2025’te GPAI sağlayıcılarına yönelik ön rehberler yayımlanmıştır. Bu rehberlerde model tanımı, tedarikçi tanımı, eğitim verisi özetleri, telif uyumu, sistemsel risk değerlendirmesi gibi başlıklar yer almaktadır. GPAI için şeffaflık kuralları 2 Ağustos 2025 tarihinde yürürlüğe girmiştir. Bu tarihten itibaren, GPAI modellerini AB pazarına sunan sağlayıcılar, şeffaflık ve telif hakkı yükümlülüklerine uymak zorundadır. 2 Ağustos 2025’ten önce piyasaya sürülmüş modellerin ise, en geç 2 Ağustos 2027 tarihine kadar ilgili yükümlülüklere uyum sağlaması gerekmektedir.
- Pazar gözetimi, piyasa denetimi, yönetişim ve yaptırımlara ilişkin kurallar düzenlenmiştir.
- Yeniliği teşvik etmek için gerekli önlemler alınacağı hüküm altına alınmıştır.
Yasa’nın 2. maddesi, yasal düzenlemenin kapsamı net bir şekilde belirlemektedir. Yasa;
- AB sınırları içinde veya üçüncü bir ülkede kurulmuş veya yerleşik olup olmadığına bakılmaksızın, yapay zekâ sistemlerini piyasaya süren ya da hizmete sunan sağlayıcılar için,
- AB sınırları içinde yerleşik olan veya faaliyet gösteren yapay zekâ sistemlerini devreye alanlar için,
- Üçüncü bir ülkede yerleşik olan veya faaliyet gösteren, ancak yapay zekâ sisteminin ürününün AB sınırları içinde kullanıldığı durumlarda ilgili sağlayıcılar ve devreye alanlar için,
- Yapay zekâ sistemlerinin ithalatçıları ve dağıtıcıları için,
- Ürünlerini kendi adı veya ticari markası altında piyasaya süren veya hizmete sunan ve bu ürünlerle birlikte bir yapay zekâ sistemi sağlayan ürün üreticileri için,
- AB içinde kurulu olmayan sağlayıcıların yetkili temsilcileri için
uygulama alanı bulacaktır. Bu düzenleme, Yasa’nın yalnızca AB sınırları içinde değil, küresel ölçekte yapay zekâ alanını etkilediğini ve uluslararası anlamda bir kapsamı olduğunu, neredeyse her süjeyi ilgilendirdiğini açıkça ortaya koymaktadır.
Bununla birlikte Yasa; yalnızca askeri, savunma veya ulusal güvenlik amaçlarıyla piyasaya sürülen, hizmete sunulan veya kullanılan yapay zekâ sistemlerine uygulanmayacaktır.
III. Yasa’nın Yıl Dönümünde Geçtiğimiz Sürece Bakış
- Yasa, 1 Ağustos 2024’te yürürlüğe girerek AB’de yapay zekâya ilişkin kapsamlı bir yasal çerçeve oluşturdu.
- 2 Şubat 2025’te yasaklanan yapay zeka uygulamaları ve yapay zekâ okuryazarlığına ilişkin hükümler devreye girdi.
- 2 Ağustos 2025 itibarıyla genel amaçlı yapay zekâ sistemleri için şeffaflık, güvenlik ve telif yükümlülükleri uygulanmaya başlandı.
- Sivil toplum kuruluşları, şeffaflık eksikliği, lobi etkisi ve bazı üye devletlerin, özellikle Macaristan’ın biyometrik gözetim uygulamaları, nedeniyle eleştiriler yöneltti.
- Avrupa Komisyonu, sağlayıcılara uyum sürecinde yardımcı olmak için bu yazıda da yer verilen kılavuzlar, uygulama rehberleri ve şeffaflık şablonları yayımladı.
- AB Yapay Zeka Ofisi gibi yeni kurumlar etkinleşti; yapay zekâ düzenlemeleri için uyum standartları, rehberler ve teknik araçlar geliştirme çalışmaları devam ediyor.
- Gigafabrikalar, yatırım fonları ve uluslararası iş birlikleri aracılığıyla teknolojik rekabet gücünün artırılması hedefleniyor.
- Yasa’nın yürürlüğü ve uygulamasıyla birlikte telif hakları, şeffaflık ve “explainability” (açıklanabilirlik) konuları, kullanıcı hakları ve kamu denetimi açısından öncelikli gündem maddeleri arasında öne çıkıyor.
- 2 Ağustos 2026 itibariyle Yasa’nın tüm hükümlerinin tamamen yürürlüğe girmesi bekleniyor.
- 2027 itibariyle yüksek riskli yapay zekâ sistemleri için tam uyum zorunluluğu başlayacak.
Sürecin başarısı, uygulamadaki şeffaflık, denetim mekanizmalarının etkinliği ve sivil toplum katılımı ile doğrudan bağlantılı olacak.
Geçtiğimiz süreçte Yasa’ya uyum için üye devletler tarafından da bazı adımlar atıldı:
- İspanya: İspanya, kapsamlı bir yapay zekâ düzenleme çerçevesi oluşturmak amacıyla aktif çalışmalar yürütmektedir. Yasa’yı uygulayacak ve tamamlayacak, ayrıca yerel bir yaptırım rejimi tesis edecek olan “Yapay Zekânın İyi Kullanımı ve Yönetimi” başlıklı bir yasa hazırlamaktadır. Tasarının ilk versiyonu (Anteproyecto de Ley para el Buen Uso y la Gobernanza de la IA), 11 Mart 2025 tarihinde İspanya Bakanlar Kurulu tarafından onaylanmıştır. Ek olarak; bakanlar kurulu, yapay zekâ şirketlerinin içeriklerini doğru şekilde etiketlememeleri durumunda 35 milyon avroya kadar para cezası uygulanmasını öngören bir yasa tasarısını da kabul etmiştir.
- Finlandiya: Finlandiya’da ulusal otoritelerin görevlerine, onaylanmış kuruluşların (notified bodies) belirlenmesine ve yaptırımlara ilişkin düzenlemeleri içeren ulusal mevzuat bu tarihe kadar yürürlüğe girmemiş olacaktır. Hükûmet, 8 Mayıs 2025 tarihinde AI Act’in uygulanmasını destekleyici ulusal mevzuat tasarısını parlamentosuna sunmuştur. Tasarı hâlen görüşülmekte olduğundan, 2 Ağustos 2025 itibarıyla Finlandiya’da şu düzenlemeler henüz uygulanamayacaktır: (i) AI Act’e aykırı davranışlara ilişkin yaptırımlar, (ii) ulusal otoriteler tarafından yürütülecek denetim faaliyetleri ve (iii) onaylanmış kuruluşların belirlenmesine ilişkin prosedürler.
- Danimarka: Danimarka, Yasa hükümlerini uygulayan ulusal mevzuatı kabul eden ilk AB üye devleti olarak düzenleyici bir lider konumuna gelmiştir. Danimarka Parlamentosu, 8 Mayıs 2025 tarihinde, yapay zekâ düzenlemelerinin uygulanması için gerekli yönetim çerçevesini belirleyen kapsamlı bir yasayı kabul ederek, 2 Ağustos 2025 son teslim tarihiyle karşı karşıya olan diğer üye devletler için emsal oluşturmuştur. Kabul edilen mevzuata göre, Danimarka denetim mekanizmasını üç ulusal yetkili makam etrafında yapılandırmıştır: (i) Dijital Hükûmet Ajansı (Digitaliseringsstyrelsen), (ii) Danimarka Veri Koruma Kurumu (Datatilsynet) ve (iii) Danimarka Mahkeme İdaresi (Domsstolsstyrelsen).
- Polonya: 10 Şubat 2025 tarihinde, Polonya’da AB Yapay Zekâ Tüzüğü’nün uygulanmasına yönelik revize edilmiş bir yapay zekâ sistemleri taslak yasası yayımlanmıştır. Bu tasarı, kamuoyu istişareleri sürecinde alınan geri bildirimler doğrultusunda yapılan değişiklikleri içeren ikinci versiyondur.
IV. Yasaklanan Yapay Zekâ Uygulamaları
Yasa’nın 5. maddesinde, AB değerleriyle ters düşen ve kullanılması yasaklanan yapay zekâ uygulamaları düzenlenmiştir. Yasa’nın ilgili maddesine ek olarak; AB Komisyonu tarafından yayımlanan 4 Şubat 2025 tarihli “Yapay Zekâ Yasası Kapsamında Yasaklanmış Yapay Zekâ Uygulamalarına İlişkin Komisyon Rehberi”nde (“Rehber”), yasaklanan yapay zekâ uygulamalarının içeriği net bir biçimde belirlenmiştir. Yasa ve Rehber’e göre yasaklanan yapay zeka uygulamaları aşağıdaki şekilde sıralanabilecektir.
- Manipülatif veya kasıtlı teknikler kullanılmak suretiyle bir kişinin ya da grubun davranışlarını çarpıtarak karar alma yeteneğini zedeleyip zarar oluşturma olasılığına yol açabilecek yapay zekâ sistemleri,
- Yaş, engellilik veya sosyal ya da ekonomik kırılganlıklardan yararlanarak bir kişi veya grubun davranışlarını çarpıtıp önemli zarar oluşturma olasılığı taşıyan yapay zekâ sistemleri,
- Kişilerin veya grupların sosyal davranışları ya da kişisel özellikleri temelinde değerlendirilmesi veya sınıflandırılması yoluyla sosyal skor üreten yapay zekâ sistemleri,
- Kişisel profilleme veya kişilik değerlendirmesi yoluyla bireylerin suç işleme riskini tahmin etmek amacıyla geliştirilen, piyasaya sürülen, hizmete sunulan veya kullanılan yapay zekâ sistemleri,
- İnternetten rastgele yüz görüntüleri toplayarak yüz tanıma veri tabanları oluşturan veya genişleten yapay zekâ sistemleri (Rehber ile detaylandırıldığı üzere bu tür yapay zeka sistemlerinin yasak kapsamında kalması için; (i) uzaktan biyometrik tanımlama sistemi kullanılmalı, (ii) bu sistem gerçek anlamda ”kullanılmalı”, (iii) kullanım “gerçek zamanlı” olmalı, (iv) kullanım kamuya açık alanlarda yapılmalı ve (v) amaç, kolluk kuvvetlerinin faaliyetleri kapsamında olmalı),
- Tıbbi veya güvenlik amaçları dışında, çalışma ortamlarında veya eğitim kurumlarında bireylerin duygularını tahmin etmek için kullanılan yapay zekâ sistemleri,
- Hukuka uygun olarak elde edilen verilerin filtrelenmesi ya da kolluk kuvvetleri tarafından sınıflandırılması hariç olmak üzere, biyometrik veriler kullanılarak bireylerin ırkı, politik görüşleri, sendika üyelikleri, dini veya felsefi inançları, cinsel yaşamı veya cinsel yönelimlerini belirlemek amacıyla sınıflandırma yapan yapay zekâ sistemleri,
- Kamusal alanlarda kolluk kuvvetleri tarafından gerçek zamanlı olarak uzaktan biyometrik tanımlama amacıyla kullanılan yapay zekâ sistemleri; yalnızca belirli mağdurların hedefli olarak aranması, belirli tehditlerin önlenmesi veya belirli suç şüphelilerinin aranması istisnaları dışında yasaklamıştır.
Rehber’in tam metnine buradan ulaşabilirsiniz.
V. Yüksek Riskli Yapay Zekâ Sistemleri
AB’nin Yasa’nın hazırlanmasında temel odak noktalarından biri, yüksek riskli yapay zekâ sistemleridir. Yüksek riskli yapay zekâ sistemlerine ilişkin düzenlemeler, Yasa’nın 3. kısmında düzenlenmiştir. Bu başlık altında, güvenlik, sağlık ve temel haklara yönelik ihlaller oluşturma riski taşıyan yapay zekâ sistemlerine dair kurallar belirlenmiştir.
Yasa’nın 6/1 maddesi kapsamında, bağımsız olarak piyasaya sürülen veya hizmete sunulan bir yapay zekâ sistemi; (a) ve (b) bendinde sayılan ve aşağıda alıntılanan iki şartı da karşılaması durumda yüksek riskli olarak kabul edilecektir:
- Yapay zekâ sistemi, EK I’de listelenen AB uyum mevzuatı kapsamında bir ürünün güvenlik bileşeni olarak kullanılmak üzere tasarlanmışsa veya yapay zekâ sistemi, bu mevzuata tabi bir ürünün kendisiyse,
- Yapay zekâ sistemi, EK I’de listelenen AB uyum mevzuatına uygun olarak piyasaya sunulması veya hizmete alınması amacıyla üçüncü taraf uygunluk değerlendirmesine tabi tutulması gereken bir ürünün güvenlik bileşeni olarak tasarlanmışsa veya yapay zekâ sistemi, bu tür bir ürünün kendisiyse
yüksek riskli yapay zeka sistemi olarak kabul edilecektir.
Yasa’nın 6/1 maddesine ek olarak, EK III’te düzenlenen, aşağıdaki yapay zekâ sistemleri de yüksek riskli kategorisinde değerlendirilmiştir
- Uzaktan biyometrik tanıma sistemleri, hassas veya korunan niteliklere göre biyometrik sınıflandırma için kullanılan yapay zekâ sistemleri,
- Duygu tanıma için kullanılan yapay zekâ sistemleri,
- Kritik dijital altyapının, yol trafiğinin veya su, gaz, ısıtma ya da elektrik arzının operasyonunda güvenlik bileşeni olarak kullanılan yapay zekâ sistemleri,
- Eğitim kurumlarına erişim, kabul veya atama süreçlerinin belirlenmesi; eğitim çıktılarının değerlendirilmesi, kişilere uygun eğitim seviyesinin belirlenmesi ve sınavlar esnasında yasaklanan davranışların izlenmesi ve tespit edilmesi amacıyla kullanılan yapay zekâ sistemleri,
- İşe alım veya seçim sürecinde, özellikle adayları değerlendirmek amacıyla; işle ilgili ilişkilerin şartlarını, çalışanların terfi veya işten çıkarılmasına ilişkin karar almak ya da performans değerlendirmek için kullanılan yapay zekâ sistemleri,
- Kamu otoritelerince sağlanan yardımlara ilişkin olarak kişilerin bu yardıma uygunluğunu değerlendirmek veya bu yardımları azaltmak ya da geri almak için kullanılan yapay zekâ sistemleri,
- Mali dolandırıcılığın tespiti haricinde kişilerin kredi skorunu belirlemek amacıyla kullanılan yapay zekâ sistemleri,
- Hayat ve sağlık sigortasıyla ilgili risk değerlendirme ve fiyatlandırma için kullanılan yapay zekâ sistemleri,
- Kişilerin suç mağduru olma riskini değerlendirmek ve ceza soruşturması veya kovuşturması esnasında delillerin güvenilirliğini değerlendirmek için kullanılan yapay zekâ sistemleri,
- İltica, vize veya oturma izni başvurularının incelenmesi ve uygunluğun değerlendirilmesi için kullanılan yapay zekâ sistemleri,
- Yargı otoritelerine hukuki araştırma, yasa yorumlama ve yasa uygulama konularında yardımcı olmak için kullanılan yapay zekâ sistemleri,
- Seçimlerin, referandumların veya bireylerin oy vermelerini etkilemek amacıyla kullanılan yapay zekâ sistemleri.
VI. Yüksek Riskli Yapay Sistemlerinin Sağlayıcılarına İlişkin Yükümlülükler
Yasa aynı zamanda, yüksek riskli yapay zekâ sistemlerinin sağlayıcılarına yönelik yükümlülükleri düzenlemektedir. Yükümlülüklerin esasen yüksek riskli yapay zekâ sistemlerini geliştiren, piyasaya süren veya hizmete sunan sağlayıcılara odaklandığı görülmektedir. Amaç, bu tür sistemlerin güvenli, etik ve AB mevzuatına uygun bir şekilde kullanılmasını sağlamaktır.
Sağlayıcıların yükümlülükleri temel olarak aşağıdaki gibidir:
- Yasa’nın 9. maddesi uyarınca, yüksek riskli yapay zekâ sistemleri için bir risk yönetim sistemi kurulması gerekmektedir. Bu sistem, sağlık, güvenlik ve temel haklara yönelik öngörülebilir riskleri belirlemeli, değerlendirmeli ve belgeleyerek muhafaza etmelidir.
- Yasa’nın 10. maddesine göre, yapay zekâ sistemlerinin eğitiminde yüksek kaliteli, doğrulanmış ve test edilmiş veri kümeleri kullanılmalıdır.
- madde uyarınca, yüksek riskli yapay zekâ sistemlerinin teknik dokümantasyonu hazırlanmalı ve sürekli güncel tutulmalıdır. Teknik belgeler, sistemlerin Yasa’daki gerekliliklere uygunluğunu göstermeli ve ulusal otoritelere açık, anlaşılır bilgiler sunmalıdır.
- maddeye göre, yüksek riskli yapay zekâ sistemleri, sistem ömrü boyunca olayların otomatik olarak kaydedilmesine (loglama) olanak sağlayacak şekilde tasarlanmalıdır.
- Yasa’nın 13. maddesine göre; yüksek riskli yapay zekâ sistemlerinin şeffaflık ilkesine uygun şekilde geliştirilmesi gerekmektedir. Sistemler, anlaşılır, doğru ve kapsamlı bilgileri dijital formatta sunmalıdır.
- Yasa’nın 14. maddesi uyarınca yüksek riskli yapay zekâ sistemleri, uygun insan-makine arayüzleri dahil, insanlar tarafından denetlenebilir şekilde tasarlanmalı ve geliştirilmelidir. İnsan gözetimi, kötüye kullanımı önlemeyi ve sağlık, güvenlik ya da temel haklara yönelik riskleri en aza indirmeyi hedeflemektedir.
- Yüksek riskli yapay zekâ sistemleri; doğruluk, sağlamlık ve siber güvenlik ilkelerine uygun şekilde geliştirilmelidir. Bu kriterlerin kullanım süresi boyunca tutarlı bir şekilde sağlanması gerekmektedir.
- Yasa’nın 17. maddesi gereğince; yüksek riskli yapay zekâ sistemlerinin sağlayıcıları bir kalite yönetim sistemi oluşturmak zorundadır. Sistem, yazılı politikalar, prosedürler ve talimatlar içermeli ve yapay zekânın kullanım ömrü boyunca güncel tutulmalıdır.
Bu doğrultuda, 2 Ağustos 2025 tarihi itibarıyla, her üye devlet, uygunluk değerlendirme kuruluşlarının atanması ve bildirilmesi ile bunların izlenmesine ilişkin gerekli prosedürlerin kurulmasından ve uygulanmasından sorumlu en az bir bildirim otoritesi belirleme veya oluşturma yükümlülüğü altına girmiştir. 2 Şubat 2026 itibarıyla ise, yüksek riskli sistemler için resmi rehberler yayımlanması; bu sistemler için zorunlu uyumluluk, teknik dokümantasyon gibi denetimlerin başlatılması beklenmektedir. [EA1.1][AE251.2]2 Ağustos 2027 itibariyle ise, yüksek riskli yapay zekâ sistemlerine ilişkin sınıflandırma kuralları ve buna karşılık gelen yükümlülükler yürürlüğe girecektir.
VII. Yapay Zekâ Alanında İnovasyonun Desteklenmesi İçin Alınan Tedbirler
Bu kapsamda; İspanya, Yasa’nın kabul edilmesinin ardından 2024 yılında bir yapay zekâ regülasyon kum havuzu başlatan ilk ülke olmuştur. İspanyol programı, Mayıs 2025’te yapay zekâ ve hukuk uzmanlarının liderliğinde düzenlenen atölye çalışmalarıyla başlamıştır. Kum havuzları; yenilikçi yapay zekâ sistemlerinin piyasaya sürülmeden önce geliştirilmesi, eğitilmesi, test edilmesi ve doğrulanması için oluşturulan kontrollü test ortamlarıdır. Kum havuzlarının amacı; bu alanda çalışan kişiler için hukuki belirliliği artırmak, yeniliği ve rekabeti teşvik etmek, ulusal makamların yapay zekâ sistemleri üzerindeki gözetimini artırmak ve yapay zekâ sistemlerinin AB pazarına erişimini kolaylaştırmaktır. Ulusal yetkili makamlar ise; kum havuzu içimde rehberlik, gözetim ve destek sağlayarak temel haklar, sağlık ve güvenlik için risklerin belirlenmesi, test edilmesi, azaltıcı önlemler ve bu önlemlerin Yasa kapsamındaki yükümlülüklere ve gerekliliklere uygunluğu üzerindeki etkileri konusunda yardımcı olacaktır.
VIII. Cezalar
Yasa’nın [EA1.1][AE251.2]12. bölümü, Yasa düzenlemelerini ihlal eden davranış ve işlemlere uygulanacak yaptırımlar ve idari para cezalarını düzenlemektedir. Bu cezaların etkili, orantılı ve caydırıcı olması gerektiği açıkça belirtilmiştir. Uygulanacak cezalar, ihlalin niteliğine bağlı olarak farklı kategorilere ayrılmıştır:
- Yasa’nın 5. maddesinde düzenlenen yasaklanan yapay zekâ sistemlerine yönelik kuralların ihlali durumunda, 35.000.000 Euro’ya kadar idari para cezası uygulanır. Kural ihlalini gerçekleştirenin bir işletme olması durumunda, önceki mali yıl için dünya çapındaki toplam yıllık cirosunun %7’sine kadar idari para cezası da uygulanacaktır.
- Yasa’da düzenlenen diğer yükümlülüklere aykırılık halinde en fazla 15.000.000 Euro’ya kadar idari para cezası uygulanır. Yükümlülüklere aykırı davrananın bir işletme olması durumunda önceki mali yıl için dünya çapındaki toplam yıllık cirosunun %3'üne kadar idari para cezasına tabi olacaktır.
- Ulusal anlamda yetkili makamlara yanlış, eksik veya yanıltıcı bilgi sunulması halinde ise 7.500.000 Euro’ya kadar idari para cezası uygulanır. Kuralı ihlal edenin bir işletme olması durumunda, bir önceki mali yıl için dünya çapındaki toplam yıllık cirosunun %1'ine kadar idari para cezasına tabidir.
İdari para cezasının uygulanıp uygulanmayacağına ve cezanın miktarına karar verilirken, yapay zekâ sisteminin amacı, ihlalin sonuçlarının niteliği, ciddiyeti ve süresi dikkate alınacaktır. Ayrıca, ihlali gerçekleştiren işletmenin pazar payı, daha önce yaptırım uygulanıp uygulanmadığı ve ihlalin yarattığı olumsuz etkileri azaltmak için ulusal makamlarla yaptığı iş birliğinin derecesi değerlendirilecektir. İhlalin kasıtlı mı yoksa ihmal sonucu mu gerçekleştiği ve yetkili makamlara nasıl ve ne zaman bildirildiği gibi hususlar da göz önünde bulundurulacaktır. Bu unsurlar, her bir durumun koşullarına uygun, adil ve etkili bir yaptırım sürecinin yürütülmesini sağlamak amacıyla değerlendirmeye alınacaktır.
Yasa uyarınca, üye devletler, kendi ülkelerinde bulunan kamu otoritelerine idari para cezası uygulanıp uygulanamayacağını ve uygulanacaksa kapsamını kendileri belirleyecektir. Ayrıca, idari para cezalarının hangi makam tarafından uygulanacağı da her üye devletin hukuk sistemine bağlıdır; bu cezalar yetkili ulusal mahkemeler veya diğer yetkili kurumlar tarafından verilebilir ancak hangi yöntem seçilirse seçilsin, uygulamanın eşdeğer etki doğurması zorunludur. Bu yetkilerin kullanımı, AB ve ulusal hukukta öngörülen usuli güvencelere, özellikle etkili yargı yolları ve adil yargılanma hakkına tabi olacaktır. Üye devletler ayrıca, her yıl Komisyon’a verilen idari para cezaları, açılan davalar ve başlatılan yargı süreçlerine ilişkin rapor sunmakla yükümlüdür.
IX. Yasa’nın Yürürlüğü
Yasa, 01.08.2024 tarihinde Avrupa Birliği Resmî Gazetesi’nde yayımlanarak yürürlüğe girmiştir. Ancak Yasa’nın tam anlamıyla uygulanabilir hale gelmesi, yürürlük tarihinden itibaren iki yıl içerisinde kademeli olarak gerçekleştirilmesi planlanmıştır.
- Yasaklanan yapay zekâ sistemlerine ilişkin hükümler, 2 Şubat 2025 tarihinde yürürlüğe girmiştir.
- Genel Amaçlı Yapay Zekâ sistemlerine ilişkin hükümler, 2 Ağustos 2025 tarihinde yürürlüğe girmiştir.
- Yükümlülüklerin ihlali durumunda uygulanacak ceza hükümleri, 2 Ağustos 2025'te yürürlüğe girmiştir.
- AB Komisyonu, Yasa’nın pratik uygulamasını belirten yönergeleri içeren kapsamlı bir listeyi 2 Şubat 2026'ya kadar yayımlayacaktır.
- Yasanın genel hükümleri, özellikle yüksek riskli yapay zekâ sistemlerine ilişkin düzenlemeler de dahil olmak üzere, 20 Ağustos 2026 itibarıyla tamamen uygulanır hale gelecektir.
X. Sonuç
Yapay Zekâ Yasası, Avrupa Birliği'nin bu alanda küresel ölçekte standartlar belirleme hedefi doğrultusunda, yapay zekâ sistemlerinin geliştirilmesi ve kullanımı için kapsamlı bir düzenleme sunmaktadır. İnsan haklarını ve güvenliği ön planda tutarken aynı zamanda yeniliği teşvik eden bir çerçeve ortaya koyan Yasa, risk temelli yaklaşımıyla yapay zekâ sistemlerini sınıflandırmış ve her bir risk kategorisi için özel gereklilikler belirlemiştir. Yasa, yüksek riskli yapay zekâ sistemleri ve yasaklanan uygulamalar konusundaki katı düzenlemeleriyle bireylerin haklarını koruma ve AB değerlerini sürdürme amacı gütmektedir. Ayrıca, yasa hükümlerine uyulmaması durumunda caydırıcı cezai yaptırımlar öngörerek düzenlemelerin etkin uygulanmasını sağlamayı hedeflemektedir. Bu düzenleme, Avrupa Birliği'nin yapay zekâ teknolojilerinde küresel liderlik konumunu güçlendirme yolunda önemli bir adım olarak değerlendirilmektedir.
Av. Dr. iur. Onur Ergönen, Yönetici Ortak
Elif Aksöz Bayraktar, Kıdemli Avukat
Işıl Gizem Demirtaş, Stajyer Avukat