ETVZ

ETVZ — ETİK KURUL YÖNETİŞİM MODELİ

Teknik ve Politika Raporu

TÜRKİYE ULUSAL YAPAY ZEKA ETİK KURULU İÇİN KURUMSAL MİMARİ VE YÖNETİŞİM ÇERÇEVESİ

AB AI Act, UNESCO Yapay Zeka Etiği Tavsiyesi ve OECD AI İlkeleri Referans Alınarak Hazırlanmış Karşılaştırmalı Yönetişim Tasarımı — Kurumsal İşbölümü, Kapsam ve Stratejik Konumlanma

2025 | ETVZ Araştırma Grubu

ÖZET

Bu rapor, Türkiye’nin yapay zeka ekosisteminde kurumsal bir etik denetim mekanizması oluşturulabilmesi amacıyla, gerçek anlamda bağımsız bir Ulusal Yapay Zeka Etik Kurulu’nun nasıl yapılandırılması gerektiğini ele almaktadır. Çalışma; AB Yapay Zeka Yasası (2024), UNESCO Yapay Zeka Etiği Tavsiyesi (2021) ve OECD Yapay Zeka İlkeleri (2024 güncellemesi) referans alınarak hazırlanmıştır. Rapor; üç katmanlı kurul mimarisini, Sanayi ve Teknoloji Bakanlığı bünyesindeki Ulusal Yapay Zeka Müdürlüğü ile Etik Kurul arasındaki kritik işbölümünü, etki temelli kapsama alanı tasarımını, bağımsızlık güvencelerini, risk sınıflandırma sistemini, şeffaflık ve yaptırım çerçevesini, ETVZ entegrasyon yolunu ve Türkiye’nin bölgesel yönetişim liderliği için stratejik konumlanma fırsatlarını kapsamaktadır.

1. Giriş: Neden Bir Ulusal AI Etik Kurulu?

Yapay zeka teknolojilerinin hızla yaygınlaşması, yalnızca teknik bir dönüşüm değil; toplumsal, hukuki ve etik boyutlarıyla köklü bir medeniyet meselesi olarak değerlendirilmelidir. Büyük dil modellerinin ve otonom sistemlerin kamusal yaşama entegrasyonu, mevcut hukuki ve idari çerçevelerin öngörmediği yeni risk kategorileri üretmektedir: algoritmik ayrımcılık, dezenformasyon üretimi, psikolojik manipülasyon, hesap veremez karar sistemleri ve kültürel değerlere yabancı çıktı kalıpları bunların başında gelmektedir.

Uluslararası arenada bu meseleye verilen yanıtlar somutlaşmaya başlamıştır. AB Yapay Zeka Yasası (Regulation EU 2024/1689), 1 Ağustos 2024’te yürürlüğe girerek yapay zeka sistemlerini risk kategorilerine göre sınıflandıran ve denetim mimarisini tanımlayan dünyanın ilk kapsamlı yapay zeka mevzuatı olma özelliğini kazanmıştır (European Commission, 2024). UNESCO’nun 194 üye devlet tarafından benimsenen Yapay Zeka Etiği Tavsiyesi (2021) ise ulusal yönetişim çerçevelerinin insan hakları merkezli ilkeler üzerine kurulması gerektiğini ortaya koymaktadır (UNESCO, 2021). OECD, 47 hükümetin onayladığı AI İlkeleri’ni 2024 yılında güncelleyerek hesap verebilirlik ve insan denetimine ilişkin standartları güçlendirmiştir (OECD, 2024).

Türkiye bu süreçte kritik bir kavşak noktasındadır. Ocak 2025’te Cumhurbaşkanlığı kararnamesiyle kurulan Ulusal Yapay Zeka Müdürlüğü, kurumsal çerçevenin oluşturulması yönünde önemli bir adımı temsil etmektedir (BABL AI, 2026). Haziran 2024’te TBMM’ye sunulan Yapay Zeka Kanun Teklifi ise güvenlik, şeffaflık, adalet ve hesap verebilirlik ilkelerini çerçevelemekle birlikte risk kategorileri, denetim kuralları ve bağımsız bir düzenleyici organ gibi kritik uygulama detaylarını henüz belirsiz bırakmaktadır (nucamp.co, 2025). Bu boşluk, söz konusu raporun odaklandığı alandır: yapay zekayı tüketen değil üreten bir konuma geçme iradesini somutlaştıran ETVZ projesi, bu dönüşümün yalnızca teknik değil kurumsal altyapısını da gerektirdiğini göstermektedir.

2. Türkiye’nin Mevcut AI Kurumsal Yapısı

Uluslararası referans çerçevesine geçmeden önce Türkiye’nin mevcut durumunu anlamak, önerilerin zeminine sağlamlık kazandıracaktır. Türkiye’nin yapay zeka yönetişimi, birden fazla kurumun farklı yetkilerle faaliyet gösterdiği dağıtık bir yapıya sahiptir.

KurumYapay Zekadaki RolüYetki Türü
Cumhurbaşkanlığı Dijital Dönüşüm Ofisi (DDO)Ulusal AI Stratejisi koordinasyonu (NAIS 2021-2025)Politika üretimi
Sanayi ve Teknoloji Bakanlığı (SBT)MoIT Stratejik Plan 2024-2028 kapsamında AI altyapısıTeşvik ve koordinasyon
Ulusal Yapay Zeka Müdürlüğü (Ocak 2025)Merkezi AI yönetişim organı — Cumhurbaşkanlığı kararnamesiKoordinasyon ve strateji
TÜBİTAK BİLGEMTürkçe büyük dil modeli geliştirme, Sektörel Ortak Oluşturma Lab.Ar-Ge ve altyapı
KVKKKişisel veri işleme — AI bağlamında dolaylı yetkiVeri koruma denetimi

Tablo 1: Türkiye’nin Mevcut AI Kurumsal Haritası (BABL AI, 2026; Chambers & Partners, 2025; nucamp.co, 2025)

Bu tablonun ortaya koyduğu temel yapısal sorun şudur: mevcut kurumların hiçbiri etik denetim yetkisine sahip değildir. Koordinasyon, teşvik ve altyapı işlevleri mevcuttur; ancak bağımsız etik değerlendirme, risk sınıflandırması ve yaptırım yetkisi boşta kalmaktadır. Bu boşluğun doldurulması için yeni bir kurum yaratmak yerine mevcut yapıya işlevsel bir katman eklemek daha verimli ve kurumsal devamlılık açısından daha sürdürülebilirdir.

3. Uluslararası Referans Çerçeve

3.1 AB Yapay Zeka Yasası: Çok Katmanlı Yönetişim Modeli

AB AI Act’in yürürlüğe girmesiyle birlikte Avrupa’da üç katmanlı bir yönetişim mimarisi oluşturulmuştur: merkezi denetim yetkisine sahip Avrupa Yapay Zeka Ofisi, üye devlet temsilcilerinden oluşan danışma nitelikli AB Yapay Zeka Kurulu ve çok paydaşlı yapıya sahip Danışma Forumu ile Bilimsel Panel. Akademik çalışmalar, bu mimarinin hem Komisyon hem de üye devletlerle eş zamanlı koordinasyonu sağlayan ‘çift rol’ üstlendiğini göstermektedir (Novelli, Hacker, Morley ve Trondal, 2024). Yasanın uygulanmasına ilişkin değerlendirmeler ise yapay zeka yönetişiminin AB düzeyinde işbirlikçi bir model çerçevesinde ele alındığına dikkat çekmektedir (Boix-Palop, 2024).

Türkiye için özellikle öğretici olan husus, AB’de uygulayıcı (Komisyon ve üye devlet yetkilileri) ile ilke koyucu ve denetleyici (AI Ofisi ve Bilimsel Panel) arasındaki net ayrımdır. Bu ayrım, güç yoğunlaşmasını yapısal olarak engellemeye yöneliktir.

Risk KategorisiKapsamGereklilikAB’deki Örnek
Kabul EdilemezToplumsal puanlama, bilinçaltı manipülasyonYasakSosyal kredi sistemleri
Yüksek RiskKritik altyapı, eğitim, istihdam, adaletZorunlu denetim + belgelemeCV eleme sistemleri
Sınırlı RiskChatbotlar, deepfakeŞeffaflık bildirimiMüşteri hizmetleri botları
Minimum RiskSpam filtresi, oyunlarGönüllü uygulamaSanat AI araçları

Tablo 2: AB Yapay Zeka Yasası Risk Sınıflandırması (European Commission, 2024)

3.2 UNESCO Yapay Zeka Etiği Tavsiyesi: İnsan Hakları Merkezli Yaklaşım

UNESCO’nun 2021 yılında 194 üye devlet tarafından kabul edilen Yapay Zeka Etiği Tavsiyesi, insan hakları ve onuru, çevresel sürdürülebilirlik, çeşitlilik ile barışçıl toplumlar olmak üzere dört temel değer üzerine inşa edilmektedir (UNESCO, 2021). Yönetişim açısından UNESCO’nun vurguladığı çok paydaşlı ve uyarlanabilir yönetişim ilkesi, herhangi bir tek merkezden değil, hükümetler, sivil toplum, akademi ve özel sektörün eşit biçimde temsil edildiği platformlardan alınan kararların meşruiyetini artırdığını savunmaktadır. UNESCO’nun üye devletlere sunduğu Hazırlık Değerlendirme Metodolojisi (RAM), Ekim 2025 itibarıyla 75’i aşkın ülke tarafından kullanılmaktadır (UNESCO Ethics AI Observatory, 2025).

3.3 OECD AI İlkeleri: Hesap Verebilirlik ve Şeffaflık Standardı

OECD Yapay Zeka İlkeleri, hükümetlerarası alanda oluşturulmuş ilk yapay zeka standardı olma özelliğini korumaktadır. 2019’da benimsenen ve 2024’te güncellenen bu ilkeler, 47 hükümet tarafından onaylanmıştır (OECD, 2024). 2024 güncellemesindeki dikkat çekici değişiklik, hesap verebilirlik ilkesinin kapsamının genişletilmesidir: izlenebilirlik ve risk yönetimine ilişkin hükümler bu ilkeye taşınmış, böylece yapay zeka sistemlerinin amaç dışı kullanım durumlarında da denetim altında tutulması zorunluluğu güçlendirilmiştir (Digital Policy Alert, 2024).

4. Kurumsal İşbölümü: Müdürlük mi, Kurul mu?

Türkiye’nin mevcut yapısında yeni kurulan Ulusal Yapay Zeka Müdürlüğü’nün etik kurulla işlevsel olarak nasıl ilişkilendirileceği, tüm mimarinin sağlamlığını belirleyen en kritik tasarım sorusudur. Bu noktada yapılacak hata — aynı kurumun hem organize etmesi hem de karar vermesi — Türkiye’de pek çok düzenleyici kurulun düştüğü güç yoğunlaşması tuzağını yeniden üretir.

Ulusal Yapay Zeka Müdürlüğü (Koordinasyon & Sekretarya)Bağımsız AI Etik Kurulu (Karar & Denetim)
Kurulun teknik sekretaryasını yürütmekRisk sınıflandırması yapmak ve onaylamak
Veri toplamak ve AI envanteri oluşturmakEtik üst katman zorunluluğu koymak
Raporları organize etmek ve iletmekYaptırım önermek ve kararlaştırmak
Uluslararası uyum süreçlerini koordine etmekYıllık kamuoyu etki raporu yayımlamak
AB AI Act uyum sürecini izlemekLisanslama ve sertifikasyon standartları belirlemek
Ulusal AI strateji planı güncellemelerini hazırlamakBağımsız teknik denetim raporları hazırlamak

Tablo 3: Müdürlük ve Etik Kurul Arasındaki İşlevsel Sınır

Bu ayrımın pratik önemi şuradan anlaşılabilir: AB’de Avrupa Komisyonu (yürütme işlevi) ile Yapay Zeka Ofisi’nin bağımsız bilimsel paneli (ilke koyma ve denetleme işlevi) arasındaki organik ayrım, yönetişim meşruiyetinin temel dayanağıdır (Novelli ve diğerleri, 2024). Müdürlük uygulayıcı, Kurul ilke koyucu ve denetleyici olduğunda sistem hem işlevsel hem de hesap verebilir hale gelir.

⚠  Güç Yoğunlaşması Riski — Kaçınılması Gereken Yapısal Hata
Aynı kurumun politika üretmesi + denetlemesi + uygulaması etik denetimi anlamsızlaştırır.
Denetim kriterleri şeffaf olmalı; kısıtlama gerekçesi kamuoyuyla paylaşılmalı.
Tüm yaptırım kararları yargı denetimine açık olmalı — idare mahkemesi yolu kapalı tutulmamalı.
Etik denetim aracı, siyasi kontrol mekanizmasına dönüşme riskini taşır; buna karşı mekanizma tasarımı belirleyicidir.

5. Türkiye Ulusal Yapay Zeka Etik Kurulu: Üç Katmanlı Mimari

Uluslararası referans çerçevelerinin ve Türkiye’nin mevcut kurumsal yapısının ışığında önerilen kurul mimarisi üç işlevsel katmandan oluşmaktadır.

5.1 Üst Strateji Kurulu (Politika Katmanı)

Evrensel etik çekirdeği tanımlamak, risk kategorilerini belirlemek ve yasal düzenleme önerileri hazırlamak amacıyla tasarlanmış normatif karar organıdır. AB AI Act’te Avrupa Yapay Zeka Kurulu’nun koordinatör işlevine benzer bir misyon üstlenecek olan bu katman, siyasi değişimlere karşı güvenceli olacak şekilde tasarlanmalıdır.

Üst Strateji Kurulu — Kompozisyon Önerisi
• Anayasa ve uluslararası hukuk profesörleri
• Felsefe ve etik akademisyenleri
• Psikiyatri ve sosyoloji uzmanları
• Kişisel veri koruma ve siber güvenlik uzmanları
• Sivil toplum temsilcileri (STK ve meslek odaları)
• TBMM temsilcisi (gözlemci statüsünde, veto yetkisi olmadan)

5.2 Teknik Denetim Kurulu (Operasyonel Katman)

AB AI Act’in Bilimsel Paneli’ne paralel olarak tasarlanan bu katman, yapay zeka modellerini teknik boyutuyla incelemek ve ölçülebilir denetim çıktıları üretmekten sorumludur. ETVZ mimarisinde tanımlanan DERP (Deep Ethical Regulation Protocol) ve DERMS (Dynamic Ethical Risk Monitor System) modülleri, bu katmanın değerlendirme araçları olarak kullanılabilecek niteliktedir.

Teknik Denetim Kurulu — Temel Görevler
• Yapay zeka modellerinin risk skoru çıkarma ve sınıflandırma
• Halüsinasyon ve yanlış yönlendirme oranı ölçümü
• Zararlı çıktı olasılık testi ve etik katman denetimi
• Log sistemi ve açıklanabilirlik altyapısı incelemesi
• Teknik uyum sertifikasyonu ve periyodik yeniden değerlendirme

5.3 Toplumsal Etki Kurulu (Sosyal Katman)

UNESCO’nun çok paydaşlı yönetişim ilkesiyle örtüşen bu katman, yapay zekanın toplumsal boyutlarını izlemekle görevlidir. Ayrımcılık, radikalleşme, psikolojik manipülasyon, çocuk ve gençler üzerindeki etki ile toplumsal kutuplaşma dinamikleri bu kurulun çalışma alanını oluşturmaktadır. Katmanın temel işlevi, teknik uyumluluğun toplumsal refah üzerindeki geri dönüşümünü değerlendiren Etik Etki Değerlendirmesi (EIA) hazırlamaktır (UNESCO, 2021).

6. Gerçek Bağımsızlığın Üç Yapısal Güvencesi

Kurulun yalnızca kâğıt üzerinde değil fiilen bağımsız işleyebilmesi üç yapısal güvenceye bağlıdır. Bağımsızlık niyet meselesi değil, mekanizma meselesidir.

6.1 Çoğul Atama Mekanizması

Tek merkezli atama siyasi irade bağımlılığına yol açar. AB’de Avrupa Yapay Zeka Kurulu’nun her üye devletten eşit temsil ilkesine göre oluşturulması bu ilkenin ulusüstü düzeydeki yansımasıdır (European Commission, 2024). Ulusal ölçekte önerilen atama dağılımı:

Atama Kaynağı 
TBMM nitelikli çoğunluk%25
Üniversiteler arası kurul%25
Meslek odaları%25
Sivil toplum + veri otoritesi%25

Tablo 4: Çoğul Atama Dağılımı Önerisi

6.2 Sabit Görev Güvencesi ve Yargı Denetimi

Üyelerin 4-6 yıllık sabit görev süresine sahip olması siyasi değişimlerden bağımsız bir kurumsal hafıza sağlar. Görevden alma yalnızca ağır etik ihlal gerekçesiyle mümkün olmalı ve bu karar bağımsız bir yargı organı denetimine tabi tutulmalıdır. Kurul kararlarının tamamının — özellikle kısıtlama ve yaptırım kararlarının — idare mahkemesi denetimine açık olması, Türkiye Anayasası’nın temel yargısal güvencesiyle (Madde 125) de uyumludur.

6.3 Bütçe Bağımsızlığı

Bütçe bağımlılığı, bağımsızlığın en kırılgan noktasıdır. Yürütme organının takdirine bırakılan bütçe fiilî bağımlılığın dolaylı yolunu oluşturur. Dijital hizmet vergisi veya yapay zeka lisans ücretlerinden otomatik pay aktarımı modeli, mali özerlik ile hesap verebilirlik arasındaki dengeyi kurumsal güvenceyle sağlamaktadır. OECD, bütçe bağımsızlığını etkin denetim organlarının zorunlu koşulu olarak tanımlamaktadır (OECD, 2024).

7. Etki Temelli Kapsama Alanı Tasarımı

Geleneksel hukuki yaklaşım, yetki alanını coğrafi temelde tanımlar: Türkiye’de kurulu ya da Türkiye vatandaşı olan aktörler. Ancak dijital sistemlerin sınır tanımaz niteliği, bu yaklaşımı büyük ölçüde yetersiz kılmaktadır. Sosyal medya düzenlemelerinde 2022 yılından itibaren benimsenen ‘bu ülkede faaliyet gösteriyorsan yerel hukuka uyacaksın’ mantığı, yapay zeka sistemleri için de uygulanabilir ve uluslararası standartlarla uyumlu bir çerçeve sunmaktadır.

AB AI Act’in açık bir şekilde benimsediği etki temelli yetki alanı ilkesi (yer bakımından uygulama; Madde 2), Türkiye’nin bu kursal değişimi meşru bir uluslararası emsal üzerine oturtmasına imkân tanımaktadır (European Commission, 2024).

Önerilen Kapsama Alanı — Etki Temelli Yaklaşım
• Türkiye’de geliştirilmiş veya barındırılmış yapay zeka modelleri
• Türkiye’de aktif kullanıcıya hizmet veren yabancı büyük dil modelleri ve yapay zeka ürünleri
• Kritik kamu kurumlarında (sağlık, adalet, eğitim, savunma) kullanılan tüm AI sistemleri
• Belirli kullanıcı eşiği üzerindeki B2C uygulamaları (örn. aylık 100.000 aktif kullanıcı)

7.1 Uyum Zorunlulukları

Kapsama alanı içindeki sistemler için kademeli uyum gereklilikleri şu biçimde tasarlanabilir: belirli eşik üzerindeki tüm sistemler etik etki raporu ve risk kategorisi beyanı sunmalıdır. Yüksek risk kategorisindeki sistemlerde yerel temsilci zorunluluğu ve şeffaf log mekanizması aranmalıdır. Kritik kamu kurumlarında kullanılan sistemlerde etik üst katman ve sürekli denetim logu zorunlu tutulmalıdır.

7.2 Kısıtlama Mekanizması ve Denge

Uyumsuz sistemler için kademeli yaptırımlar önerilmektedir: uyum bildirimi ve düzeltme süreci, tekrar ihlal durumunda idari para cezası, kamu kurumlarında kullanım yasağı, reklam kısıtı ve geçici lisans askıya alma. Ancak bu noktada kritik bir dengenin gözetilmesi gerekmektedir: aşırı kısıtlama inovasyon kaybına yol açarken yetersiz denetim etik riske zemin hazırlar. AB AI Act’in ‘inovasyon koridoru’ kavramı — düşük riskli sistemlere geniş özgürlük tanırken yüksek risk kategorisini sıkı denetim altında tutma — bu dengenin pratik bir çözümünü sunmaktadır.

8. Risk Sınıflandırma ve Denetim Yoğunluğu

AB AI Act’in dört düzeyli risk piramidi, Türkiye için uyarlanabilir bir referans çerçeve sunmaktadır. Ancak Türkiye’nin özgün bağlamı gözetildiğinde kültürel ve dilsel hassasiyet boyutunun ayrıca ele alınması gerekmektedir. ETVZ mimarisindeki Context Analyzer (CA) ve Compliance Matcher (CM) modülleri, bu kültürel uyum değerlendirmesinin teknik altyapısını oluşturabilir.

Risk DüzeyiKapsamDenetim BiçimiEtik Üst Katman
Düşük RiskGenel içerik üretimi, spam filtresiBeyan + kendi değerlendirmeGönüllü
Orta RiskKişisel rehberlik, eğitim, HRYıllık teknik denetimÖnerilen
Yüksek RiskSağlık, hukuk, finans, kamu hizmetleri6 aylık denetim + sertifikasyonZorunlu
Kritik RiskSavunma, kamu güvenliği, seçim sistemleriSürekli izleme + ön onayZorunlu + denetim logu

Tablo 5: Türkiye Ulusal AI Etik Kurulu Risk Sınıflandırma Çerçevesi

9. Şeffaflık, Raporlama ve Yaptırım Çerçevesi

9.1 Zorunlu Raporlama Sistemi

Her yapay zeka sağlayıcısı yılda en az iki kez standart formatlarda etik etki özeti, halüsinasyon ve yanlış yönlendirme istatistiği, riskli çıktı oranı ve insan müdahalesi verilerini içeren rapor sunmalıdır. Raporlar Teknik Denetim Kurulu’na iletilir; Üst Strateji Kurulu özet değerlendirmeyi yayımlar ve kamuoyuna sadeleştirilmiş biçimde açıklar. Şeffaflık güven üretir; OECD’nin ulusal politika veritabanı modeli (OECD.AI Policy Observatory) bu şeffaflık altyapısının pratik bir örneğini sunmaktadır.

9.2 Şeffaflık Arayüzü: TAI Modeli

ETVZ’nin Transparency and Accountability Interface (TAI) modülü, kurul kararlarının açıklanabilirliğini sistematik biçimde sağlayabilen teknik bir altyapı sunmaktadır. Kurul kararlarının gerekçeleriyle birlikte yayımlanması, risk kategorileri matrisinin kamuoyuyla paylaşılması ve yıllık etki raporunun hazırlanması şeffaflığın kurumsal güvencesini oluşturmaktadır (UNESCO, 2021).

10. ETVZ’nin Ulusal Etik Çerçevesindeki Konumu

ETVZ projesi, ulusal yapay zeka ekosisteminde iki temel işlev üstlenebilecek konumdadır: teknik denetim standart aracı ve referans uygulama modeli.

Teknik denetim standardı olarak DERP etik uyum protokolü ve DERMS risk izleme mekanizması Teknik Denetim Kurulu’nun değerlendirme araçlarına doğrudan katkı sağlayabilir. HVM (Computational Conscience Module) modülü, yüksek ve kritik riskli modellerin etik karar mekanizmasını değerlendirmek için referans çerçeve işlevi görebilir. Referans uygulama modeli olarak ise ETVZ, alternatif modellerin eşdeğerlik testlerinde kriter standart konumunu üstlenebilir. Bu yaklaşım, AB’de gönüllü çerçevelerin uygunluk değerlendirmesinde kullanılan mantıkla örtüşmektedir (European Commission, 2024).

⚠  Kritik Not: ETVZ’nin Bağımsızlık Güvencesi
ETVZ’nin kurul standartlarına referans alınması, teknik altyapının kanıtlanmış eşdeğerliğini zorunlu kılar.
Bu eşdeğerliğin bağımsız bir teknik panelin incelemesine tabi tutulması hem güvenilirlik hem de kurul tarafsızlığı açısından zorunludur.
Standart belirleme ile denetleme işlevlerinin aynı aktörde toplanmasından kaçınılmalıdır.

11. Türkiye’nin Stratejik Konumlanma Fırsatı

Türkiye için ulusal etik yönetişim çerçevesinin kurulması, salt bir düzenleyici zorunluluk değil, üç boyutlu bir stratejik fırsatı temsil etmektedir.

11.1 AB Uyum Süreci

Türkiye’nin AB üyelik sürecinde dijital haklar ve teknoloji yönetişimi başlıkları giderek ağırlık kazanmaktadır. AB AI Act’le uyumlu bir ulusal çerçeve, Türkiye’nin Avrupa pazarına yapay zeka ürün ve hizmetleri sunan girişimleri için ikinci bir regülasyon yüküne katlanmaksızın AB Tek Dijital Pazarı’yla entegre kalmasını kolaylaştırır. Özellikle Türkiye’de faaliyet gösteren ve AB’ye ihracat yapan teknoloji şirketleri için bu uyum kolaylığı doğrudan rekabet avantajına dönüşür.

Bunun yanı sıra, Türkiye’de aktif kullanıcıya hizmet veren yabancı yapay zeka şirketleri zaten AB AI Act’in ekstraterritorial kapsamı içine girebilmektedir; ulusal çerçevenin AB standardıyla uyumlu tutulması bu şirketler için uyum maliyetini düşürerek Türkiye pazarının cazibesini artırır (nucamp.co, 2025).

11.2 Bölgesel Etik Merkez: İslam Dünyası ve Orta Asya

UNESCO’nun kültürel çeşitlilik vurgusu ve AI sistemlerinin evrensel değerler ile yerel normlar arasındaki gerilim, Türkiye’ye özgün bir pencere açmaktadır. Türkiye, NATO üyeliği ve AB aday statüsüyle Batı yönetişim standartlarını, köklü hukuk geleneği ve kültürel birikimi ile de İslam coğrafyasının beklentilerini aynı anda referans alabilecek nadir ülkeler arasındadır.

Orta Asya Türk cumhuriyetleri ve Ortadoğu ülkeleri için teknik kapasite birikimi henüz sınırlıdır. Türkiye, güvenilir etik AI yönetişim modelini erken kuran ve ihraç edebilen ülke konumuna geçebilir: ortak denetim metodolojisi paylaşımı, eğitim programları ve bölgesel etik AI standartları geliştirme süreçlerinde koordinatör rol üstlenebilir (UNESCO, 2021).

11.3 ‘Etik Denetimli AI’ Rekabet Avantajı

Küresel yapay zeka rekabetinde yalnızca teknik kapasite değil güvenilirlik de belirleyici olmaya başlamıştır. Veri güvenliği, dezenformasyon riski ve algoritmik önyargı konusundaki kaygıların artmasıyla birlikte kurumsal ve kamu alıcıları, denetlenmiş ve sertifikalı AI sistemlerini tercih etmeye yönelmektedir. Türkiye’nin ulusal ‘Güvenilir AI Sertifikası’ girişimi (nucamp.co, 2025), etik kurulun denetim mekanizmasıyla entegre edildiğinde uluslararası alanda tanınan bir kalite güvencesi standardına dönüşebilir.

Stratejik Fırsatlar Özeti
• AB AI Act uyumu → ikili regülasyon yükü ortadan kalkar, Avrupa pazarına erişim kolaylaşır
• İslam dünyası ve Orta Asya için etik AI norm belirleyicisi konumu
• Güvenilir AI sertifikasyonu → uluslararası rekabet avantajı
• Erken hareket eden ülke statüsü → uluslararası AI yönetişim forumlarında söz sahibi olma
• Teknik değil kurumsal ciddiyet → bu fırsatları gerçeğe dönüştüren temel koşul

12. Karşılaştırmalı Model Analizi

BoyutAB AI ActUNESCO TavsiyesiTürkiye Önerisi (Bu Rapor)
Kurumsal yapıAI Office + AI Board + Panel + ForumÇok paydaşlı ulusal çerçeveMüdürlük (sekretarya) + 3 katmanlı bağımsız Kurul
İşlev ayrımıKomisyon-AI Ofisi ayrımıDevlet-sivil toplum dengesiMüdürlük organize eder; Kurul karar verir ve denetler
Kapsama alanıEtki temelli (Madde 2)Ulusal tanımEtki temelli — coğrafi değil
Bağımsızlık güvencesiKomisyon ile organik bağTam bağımsızlık tavsiyesiÇoğul atama + sabit görev + bütçe özerkliği
Yargı denetimiAB Adalet DivanıUlusal yargıya bırakılmışİdare mahkemesi denetimi — açık ve zorunlu
Kültürel boyutAvrupa değerleriGüçlü çeşitlilik vurgusuETVZ kültürel bağlam modülleri (CA + CM)
Stratejik hedefTek Pazar uyumuEvrensel etik standartAB uyumu + bölgesel liderlik

Tablo 6: Karşılaştırmalı Model Analizi

13. Politika Önerileri

Bu raporun temel savı şudur: Türkiye’de gerçekten işlevsel bir Ulusal Yapay Zeka Etik Kurulu kurmak, siyasi irade kadar —hatta daha fazla— mekanizma tasarımı sorunudur. Kurulun kâğıt üzerinde değil fiilen bağımsız ve etkin işleyebilmesi, yapısal güvenceler olmadan mümkün değildir.

Politika önerileri üç eksende özetlenebilir. Kurumsal tasarım ekseninde Ulusal Yapay Zeka Müdürlüğü’nün koordinasyon-sekretarya rolüyle Etik Kurul’un karar-denetim rolü arasındaki sınır organik kanun düzeyinde tescil edilmeli; çoğul atama mekanizması, görev güvencesi ve bütçe özerkliği aynı yasal düzenlemeye dahil edilmelidir. Teknik uyum ekseninde AB AI Act’le uyumlu ulusal risk sınıflandırma matrisi benimsenMeli; yüksek ve kritik riskli sistemlerde etik üst katman zorunluluğu mevzuata işlenmeli; etki temelli kapsama alanı açıkça tanımlanarak yabancı sağlayıcılara yerel temsilci zorunluluğu getirilmelidir. Stratejik konumlanma ekseninde ETVZ modülleri pilot uygulama üzerinden teknik denetim araçları olarak test edilmeli; ‘Güvenilir AI Sertifikası’ girişimi etik kurulun denetim çıktısına bağlanarak uluslararası tanınırlık kazandırılmalı; bölgesel AI yönetişim işbirliği platformları için koordinatörlük rolü üstlenilmelidir.

Son söz olarak şunu vurgulamak gerekir: Bu raporun ortaya koyduğu model salt teknik ya da bürokratik bir öneri değildir. Yapay zeka yönetişimi, gücün nasıl dengeleneceğine dair normatif bir tercihtir. Etik kurul, gücü durduran değil hesap verebilir kılan bir işlev üstlendiğinde anlamlı olur. Bu işlevi gerçekleştirmenin yolu, vicdana değil mekanizmaya dayalı bir mimariden geçmektedir.

KAYNAKÇA

BABL AI. (2026, January). Turkey establishes National Artificial Intelligence Directorate through presidential decree. https://babl.ai/turkey-establishes-national-artificial-intelligence-directorate-through-presidential-decree/

Boix-Palop, A. (2024). The EU’s AI act: A framework for collaborative governance. Computer Law and Security Review, 54. https://doi.org/10.1016/j.clsr.2024.106040

Chambers and Partners. (2025). Artificial Intelligence 2025 — Turkey. Global Practice Guides. https://practiceguides.chambers.com/practice-guides/artificial-intelligence-2025/turkey

Digital Policy Alert. (2024). The 2024 update to the OECD AI Principles. https://digitalpolicyalert.org/ai-rules/2024-update-OECD-principles

European Commission. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (AI Act). Official Journal of the European Union. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai

European Commission. (2024). Governance and enforcement of the AI Act. https://digital-strategy.ec.europa.eu/en/policies/ai-act-governance-and-enforcement

ETVZ Projesi. (2025). Etik Temelli Vicdani Zeka: Teknik Mimari ve Modüller. https://etvz.com.tr

Novelli, C., Hacker, P., Morley, J. ve Trondal, J. (2024). A robust governance for the AI act: AI office, AI board, scientific panel, and national authorities. European Journal of Risk Regulation, 16(2), 566–590. https://doi.org/10.1017/err.2024.57

nucamp.co. (2025). The complete guide to using AI in the government industry in Turkey in 2025. https://www.nucamp.co/blog/coding-bootcamp-turkey-tur-government-the-complete-guide-to-using-ai-in-the-government-industry-in-turkey-in-2025

OECD. (2024). Evolving with Innovation: The 2024 OECD AI Principles Update. OECD.AI Policy Observatory. https://oecd.ai/en/wonk/evolving-with-innovation-the-2024-oecd-ai-principles-update

OECD Ministerial Council. (2024). OECD Recommendation of the Council on Artificial Intelligence (C/MIN(2024)17). https://one.oecd.org/document/C/MIN(2024)17/en/pdf

Turkey National Artificial Intelligence Strategy 2021–2025. (2021). Presidency Digital Transformation Office & Ministry of Industry and Technology. https://cbddo.gov.tr/SharedFolderServer/Genel/File/TR-UlusalYZStratejisi2021-2025.pdf

UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. UNESCO Digital Library. https://unesdoc.unesco.org/ark:/48223/pf0000380455

UNESCO Ethics AI Observatory. (2025). UNESCO’s AI literacy training for civil servants: Empowering ethical AI governance around the world. https://www.unesco.org/ethics-ai/en/articles/unescos-ai-literacy-training-civil-servants

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir