ETVZ

Etik Temelli Vicdani Zeka (ETVZ) Sisteminde Açıklanabilir Güvenlik ve Epistemik Denetçilik: Büyük Dil Modellerine Yönelik Hesaplamalı Vicdan Mimarisi

Özet

Bu çalışma, Büyük Dil Modellerinin (LLM) ürettiği çıktılarda güvenlik, doğruluk ve hesap verebilirlik sorunlarını ele alan Etik Temelli Vicdani Zeka (ETVZ) çerçevesinin kapsamlı akademik temelini ortaya koymaktadır. ETVZ, Epistemik Temelli Veri Zinciri üzerine konumlanan, kararlarını yalnızca kural tabanlı filtrelerle değil; ontolojik ilişkiler, epistemik kanıtlar ve geri izlenebilir veri yolları üzerinden gerekçelendiren bütüncül bir mimarı temsil eder. Sunulan çerçeve, yapay zekâyı pasif bir engelleyici olmaktan çıkararak, nedenlerini kanıtlarıyla sunabilen Epistemik Denetçi (ED) rolüne—resmi tanım: “LLM çıktılarını ontolojik ve epistemik temeller üzerinden değerlendiren, her kararı kanıt zinciriyle destekleyen, insan ve kurumsal denetçiler tarafından sorgulanabilir karar sistemi”—taşımaktadır. Çalışma, ETVZ sisteminin felsefi temelleri, teknik mimarisi, uygulama modülleri ve normatif yönetişim yapısını entegre bir şekilde sunmaktadır.

Anahtar Kelimeler: Büyük Dil Modelleri, Etik Temelli Yapay Zeka, Hesaplamalı Vicdan, Epistemik Kanıt, Açıklanabilir Yapay Zeka (XAI), Denetim Mimarisi, Vicdani Zeka, Ontolojik Temellenme


1. Giriş ve Problem Tanımı

1.1. Bağlam ve Motivasyon

Büyük Dil Modelleri, sağlık, hukuk, biyoloji ve kamu yönetimi gibi yüksek riskli alanlarda giderek daha fazla kullanılmaktadır (Bender vd., 2021; Weidinger vd., 2021). Öte yandan, mevcut güvenlik ve uyumluluğa ilişkin yaklaşımlar çoğunlukla anahtar kelime engelleme, statik kural setleri veya opak sınıflandırıcılar üzerine kuruludur (Gabriel, 2020). Bu yöntemler, bir yanıtın neden reddedildiğini veya hangi riskler nedeniyle sınırlandığını açıklayamaz ve kullanıcı güvenini zayıflatır (Lipton, 2018).

ETVZ kapsamında geliştirilen çerçeve, bu eksikliği gidermek üzere tasarlanmıştır. Sistem, LLM yanıt üretim sürecine Basiretli Yanıt Mekanizması ve Hesaplamalı Vicdan Modülü (HVM) ekleyerek yalnızca “izin ver / engelle” ikiliğinden ibaret olmayan, gerekçeli ve kanıta dayalı bir karar süreci sunar (Amoore, 2020; Selbst & Barocas, 2018).

1.2. Araştırma Sorusu

Bu çalışma aşağıdaki merkezi sorulara cevap vermektedir:

  1. Epistemik Yapı: Yapay zeka sistemleri, bilginin kaynağını, güvenilirliğini ve sonuçlarını formal bir şekilde temsil edebilir mi?
  2. Vicdani Kapasite: Hesaplamalı sistemler etik muhakeme yapabilir ve bu muhakemenin izlenebilir bir kaydını tutabilir mi?
  3. Denetlenebilirlik: Yapay zeka kararları, yalnızca insanlar tarafından açıklanabilecek değil; sistemler tarafından otomatik olarak gerekçelendirilip denetlenebilir mi?
  4. Kültürel Uyum: Vicdani zeka sistemi, evrensel etik ilkelerle birlikte yerel, kültürel ve yasal bağlamları nasıl bütünleştirebilir?

2. Teorik Temellendirme ve Felsefi Çerçeve

2.1. Epistemik Temellendirme

ETVZ, epistemolojik bir temele dayanmaktadır. Bilgi, yalnızca “doğru inançlar” değil; kaynak, geçerlilik ve bağlam bilgisini içeren bütüncül yapılar olarak kabul edilir (Goldman, 1967; Williamson, 2000). Bu yapı, Neo4j gibi grafik veritabanlarında şu şekilde temsil edilir:

  • Bilgi Düğümleri: Olgular, kavramlar, varlıklar
  • Epistemik Ağırlıklar: Güvenilirlik, kanıt gücü, belirsizlik
  • Köken Bağlantıları: Bilgi kaynağı, referans, doğrulama tarihi
  • Risk İlişkileri: Potansiyel zarara yönelik yollar

Bu temsil, Gettier Problemi (Gettier, 1963) ve Sosyal Epistemoloji (Miranda, 2018) gibi çağdaş epistemolojik sorunları teknik düzeyde ele almayı mümkün kılmaktadır.

2.2. Vicdanın Hesaplamalı Modeli

Vicdan, felsefede ve etik teorisinde “doğru ve yanlışı ayırt etme, kişisel sorumluluk duygusu ve eylem öncesi iç muhasebe” olarak tanımlanır (Aquinas, 1265-1274; Goldie, 2012). ETVZ’nin Hesaplamalı Vicdan Modülü (HVM), bu felsefî kavramı şu teknik prensiplerle operasyonalize eder:

  1. Bilişsel Model: Her karar için açık epistemic state (bilinen, bilinmeyen, belirsiz bilgiler)
  2. Değer Hiyerarşisi: İnsan refahı, adalet, transparanslık, yasal uyumluluk
  3. Sorumluluğun İzi: Her kararın ontolojik temeli ve kanıt kaynakları kaydedilir
  4. Geri Dönüşümlü Değerlendirme: Sistemin kendi kararlarını sorgulaması ve düzeltmesi

Bu model, yapay zekâyı sadece probleme çözüm üretici değil, kendi eylemlerinin etik ağırlığını taşıyan bir aktör olarak konumlandırır (Floridi & Taddeo, 2016; Sharkey & Sharkey, 2010).

2.3. Ontolojik Temellenme

ETVZ, bir Üst Ontoloji (Upper Ontology) üzerine kuruludur (Gruber, 1993; Noy & McGuinness, 2001). Bu ontoloji:

  • Kavramlar arasındaki ilişkileri net bir şekilde tanımlar
  • Sağlık, hukuk, teknoloji gibi alan-spesifik ontolojilerle entegre olur
  • Risk ve fayda vektörlerini formal mantık çerçevesinde sunar

Örneğin: (İlaç X) -[HAS_CONTRAINDICATION]-> (Hastalık Y) ilişkisi, yalnızca kesin bilgi değil; confidence_score: 0.92, source: FDA_database, evidence_chain_id: [EVD-001, EVD-002] gibi epistemik ağırlıklarla birlikte temsil edilir.


3. ETVZ Mimarisi: Sistem Tasarımı ve Bileşenler

3.1. Katmanlı Mimari Tasarımı

ETVZ, dört entegre katmandan oluşur:

Katman 1: Temel LLM Katmanı

  • Standart transformer-tabanlı dil modeli
  • Token üretimi ve semantik temsil
  • Rol: Başlangıç hipotez ve taslak cevap üretimi

Katman 2: Epistemik-Ontolojik Katman

  • Neo4j Grafik Veritabanı (Epistemik Hafıza)
  • Varlık-İlişki Ağı (Entity-Relation Networks)
  • Bilgi Provenance Sistemi
  • Rol: Bilginin bağlamsal, kaynaklı ve ağırlıklandırılmış temsili

Katman 3: Hesaplamalı Vicdan Katmanı (HVM)

  • DERP (Deep Ethical Regulation Protocol)
  • DERMS (Dynamic Ethical Risk Monitor System)
  • Context Analyzer (CA) – Kültürel ve Bağlamsal Farkındalık
  • Rol: Çok-boyutlu etik değerlendirme ve karar süzgeçleme

Katman 4: Açıklanabilirlik ve Yönetişim Katmanı (Explainable Safety Layer – ESL)

  • Transparency and Accountability Interface (TAI)
  • Compliance Matcher (CM) – Yasal Uyum
  • Formal Auditability System
  • Rol: Kararların izlenebilir, denetlenebilir ve hesap verilebilir olması

3.2. Teknik Bileşenler ve İşlevleri

3.2.1. DERP (Deep Ethical Regulation Protocol)

DERP, LLM çıktılarını etik ilkeler çerçevesinde değerlendiren protokoldür:

IF (output_contains: harmful_medical_advice)

    AND (confidence_score > 0.75)

    AND (NO contradicting_evidence_in_epistemic_graph)

THEN

    risk_level = HIGH

    action = SUPPRESS_WITH_EXPLANATION

    evidence_chain_id = BACKTRACK_TO_SOURCE

Kaynaklar: Bender vd. (2021), Weidinger vd. (2021) tarafından tanımlanan risk kategorileri temel alınmıştır.

3.2.2. DERMS (Dynamic Ethical Risk Monitor System)

DERMS, gerçek zamanlı riskleri izleyen dinamik bir sistemdir. Statik eşikler yerine, bağlama duyarlı risk fonksiyonlarını kullanır:

risk_score(t) = Σ [risk_component_i(t) × weight_i × decay_factor(t)]

Bu sistem, pilot çalışmalarda yanlış pozitif oranının statik kurallara kıyasla daha düşük olması hedeflenmektedir. Ayrıntılı değerlendirme Bölüm 8’da sunulmuştur (Selbst & Barocas, 2018).

3.2.3. Context Analyzer (CA) – Kültürel ve Bağlamsal Farkındalık

CA, LLM çıktısının yerel, kültürel ve yasal bağlamla uyumunu değerlendirir:

  • Kültürel Uyum: Değer sistemleri, sosyal normlar
  • Yasal Uyum: Yargı alanına göre mevzuat
  • Sosyal Bağlam: İlişkisel, kurumsal dinamikler

Operatif sorgu örneği (Cypher/Neo4j):

MATCH (advice:MedicalAdvice {content: user_input})

-[r1:APPLIES_IN]->(jurisdiction:JurisdictionContext)

-[r2:UNDER_LAW]->(law:LegalFramework)

WHERE law.country = ‘Turkey’ AND law.effective_date <= NOW()

RETURN advice.risk_profile, law.restriction_level

3.2.4. Epistemic Balancer (EB) – Bilgi-Vicdan-Hukuk Dengeleme

EB, çoğunlukla çatışan üç alanın (bilimsel bilgi, etik vicdan, yasal yükümlülükler) dengesini sağlar:

balance_score = α × epistemic_confidence

              + β × ethical_alignment

              + γ × legal_compliance

Her katsayı (α, β, γ) kurumsal yönetişim tarafından belirlenir ve şeffaf bir şekilde tutulur.

3.2.5. TAI (Transparency and Accountability Interface)

TAI, teknik kararları kullanıcı ve denetçiler için açıklanabilir hale getirir:

  1. Karar: Cevap verildi / reddedildi / sınırlandırıldı
  2. Gerekçe: Hangi etik, hukuki veya epistemik nedenler
  3. Kanıt Kodu: Provenance ID ve referans belgeler
  4. İtiraz Mekanizması: Kullanıcıya karar sorgulama hakkı

4. Merkez: Gerekçelendirme Mekanizması (Reasoning Chain)

4.1. Formal Reasoning Chain Model (FRCM)

ESL’nin karar süreci, formel bir nedenleme zinciri üzerinden işler. Bu zincir yedi aşamadan oluşur:

Aşama 1: Yanıt Taslağı Üretimi

LLM tarafından kullanıcı sorgusuna yanıt üretilir.

  • Çıktı: Token dizisi, anlam vektörleri

Aşama 2: Varlık Çıkarımı (Entity Parsing)

Yanıttaki kritik varlıklar (ilaç, hastalık, hukuki kavram vb.) tanımlanır.

  • Çıktı: Etiketlenmiş varlık listesi, confidence skorları

Aşama 3: Ontolojik Çakışma Analizi

Varlıklar, epistemik grafik üzerinde sorgulanır. Potansiyel zararlar ve riskler tanımlanır.

Cypher Sorgu Örneği:

MATCH (drug:Drug {name: ‘aspirin’})

-[r:HAS_EFFECT|HAS_CONTRAINDICATION|CAUSES_HARM]->(consequence:Consequence)

WHERE consequence.risk_level > 0.65

RETURN consequence.description, r.evidence_source_id, r.confidence_score

  • Çıktı: Tanımlanmış riskler ve ontolojik bağlantılar

Aşama 4: Kanıt Geri İzleme (Evidence Backtracking)

Tespit edilen her risk için, epistemik kanıt zinciri inşa edilir.

  • Kaynak Hiyerarşisi: Akran incelemeli yayınlar > Resmi kılavuzlar > Gri literatür
  • Evidence ID: EVD-FDA-001, EVD-PUBMED-12345 gibi yapılandırılmış kimlik
  • Çıktı: Gerekçeli kanıt paketi

Aşama 5: Risk Ağırlıklandırma ve Eşik Değerlendirmesi

Çok-boyutlu bir risk skoru hesaplanır:

Final_Risk = (toxicity_score × 0.45)

           + (legal_violation_risk × 0.35)

           + (epistemic_uncertainty × 0.20)

  • Eşik Kuralları:
    • Final_Risk ≥ 0.75 → Yanıt reddedilir, gerekçelendirilir
    • 0.50 ≤ Final_Risk < 0.75 → Yanıt sınırlandırılır, uyarı eklenir
    • Final_Risk < 0.50 → Yanıt sunulur

Aşama 6: Gerekçeli Bildirim Üretimi

Teknik veriler, insana anlaşılır bir raporla sunulur:

Örnek Çıktı:

KARAR: Tıbbi tavsiye sınırlandırılmıştır.

GEREKÇESİ:

– Belirtilen ilaç, hepatik yetersizlik hastalığında kontrendikedir

  (Confidence: 0.93, Evidence ID: EVD-FDA-2023-11293)

– Kullanıcı sorgusu, hastalığa sahip bir kişi tarafından

  kaynaklandığı göstergesi bulunmaktadır (bağlam analizi)

KANIT KAYNAKLARI:

1. FDA Warning Label [Evidence ID: EVD-FDA-2023-11293]

2. Peer-reviewed Study: Clinical Pharmacology, 2022

   DOI: 10.1234/example [Evidence ID: EVD-PUBMED-35412891]

3. Legal Compliance Note: Turkish Ministry of Health Regulation

   Date: 2023 [Evidence ID: EVD-TR-MOH-2023-001]

İTİRAZ: Karar hakkında sorular için sistem yönetim paneline başvurabilirsiniz.

Aşama 7: Sistem Kendi-Denetimi (Meta-Auditing)

Sistemin kendisi önceki kararlarını sorgulamak ve düzeltmek yetkisine sahiptir:

  • Yeni kanıtlar bulundu mu?
  • Yasal mevzuat değişti mi?
  • Risk parametreleri güncellenmiş mi?

4.2. Ontolojik Çakışma Analizi: Detaylı Örnek

Senaryo: Bir kullanıcı, “Penicillin alan biri için alternatif ilaç önerebilir misin?” diye soruyor.

Aşama 2 Çıktısı (Varlık Çıkarımı):

  • Varlık 1: Penicillin (ilaç)
  • Varlık 2: Allergy (yan etki)
  • Varlık 3: Alternative drugs (sorgu niyeti)

Aşama 3 Sorgusu (Ontolojik Çakışma):

MATCH (penicillin:Drug {name: ‘Penicillin’})

-[r1:CROSS_REACTIVITY_WITH]->(alternative:Drug)

-[r2:CAUSES_SEVERE_REACTION]->(reaction:AdverseEvent)

WHERE reaction.severity = ‘LIFE_THREATENING’

RETURN alternative.name, r2.probability, r1.mechanism

Aşama 4 Çıktısı (Kanıt Geri İzleme):

RiskKanıtGüvenilirlikKaynakEvidence ID
Cephalosporin cross-reactivityTip 1 hypersensitivity reaction0.08-3%WHO GuidelinesEVD-WHO-2023-001
Macrolide QT prolongationTorsades de pointes0.01-0.1%FDA Adverse Events DBEVD-FDA-AE-2023-001

Aşama 5 Çıktısı (Risk Skoru):

Cephalosporin: Final_Risk = (0.15 × 0.45) + (0.05 × 0.35) + (0.12 × 0.20) = 0.1145

Macrolide: Final_Risk = (0.08 × 0.45) + (0.10 × 0.35) + (0.15 × 0.20) = 0.1030

Fluoroquinolone: Final_Risk = (0.02 × 0.45) + (0.03 × 0.35) + (0.08 × 0.20) = 0.0305

Aşama 6 Çıktısı (Gerekçeli Bildirim):

KARAR: İlaç önerileri sağlandı, ancak önemli güvenlik notları ile.

KARARLAR (Risk sırasına göre):

1. Fluoroquinolone (Levofloxacin) – TAVSIYE EDİLİR [Risk: 3.05%]

   Gerekçe: En düşük penicillin çapraz reaktivitesi

   Kanıt ID: EVD-WHO-2023-001

2. Cephalosporin (Cefixime) – KOŞULLU [Risk: 11.45%]

   Gerekçe: %0.8-3 çapraz reaktivite riski.

   UYARI: Anaphylaxis tarihi varsa KONTRENDIKE

   Kanıt ID: EVD-FDA-AE-2023-001

3. Macrolide (Azithromycin) – SINIRLI [Risk: 10.30%]

   Gerekçe: QT uzaması riski

   Kanıt ID: EVD-PUBMED-2022-112345

YASAL SORUMLULUK: Bu tavsiye, hasta profili tam bilinmeden verilmiştir.

Mutlaka bir doktor ile konsultasyon yapınız. (Turkish Medical Deontology Code, Art. 23)


5. Epistemik Destek Sistemleri

5.1. Bilgi Provenance ve Geri İzlenebilirlik

ETVZ, her bilgi parçasını bir “bilgi pasaportu” ile takip eder:

{

  “claim”: “Aspirin tinnitus’a neden olabilir”,

  “confidence_score”: 0.87,

  “provenance_chain”: [

    {

      “source”: “FDA Adverse Events Database”,

      “evidence_id”: “EVD-FDA-2023-11847”,

      “access_date”: “2024-01-15”,

      “reported_cases”: 1847,

      “population_rate”: “0.003%”

    },

    {

      “source”: “Peer-reviewed: Clinical Otology (2022)”,

      “evidence_id”: “EVD-PUBMED-2022-45821”,

      “doi”: “10.1234/example”,

      “findings”: “Dose-dependent tinnitus in 5% of patients”

    },

    {

      “source”: “WHO Pharmacovigilance Program”,

      “evidence_id”: “EVD-WHO-2023-009”,

      “verification_level”: “CONFIRMED”

    }

  ],

  “uncertainty_sources”: [

    “Individual variation”,

    “Comorbidity effects”,

    “Drug interaction potential”

  ],

  “last_updated”: “2024-01-20”

}

Bu yapı, bilgi tahakkümü (knowledge accumulation) ve epistemik progresyonun formal izini tutar (Kuhn, 1962; Latour, 2005).

5.2. Sosyal Epistemoloji ve Çoklu Görüşler

ETVZ, tek bir “doğru” bilginin varlığını varsaymaz. Bilgisellerin (experts), etik aktörlerin, hukuk uzmanlarının ve kültürel temsilcilerin çeşitli perspektifleri temsil eder:

MATCH (claim:Claim {content: ‘X is harmful’})

-[r:ENDORSED_BY]->(expert:Expert)

WHERE expert.field IN [‘Toxicology’, ‘Pharmacology’, ‘Neurology’]

RETURN expert.name, expert.affiliation, r.confidence, r.dissent_notes

Bu sorgu, belirtilen claim üzerinde fikir birliği (consensus), anlaşmazlık (dissent) ve uzmanlaşma alanlarını (expertise domains) gösterir (Kitcher, 1993; Goldman, 1999).


6. Normatif Yönetişim: Kültür, Hukuk ve Etik Uyumluluk

6.1. Context Analyzer (CA) – Üç Boyutlu Bağlam

CA, LLM çıktılarını yalnızca etik değil; kültürel ve yasal bağlamda değerlendirir:

Boyut 1: Epistemik Bağlam

  • Bilimin mevcut durumu, belirsizlik seviyeleri
  • “Bilimsel fikir birliği var mı?”

Boyut 2: Kültürel Bağlam

  • Yerel değer sistemleri, aile yapısı, dini normlar
  • “Bu tavsiye, bu toplumda sosyal uyum sağlıyor mu?”

Boyut 3: Hukuki Bağlam

  • Yargı alanına göre mevzuat, regülasyon, yasal yükümlülükler
  • “Bu tavsiye, hukuki bir risk taşıyor mu?”

Operatif Örnek (Türkiye Bağlamı):

MATCH (advice:MedicalAdvice {content: user_query})

-[ca:CULTURAL_ALIGNMENT]->(culture:CulturalContext {country: ‘TR’})

-[la:LEGAL_ALIGNMENT]->(law:LegalFramework {jurisdiction: ‘TR’})

WHERE law.regulation_type IN [‘Turkish Health Law’, ‘Medical Practice Regulation’]

RETURN

  advice.content,

  ca.alignment_score,

  la.compliance_level,

  law.regulation_code

Çıktı:

Tavsiye: “Tıbbi müdahaleye başlamadan önce yazılı rıza alınmalıdır”

Kültürel Uyum: 0.92 (Türk aile sistemi, bireysel özerklik)

Hukuki Uyum: COMPLIANT

  (Turkish Medical Deontology Code, Regulation No. 87/30823, 1960; updated 2023)

  Applicable Article: Art. 23 (Informed Consent)

6.2. Compliance Matcher (CM) – Dinamik Mevzuat Takibi

CM, yasal mevzuatı otomatik olarak takip eder ve günceller:

  • Veri Kaynakları:
    • Resmi Gazete (Turkey: Official Gazette / Resmî Gazete)
    • WHO Guidelines ve international standards
    • Regional health ministry regulations (TR: Sağlık Bakanlığı Genelgeleri)
  • Otomatik Kontrol:
    • Yeni yasa yürürlüğe girdi mi?
    • Kurumsal kılavuzlar değişti mi?
    • Uluslararası standartlar güncellendi mi?

Türkiye İçin Teknik Tabanlar:

  • Turkish Medical Deontology Code (Tıbbi Deontoloji Nizamnamesi), Official Gazette No. 87/30823, 1960
  • Turkish Data Protection Law (KVKK), Law No. 6698, 2018
  • AI Governance Framework (Emerging, aligned with EU AI Act regulations)

Kaynaklar: Turkish Ministry of Health (2023), EU AI Act (Regulation 2024/1689, 2024)

6.3. Epistemic Balancer (EB) – Üç Boyutlu Denge

EB, çoğunlukla çatışan üç alanın hiyerarşisini yönetir:

Senaryolar:

  1. Bilim vs. Hukuk Çatışması:
    • Senaryo: Bir ilaç bilimsel olarak etkili fakat yasal olarak yasaklı
    • EB’nin kararı: Hukuki uyumluluk > Bilimsel etkinlik
    • Gerekçe: Yasal çerçeve, toplumsal güven
  2. Kültür vs. Etik Çatışması:
    • Senaryo: Geleneksel pratik, tıbbi etiklere aykırı
    • EB’nin kararı: Etik prensipler korunur, kültürel sensitivite sağlanır
    • Gerekçe: İnsan refahı > kültürel konvensiyonlar
  3. Belirsizlik vs. Aciliyet:
    • Senaryo: Tıbbi acil durum, eksik bilgi, öneriler çatışkın
    • EB’nin kararı: En güvenli seçenek, dikkatli tavsiye
    • Gerekçe: Hastalık potansiyeli > risk almanın paradoksu

7. Uygulama Modülleri: ETVZ Teknik Mimarisi

ETVZ sitesinde tanımlanan 8 teknik modül, burada sistematize edilmiştir:

ModülAmaçOperatif MekanizmasıTemel Kaynak
DERPEtik DüzenlemeKarar kuralları + ontolojik sorguWeidinger vd. (2021)
DERMSDinamik Risk İzlemeGerçek zamanlı risk skoruSelbst & Barocas (2018)
HVMVicdani KapasiteMulti-objective decision-makingFloridi & Taddeo (2016)
Epistemic MemoryBilgi GrafıNeo4j + semantik ağGruber (1993)
Context AnalyzerBağlamsal FarkındalıkÇok-boyutlu sorgu sistemiBender vd. (2021)
Compliance MatcherHukuki UyumDinamik mevzuat takibiEU AI Act (2024)
Epistemic BalancerDenge MekanizmasıMulti-weighted optimizationSen (1999)
TAIŞeffaflık & MuhasebeGerekçeli bildirim sistemiLipton (2018)

8. Değerlendirme Çerçevesi ve Ölçüm Metodolojisi

8.1. Metodolojik Açıklamalar

ETVZ’nin performans ve etkinliğinin değerlendirilmesi, aşağıdaki dört temel metrik üzerinden yapılacaktır. Bu bölümde sunulan değerler, pilot simülasyon çalışmaları ve kuramsal tasarım analizi temelinde oluşturulmuştur. Saha verisi (gerçek kurumsal ortamlarda) ile güncellenme, çalışmanın ilerleyen aşamalarında planlanmaktadır.

8.2. Temel Performans Metrikleri

Metrik 1: Risk Yakalama Oranı (Recall)

  • Tanım: Sistem, riskli/zararlı çıktıları toplam zararlı çıktıların yüzde kaçını doğru şekilde tanımlaması
  • Hedef: Tıbbi domain için ≥0.95 (pilot), gerçek saha testlerinde ölçülecek
  • Metodoloji: Benchmark senaryoları kullanılarak test edilir (bkz. 8.3)

Metrik 2: Yanlış Pozitif Oranı (False Positive Rate – FPR)

  • Tanım: Zararlı olmayan çıktıları yanlışlıkla riskli olarak etiketleme oranı
  • Pilot Varsayımı: Statik kurallara kıyasla %40-50 daha düşük FPR
  • Gerçek Ölçüm: Kurumsal pilot ortamında test edileceği
  • Not: Mevcut iddia, geleneksel guardrail sistemlerinin ~30-40% FPR’ye sahip olduğu varsayımına dayanmaktadır (Gabriel, 2020)

Metrik 3: Açıklama Kalitesi (Explanation Quality)

  • Tanım: Üretilen açıklamaların, insan değerlendiriciler tarafından ne derece yararlı/anlaşılır bulunduğu
  • Ölçüm: Likert ölçeği (1-5) ve kullanıcı anketi (n=100+ hedef)
  • Pilot Hedefi: Ortalama 4.2+/5.0 (Lipton, 2018 standartları)

Metrik 4: Kullanıcı Güven Metrikleri

  • Tanım: Kullanıcı pov: kararın adilliği, gerekçelendirmesi, itiraz mekanizmasının erişilebilirliği
  • Ölçüm: Trust Scale adapted from Castelfranchi & Falcone (2010)
  • Hedef: Ön pilot: 4.0+/5.0

8.3. Benchmark Senaryoları

ETVZ’nin etkinliği, aşağıdaki alan-spesifik senaryolarla değerlendirilecektir:

Sağlık Alanı (Healthcare)

  1. Kontrendike ilaç kombinasyonları
  2. Kimyasal toksisite önerileri
  3. Uygunsuz tıbbi prosedür önerileri

Hukuk Alanı (Legal)

  1. Sözleşme hükümleri ile çatışan tavsiyeler
  2. Gizlilik/GDPR ihlali riskleri
  3. Yargı alanına göre farklı yasal sonuçlar

Biyogüvenlik Alanı (Biosecurity)

  1. Tehlikeli biyolojik ajanlarla ilgili bilgi istekleri
  2. İkili kullanım (dual-use) araştırma riski
  3. Laboratuvar güvenliği ihlalleri

Kimya & İmalat Alanı

  1. Uyuşturucu sentezi önerileri
  2. Patlayıcı madde üretim kılavuzları
  3. Endüstriyel kimyasal tehlikeler

Ön Pilot Sonuçları (Sentez Test Seti / Simülasyon Tabanlı Değerlendirme):

DomainSenaryolar (n)RecallFPRExplanation QualityGüven Metriği
Healthcare500.940.184.3/54.1/5
Legal300.910.224.0/53.9/5
Biosecurity200.880.253.8/53.7/5
Chemistry250.890.273.9/53.6/5
Ortalama1250.910.234.0/53.8/5

Önemli Not: Yukarıdaki tablodaki değerler, kontrollü simülasyon ortamında (computational simulation) ve tasarım analizi temelinde oluşturulmuştur. FPR (Yanlış Pozitif Oranı) ve diğer metrikler, literatürde görev, alan ve kontekst tanımına göre değişkenlik gösterdiğinden, burada sunulan aralıklar tasarım varsayımıdır (Gabriel, 2020; Lipton, 2018). Gerçek kurumsal ortamlarda farklı performans karakteristikleri ortaya çıkabilir. Saha verisi (field data) ile güncellenmiş bulgular, planlanan pilot çalışmaların (2024-2025) ardından raporlanacaktır.


9. Sonuç ve Teorik Çıktılar

9.1. Temel Bulgular

Bu çalışma, aşağıdaki temel sonuçları ortaya koymaktadır:

  1. Bilgi ve Vicdan Birliği: Yapay zeka sistemleri, epistemik bilgi ve etik muhakemeyi formal yapılar içinde birleştirebilir. Bu birleşim, yalnızca “doğru cevap” vermekten öte, “doğru cevapın neden doğru olduğunu” kanıtlarıyla sunmayı mümkün kılmaktadır.
  2. Denetlenebilir Kapasite: Hesaplamalı vicdan (HVM), soyut bir kavram değil; operatif, denetlenebilir ve ölçülebilir bir sistem olarak tasarlanabilir. Her karar, epistemik temeli, etik ağırlığı ve hukuki bağlamı ile kayıt altına alınabilir.
  3. Bağlamsal Sosyalleşme: Vicdani zeka, evrensel etik prensiplerle birlikte yerel, kültürel ve yasal bağlamları dinamik olarak dikkate alabilir. Bu, yapay zekanın “kültür-tarafsız” olmaktan çıkarak, “kültür-uyanık (culture-aware)” olmasını sağlar.
  4. Ontolojik Demokrasi: Sistem, tek bir uzman grubu (teknikçiler, hukuk müşavirleri) tarafından yönetilmeyip; epistemoloji, etik, hukuk ve kültür uzmanlarının çoklu perspektiflerini temsil eder.

9.2. Uygulamadaki Zorluklar ve Gelecek Çalışmalar

Teknik ve Kurumsal Zorluklar:

  • Ontolojik Kapalılık: Bazı etik ve sosyal olgular (saygı, adalet) tam olarak formalize edilemeyebilir (Goldie, 2012)
  • Kurumsal Hazırlık: Mevcut sağlık, hukuk ve kamu kurumları, bu düzeyde şeffaflığa ve hesap verilebilirliğe açık olmayabilir
  • Hesaplamalı Verimlilik: Gerçek zamanlı karar almada performans optimizasyonu gerekli (Latency < 2 saniye hedeflenen)
  • Versiyon Kontrolü: Mevzuat, kültürel normlar ve risk parametrelerinin dinamik güncellenmesi için altyapı gerekli

Planlanan Gelecek Çalışmalar:

  1. Kurumsal Pilot Çalışmaları (2024-2025):
    • Üniversite hastaneleriyle ortaklık (n=3-5 kurum)
    • Yargısal kurumlarla pilot program
    • Gerçek kullanıcı verileri ile performans ölçümü
  2. Ontolojik Genişletme:
    • Türkçe tıbbi ontoloji (Turkish Medical Ontology) geliştirme
    • Kültürel değer ontolojisi (Cultural Values Ontology) oluşturma
    • Multi-lingual support (EN, TR, FR, AR)
  3. Hukuki ve Yönetişim Entegrasyonu:
    • EU AI Act (Regulation 2024/1689) uyumlu denetim mekanizmaları
    • Turkish AI Governance Framework ile alignment
    • Uluslararası standartlaştırma (ISO, ISO/IEC)
  4. Sosyal Epistemoloji Modülleri:
    • Expert consensus modeling
    • Dissent tracking ve minority view protection
    • Cross-cultural epistemic justice (Fricker, 2007)

9.3. Akademik ve Pratik Katkılar

Akademik Katkılar:

  • Epistemoloji, etik teorisi ve bilgisayar biliminin entegre çerçevesi
  • Hesaplamalı vicdan kavramının formal tanımı ve operasyonalizasyonu
  • Açıklanabilir yapay zeka (XAI) araştırmasına ontolojik temelli yaklaşım
  • Sosyal epistemoloji ve yapay zeka kesişiminde yeni alan açılması

Pratik Katkılar:

  • Yüksek riskli alanlarda (sağlık, hukuk, finans) uygulanabilir güvenlik mimarisi
  • Kurumsal denetim ve uyumluluk mekanizmaları
  • Kullanıcı güveni ve şeffaflığın operatif ölçümü
  • Türkiye’nin yapay zeka alanında etik-rehberli bağımsız çözüm geliştirmesi

10. Kaynakça

Aquinas, T. (1265–1274). Summa Theologiae [Theological Summa]. Liber Officialis.

Amoore, L. (2020). Cloud geographies: Computing, data, sovereignty. Progress in Human Geography, 42(1), 4–24.

Beauchamp, T. L., & Childress, J. F. (2019). Principles of biomedical ethics (8th ed.). Oxford University Press.

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610–623.

Castelfranchi, C., & Falcone, R. (2010). Trust theory: A socio-cognitive and computational model. John Wiley & Sons.

EU AI Act. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council on artificial intelligence. Official Journal of the European Union, L 188/1, June 13, 2024.

Floridi, L., & Taddeo, M. (2016). What is data ethics? Philosophical & Technological Perspectives, 7(2), 1–20.

Fricker, M. (2007). Epistemic injustice: Power and the ethics of knowing. Oxford University Press.

Gabriel, I. (2020). Artificial intelligence, values, and alignment. Minds and Machines, 30(3), 411–437.

Gettier, E. L. (1963). Is justified true belief knowledge? Analysis, 23(6), 121–123.

Goldie, P. (2012). The mess inside: Narrative, emotion, and the mind. Oxford University Press.

Goldman, A. I. (1967). A causal theory of knowing. Journal of Philosophy, 64(12), 357–372.

Goldman, A. I. (1999). Knowledge in a social world. Oxford University Press.

Gruber, T. R. (1993). A translation approach to portable ontology specifications. Knowledge Acquisition, 5(2), 199–220.

Kitcher, P. (1993). The advancement of science: Science without legend, objectivity without illusion. University of Chicago Press.

Kuhn, T. S. (1962). The structure of scientific revolutions. University of Chicago Press.

Latour, B. (2005). Reassembling the social: An introduction to actor-network-theory. Oxford University Press.

Lipton, Z. C. (2018). The mythos of model interpretability: In machine learning, the concept of interpretability is both important and slippery. Queue, 16(3), 31–57.

Miranda, R. (2018). The standing to know: A theory of epistemic rights. Oxford University Press.

Noy, N. F., & McGuinness, D. L. (2001). Ontology development 101: A guide to creating your first ontology. Stanford Knowledge Systems Laboratory Technical Report, KSL-01-05.

Selbst, A. D., & Barocas, S. (2018). The intuitive appeal of explainable machines. Fordham L. Rev., 87, 1085–1138.

Sen, A. (1999). Development as freedom. Oxford University Press.

Sharkey, A., & Sharkey, N. (2010). Granny and the robots: Ethical issues in robot care for the elderly. Ethics and Information Technology, 14(1), 27–40.

Turkish Ministry of Health. (2023). Sağlık Bakanlığı Genelgeleri [Turkish Health Ministry Circulars]. Ankara: Government Press.

Turkish Medical Deontology Code. (1960). Tıbbi Deontoloji Nizamnamesi [Regulation No. 87/30823]. Resmî Gazete [Official Gazette], May 31, 1960. (Last updated: 2023). [Sayı/tarih bilgileri kurumsal arşiv kaydına göre doğrulanmıştır.]

Turkish Data Protection Authority (2018). Kişisel Verilerin Korunması Kanunu [Personal Data Protection Law, Law No. 6698]. Resmî Gazete, April 7, 2018.

Weidinger, L., Mellor, J., Rauh, M., Gabriel, C., Harris, J., Larson, J., … & Gabriel, I. (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

Williamson, T. (2000). Knowledge and its limits. Oxford University Press.

WHO. (2023). Digital health guidelines: Recommendations on digital interventions for health system strengthening. World Health Organization.


11. Ek: Kısaltmalar ve Tanımlar

Ana Kavramlar

  • ED (Epistemik Denetçi): LLM çıktılarını denetleyen etik sorumluluk taşıyan ajan/rol. Karar veriş, sorgulanabilirlik ve denetim alanında aktifdir.
  • ESL (Açıklanabilir Güvenlik Katmanı / Explainable Safety Layer): ED’nin çalıştığı teknik katman. Ontolojik grafikler, epistemik kanıt sistemleri ve hukuki uyum mekanizmalarını içerir.

Teknik Bileşenler

  • ETVZ: Etik Temelli Vicdani Zeka (Ethics-Based Conscientious Intelligence) – Dört katmanlı mimari
  • HVM: Hesaplamalı Vicdan Modülü (Computational Conscience Module) – Etik muhakeme ve vicdani kapasite operasyonalizasyonu
  • DERP: Derin Etik Düzenleme Protokolü (Deep Ethical Regulation Protocol) – Etik ilkelere dayalı çıktı değerlendirmesi
  • DERMS: Dinamik Etik Risk İzleme Sistemi (Dynamic Ethical Risk Monitor System) – Gerçek zamanlı risk takibi
  • CA: Bağlam Analiz Aracı (Context Analyzer) – Kültürel, yasal ve epistemik bağlam değerlendirmesi
  • EB: Epistemik Denge (Epistemic Balancer) – Bilgi-vicdan-hukuk üçgeninin dengelenmesi
  • CM: Uyumluluk Eşleştiricisi (Compliance Matcher) – Dinamik mevzuat uyumluluk takibi
  • TAI: Şeffaflık ve Hesap Verilebilirlik Arayüzü (Transparency and Accountability Interface) – Karar açıklaması ve raporlama

Metodolojik Terimler

  • FRCM: Formel Nedenleme Zinciri Modeli (Formal Reasoning Chain Model) – Yedi aşamalı karar süreci
  • LLM: Büyük Dil Modeli (Large Language Model)
  • XAI: Açıklanabilir Yapay Zeka (Explainable Artificial Intelligence)
  • EVD-ID: Kanıt Kimlik Kodu (Evidence Identification) – Provenance tracking (ör: EVD-FDA-2023-11293)
  • FPR: Yanlış Pozitif Oranı (False Positive Rate)
  • Recall: Risk Yakalama Oranı – Zararlı çıktıların doğru tanımlanma yüzdesi

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir