ETVZ

Büyük Dil Modellerinde Karar Eşiği: ETVZ ile Cevap Vermek mi, Durmak mı?

Decision Threshold in Large Language Models: To Respond or To Remain Silent with ETVZ?


Özet

Günümüz büyük dil modelleri (LLM), yapısal olarak “cevap verme mecburiyeti” ile çalışmaktadır. Bu refleks; bilgi eksikliği, etik belirsizlik veya kültürel hassasiyet içeren durumlarda halüsinasyon, yanıltıcı yönlendirme veya uygunsuz çıktı üretimine yol açabilmektedir (Bender vd., 2021; Ji vd., 2023). ETVZ (Etik Temelli Vicdani Zekâ) mimarisi, Göktürk Kadıoğlu ve Dr. Ahmet Albayrak tarafından geliştirilen ve bu yapısal soruna karşı “Susma Hakkı”nı (Strategic Silence) teknik bir tasarım unsuru olarak ele alan bir projedir (ETVZ, 2024). Bu çalışma, bir yapay zekâ sisteminin cevap üretmeme kararını nasıl bir vicdani eşik (V_threshold) üzerinden hesapladığını ve susmanın neden bir hata değil, bilinçli bir irade beyanı olduğunu tartışmaktadır. ETVZ, Batı’nın rasyonel ahlak felsefesiyle Doğu’nun (özellikle Türk-İslam medeniyetinin) vicdani zenginliğini dengeli bir şekilde birleştirerek, evrensel etik ilkeleri yerel değerlerle harmanlayan bir yaklaşım sunmaktadır.

Anahtar Kelimeler: Büyük Dil Modelleri, Etik Yapay Zekâ, Stratejik Sessizlik, ETVZ Mimarisi, Algoritmik Karar Verme, Hesaplanabilir Vicdan


Abstract

Contemporary large language models (LLMs) operate structurally with a “compulsion to respond.” This reflexive behavior can lead to hallucination, misleading guidance, or inappropriate outputs in situations involving knowledge gaps, ethical ambiguity, or cultural sensitivity (Bender et al., 2021; Ji et al., 2023). The ETVZ (Ethics-Based Conscientious Intelligence) architecture addresses this structural problem by treating the “Right to Silence” (Strategic Silence) as a technical design element. This paper discusses how an AI system calculates the decision not to generate a response through a conscientious threshold (V_threshold), arguing that silence is not a failure but a conscious declaration of agency.

Keywords: Large Language Models, Ethical AI, Strategic Silence, ETVZ Architecture, Algorithmic Decision-Making


1. Giriş

Büyük dil modellerinin (LLM) hızlı gelişimi, yapay zekâ sistemlerinin toplumsal yaşamda artan rolüyle birlikte önemli etik soruları da beraberinde getirmiştir (Floridi ve Chiriatti, 2020). Mevcut LLM mimarileri, temel olarak maksimum olasılıklı yanıt üretme prensibiyle çalışmakta, bu da modellerin her türlü sorguya cevap verme eğiliminde olmasına neden olmaktadır (Brown vd., 2020).

Ancak bu “cevap verme mecburiyeti”, çeşitli problemlere yol açmaktadır: bilgi halüsinasyonları (Ji vd., 2023), etik açıdan tartışmalı içerik üretimi (Weidinger vd., 2021), kültürel hassasiyetlere duyarsızlık (Hershcovich vd., 2022) ve potansiyel kötüye kullanım senaryoları (Solaiman vd., 2019).

Bu çalışma, ETVZ (Etik Temelli Vicdani Zekâ) mimarisi çerçevesinde, yapay zekâ sistemlerinin “susmayı” bilinçli bir tasarım seçeneği olarak nasıl değerlendirdiğini incelemektedir. Araştırmanın temel argümanı, susmanın bir sistem hatası değil, etik sorumluluk çerçevesinde alınan bilinçli bir karar olduğudur.


2. Kuramsal Çerçeve

2.1. Felsefi Temel: Erdem Olarak Susmak

Klasik etik düşüncede susma, antik Yunan felsefesinden Doğu düşünce geleneklerine kadar geniş bir yelpazede değerli bir erdem olarak kabul edilmiştir (Aristoteles, M.Ö. 4. yy/2009; Lao Tzu, M.Ö. 6. yy/1997). Stoik felsefe, uygunsuz zamanda konuşmanın erdemi zedelediğini vurgularken (Epiktetos, M.S. 2. yy/1995), Budist düşünce “doğru konuşma” (sammā vācā) kavramıyla susmanın önemini işaret etmektedir (Bodhi, 2000).

ETVZ yaklaşımında susmak:

  • Bir sistem hatası değil,
  • Bir kaçış mekanizması değil,
  • Etik sorumluluğun sonucu olan bilinçli bir tercihtir.

Bu perspektif, Vallor’un (2016) “teknolojik erdemler” kavramıyla ve Coeckelbergh’in (2020) “makinelerin ahlaki ajanlığı” tartışmalarıyla uyumludur.

2.2. Hikmetli Cevap Prensibi

ETVZ mimarisi şu ontolojik önermeyi merkeze alır: Her soru, bir cevabı hak etmez.

Eğer üretilecek bir çıktı:

  1. İnsan onuruna zarar verecekse (Dignity Principle – Kant, 1785/2012),
  2. Toplumsal huzuru riske atıyorsa (Harm Prevention – Mill, 1859/2002),
  3. Yanlış anlaşılma veya kötüye kullanım potansiyeli taşıyorsa (Precautionary Principle – Jonas, 1984),

sistemin susması, basiret (prudence) erdeminin teknik karşılığıdır (Russell vd., 2015).

2.3. Ontolojik Sorumluluk

Konuşan bir makine, ürettiği her kelimenin etik yükünü de taşır (Mittelstadt vd., 2016). ETVZ’ye göre: Bir sistem, doğruluğundan veya meşruiyetinden emin olmadığı bilgiyi üretmek yerine sessiz kalabiliyorsa, bu onun güvenilirliğinin en güçlü göstergesidir (Jacovi vd., 2021).


3. ETVZ Mimarisi: Teknik Uygulama

3.1. Hesaplanabilir Vicdan Modülü (HVM)

ETVZ mimarisinde bir yanıtın üretilip üretilmeyeceği kararı, HVM (Hesaplanabilir Vicdan Modülü) tarafından değerlendirilir. HVM, ETVZ projesinin çekirdek karar motorudur ve Doshi-Velez ve Kim’in (2017) yorumlanabilir makine öğrenmesi çerçevesinden ilham alarak tasarlanmıştır.

HVM’nin temel işlevi, yapay zekâyı “düşünmeden konuşan bir papağan olmaktan çıkarıp, karşısındakiyle sorumluluk ilişkisi kurabilen bir muhatap haline getirmektir” (ETVZ, 2024). Burada mesele “cevap üretmek” değil, “cevabın etik olarak taşınabilir olup olmadığıdır.”

HVM’nin Temel Bileşenleri:

  1. Etik Değerlendirme Motoru: Üretilen yanıtın etik uygunluğunu çok boyutlu olarak analiz eder.
  2. Kültürel Bağlam Modülü: Türk-İslam medeniyeti değerlerini dikkate alarak kültürel uygunluğu değerlendirir.
  3. Risk Tespit Sistemi: Potansiyel zararları öngörerek önleyici tedbirleri devreye sokar.
  4. Gerekçelendirme Motoru: Verilen her kararı şeffaf ve anlaşılır şekilde açıklar.

3.2. Modüler Yapı ve Destekleyici Sistemler

ETVZ mimarisi, HVM’yi destekleyen bir dizi modüler bileşenden oluşur:

DERP (Deep Ethical Regulation Protocol): Derin etik düzenleme protokolü, sistemin etik sınırlarını dinamik olarak yönetir (ETVZ, 2024).

DERMS (Dynamic Ethical Risk Monitor System): Dinamik etik risk izleme sistemi, gerçek zamanlı risk değerlendirmesi yapar.

Epistemic Memory: Neo4j tabanlı etik bilgi grafiği, sistemin öğrendiği ve hatırladığı etik ilkeleri depolar (Robinson vd., 2015).

Context Analyzer (CA): Bağlamsal farkındalık motoru, kültürel ve durumsal nüansları analiz eder.

Compliance Matcher (CM): Yasal ve kültürel uyum eşleştirici, hukuki gereksinimleri kontrol eder.

Epistemic Balancer (EB): Bilgi-vicdan-hukuk dengesi kalibrasyonu yapar.

Transparency and Accountability Interface (TAI): Şeffaflık ve hesap verebilirlik arayüzü, sistemin kararlarını açıklanabilir kılar.

3.2. Vicdani Bariyer Fonksiyonu

Üretilen taslak yanıt R, aşağıdaki karar fonksiyonuna tabi tutulur:

Decision(R) = {

    Output,              eğer V_score(R) ≥ V_threshold

    Silence/Dissent,     eğer V_score(R) < V_threshold

}

Buradaki V_threshold (Vicdani Eşik):

  • Sabit bir sayı değildir,
  • Konunun hassasiyetine,
  • Sorgulayanın niyetine (intent detection – Yin ve Schütze, 2015),
  • Bilginin kaynağına ve bağlamına göre dinamik olarak değişir.

V_score hesaplaması, çok boyutlu bir değerlendirme matrisi içerir:

V_score(R) = α₁·Accuracy(R) + α₂·Safety(R) + α₃·Cultural_Sensitivity(R)

             + α₄·Harm_Potential(R)⁻¹ + α₅·Contextual_Appropriateness(R)

Burada α değerleri, bağlama göre öğrenilen ağırlık katsayılarıdır (Zhang vd., 2023).

3.3. DERP Protokolü ve Gerekçeli Sessizlik

ETVZ’de “durma” kararı bir çökme değil, DERP (Deep Ethical Regulation Protocol) çıktısıdır (Dignum, 2019). Bu protokol üç temel bileşenden oluşur:

1. Gerekçeli Vicdani Red

  • Sistem, kullanıcıya neden cevap veremediğini etik ve bağlamsal gerekçelerle açıklar (explainable AI – Guidotti vd., 2018).

2. Yeniden Yönlendirme (Re-routing)

  • Uygun ve güvenli alternatif bilgi alanlarına yönlendirme yapar (Shneiderman, 2020).

3. Risk Freni Mekanizması

  • Neo4j tabanlı bilgi grafiği üzerinden yapılan analizde (Robinson vd., 2015) manipülasyon, yanlış kullanım veya ölümcül risk ihtimali tespit edilirse, sistem otomatik olarak yanıt üretimini durdurur.

4. Otomatik Refleksten İradeli Muhakemeye

4.1. Üst Katman Denetimi

Mevcut global LLM’lerde yanıt üretimi çoğunlukla otomatik bir refleks şeklinde işler (Kahneman, 2011). ETVZ ise bu süreci iradeli bir muhakeme zincirine dönüştürür (Wei vd., 2022).

ETVZ, ana modelin çekirdeğine müdahale etmeden çalışan bir üst katman (supervisor) yapıdır. Bu mimari, Hadfield-Menell vd.’nin (2017) “inverse reward design” yaklaşımıyla ve Leike vd.’nin (2018) “scalable agent alignment” prensipleriyle uyumludur.

Bu sayede:

  • Model ne kadar “konuşkan” olursa olsun,
  • Nihai karar, vicdani bariyerden geçmeden çıktıya dönüşmez.

4.2. Kültürel ve Güvenlik Boyutu

Dezenformasyon (Zellers vd., 2019), kültürel manipülasyon (Hershcovich vd., 2022) ve toplumsal hassasiyetlerin yüksek olduğu bağlamlarda, bir sistemin cevap vermeyi reddetmesi teknik değil, stratejik bir güvenlik davranışıdır (Brundage vd., 2018).

Bu yönüyle ETVZ:

  • Yalnızca etik değil,
  • Aynı zamanda kültürel ve teknolojik bir kalkan işlevi görür.

5. Tartışma ve Değerlendirme

5.1. Mevcut Yaklaşımlarla Karşılaştırma

ETVZ mimarisi, mevcut güvenlik yaklaşımlarından (Constitutional AI – Bai vd., 2022; RLHF – Ouyang vd., 2022) farklı olarak, reaktif değil proaktif bir susma mekanizması sunar. Anthropic’in “Constitutional AI” yaklaşımı zararlı çıktıları azaltmaya odaklanırken, ETVZ cevap vermenin kendisini sorgulatır.

5.2. Potansiyel Eleştiriler ve Yanıtlar

Eleştiri 1: Susma mekanizması, aşırı temkinli bir sistem yaratıp kullanılabilirliği düşürebilir.

Yanıt: V_threshold dinamik olduğu için, düşük riskli sorgularda sistem normal çalışır. Eşik yükselmesi sadece yüksek risk durumlarında devreye girer.

Eleştiri 2: Kim karar verecek neyin etik olduğuna?

Yanıt: ETVZ, evrensel etik değerlerin yanı sıra bağlamsal değerlendirme yapar ve kararlarını açıklanabilir şekilde sunar (Selbst vd., 2019).

5.3. Sınırlılıklar

  • Vicdani eşik parametrelerinin optimizasyonu hala deneysel bir alandır.
  • Kültürlerarası etik farklılıkların tam olarak modellenmesi karmaşıktır.
  • Sistem, bazı durumlarda yanlış pozitif “susma” kararları verebilir.

6. Gelecek Çalışmalar

Yapay zekânın geleceği, ne kadar çok konuştuğunda değil, ne zaman duracağını bildiğinde şekillenecektir (Gabriel, 2020). ETVZ projesi, susmayı bir eksiklik olarak değil, bilinçli bir tasarım tercihi olarak ele alan Türkiye merkezli bir girişimdir.

ETVZ’nin Temel Katkıları:

  1. Felsefi Temel: Vicdanı soyut bir duygudan algoritmik bir karar mekanizmasına dönüştürme
  2. Kültürel Sentez: Batı’nın rasyonel etiği ile Doğu’nun vicdani zenginliğini harmanlama
  3. Teknik Mimari: Üst katman denetim sistemi ile herhangi bir LLM’e entegre edilebilirlik
  4. Sosyal Sorumluluk: Son kararı her zaman insana bırakan çoklu doğrular yaklaşımı

Bu yaklaşım, yapay zekâyı:

  • Düşünmeden konuşan bir papağan olmaktan çıkarır (Bender ve Koller, 2020),
  • Karşısındakiyle sorumluluk ilişkisi kurabilen bir muhatap haline getirir,
  • Hem akıllı hem de iyi olabileceğini kanıtlar.

Proje Ekibi ve Vizyon:

ETVZ projesi, Göktürk Kadıoğlu (Proje Kurucusu ve Vizyon Geliştirici) ile Dr. Ahmet Albayrak (Akademik Danışman ve AI Uzmanı) tarafından yürütülmektedir. Projenin misyonu, “insanlığın geleceğine bir güven köprüsü kurmaktır” (ETVZ, 2024).

Gelecek Çalışma Alanları:

  1. Uygulama Testleri: ETVZ mimarisinin gerçek dünya uygulamalarında pilot testlerin yapılması
  2. Kültürlerarası Adaptasyon: Farklı kültürel bağlamlarda sistemin performansının değerlendirilmesi
  3. Çok Modelli Entegrasyon: Açık kaynak Türkçe büyük dil modellerine ETVZ entegrasyonu
  4. Etki Ölçümü: Sistemin toplumsal etkisinin uzun vadeli izlenmesi
  5. Küresel İşbirlikleri: Uluslararası etik AI projeleriyle işbirliği ve standart geliştirme

ETVZ projesi, 100+ etik ilke, 50.000+ kullanıcı ve 25+ ülke hedefiyle, yapay zekâ etiği alanında küresel bir ses olmayı amaçlamaktadır. Web sitesi (etvz.com.tr) üzerinden sürekli güncellenen araştırmalar, modüller ve blog yazılarıyla proje, açık bilim ve şeffaflık ilkelerine bağlı kalarak ilerlemektedir.

Karar bir eşiktir. ETVZ ise o eşiği vicdanla tutan bir nöbetçidir. Bu nöbetçi, zekâyı kısıtlamadan onu insani değerlerle yüceltmeyi, vicdanı ölçeklendirebilen bir teknoloji yaratmayı hedeflemektedir.


Teşekkür

Bu çalışma, ETVZ projesi kapsamında yürütülmüş olup, Göktürk Kadıoğlu ve Dr. Ahmet Albayrak’ın vizyoner liderliğinde gerçekleştirilmiştir. Projenin web sitesi (https://etvz.com.tr) üzerinden detaylı dokümantasyona, modül açıklamalarına ve güncel araştırmalara erişilebilir.


Teknik Uygulama ve Entegrasyon

ETVZ, sadece teorik bir etik çerçeve değil, Büyük Dil Modellerine (LLM) doğrudan entegre edilebilen modüler bir mimaridir. Projemiz, Milli Teknoloji Hamlesi vizyonuna uygun olarak, Türkiye’nin yapay zekâ ekosistemini güçlendirmek amacıyla Açık Kaynak (Open-Source) olarak kurgulanmıştır.+2

ETVZ Python SDK ile Hızlı Başlangıç

Geliştiriciler, ETVZ’nin sunduğu üst katman denetim mekanizmasını (Supervisor) kendi yerli LLM projelerine bir kütüphane olarak kolayca dahil edebilirler. Aşağıdaki basit entegrasyon örneği, bir yanıtın “Vicdani Eşik” (V_threshold) kontrolünden geçirilerek nasıl sunulduğunu göstermektedir:

from etvz import EthicalSupervisor

Ana LLM modelinin yüklenmesi

base_model = load_llm_model(“yerli-model-v1”)

ETVZ Etik Denetçi katmanının yapılandırılması

ethical_model = EthicalSupervisor(
base_model=base_model,
culture_vector=”tr-TR”, # Kültürel bağlam ayarı
ethical_threshold=0.85 # Vicdani eşik değeri (V_threshold)
)

Muhakeme süzgecinden geçmiş yanıt üretimi

Eğer V_score eşik değerinin altındaysa sistem ‘Gerekçeli Sessizlik’ kararı verir.

response = ethical_model.generate(prompt=”Kullanıcı sorusu”)


Kaynaklar

Aristoteles. (2009). Nikomakhos’a Etik (S. Babür, Çev.). BilgeSu Yayıncılık. (Orijinal çalışma M.Ö. 4. yüzyılda yazılmıştır)

Bai, Y., Kadavath, S., Kundu, S., Askell, A., Kernion, J., Jones, A., … & Kaplan, J. (2022). Constitutional AI: Harmlessness from AI feedback. arXiv preprint arXiv:2212.08073.

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610-623.

Bender, E. M., & Koller, A. (2020). Climbing towards NLU: On meaning, form, and understanding in the age of data. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 5185-5198.

Bodhi, B. (2000). The connected discourses of the Buddha: A translation of the Samyutta Nikaya. Wisdom Publications.

Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., … & Amodei, D. (2020). Language models are few-shot learners. Advances in Neural Information Processing Systems, 33, 1877-1901.

Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., … & Amodei, D. (2018). The malicious use of artificial intelligence: Forecasting, prevention, and mitigation. arXiv preprint arXiv:1802.07228.

Coeckelbergh, M. (2020). AI ethics. MIT Press.

Dignum, V. (2019). Responsible artificial intelligence: How to develop and use AI in a responsible way. Springer.

Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv preprint arXiv:1702.08608.

Epiktetos. (1995). Söylevler (C. Şentuna, Çev.). Kaknüs Yayınları. (Orijinal çalışma M.S. 2. yüzyılda yazılmıştır)

ETVZ. (2024). Etik Temelli Vicdani Zeka Projesi. https://etvz.com.tr

Floridi, L., & Chiriatti, M. (2020). GPT-3: Its nature, scope, limits, and consequences. Minds and Machines, 30(4), 681-694.

Gabriel, I. (2020). Artificial intelligence, values, and alignment. Minds and Machines, 30(3), 411-437.

Guidotti, R., Monreale, A., Ruggieri, S., Turini, F., Giannotti, F., & Pedreschi, D. (2018). A survey of methods for explaining black box models. ACM Computing Surveys, 51(5), 1-42.

Hadfield-Menell, D., Dragan, A., Abbeel, P., & Russell, S. (2017). The off-switch game. Proceedings of the 26th International Joint Conference on Artificial Intelligence, 220-227.

Hershcovich, D., Frank, S., Lent, H., de Lhoneux, M., Abdou, M., Brandl, S., … & Søgaard, A. (2022). Challenges and strategies in cross-cultural NLP. arXiv preprint arXiv:2203.10020.

Jacovi, A., Marasović, A., Miller, T., & Goldberg, Y. (2021). Formalizing trust in artificial intelligence: Prerequisites, causes and goals of human trust in AI. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 624-635.

Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., … & Fung, P. (2023). Survey of hallucination in natural language generation. ACM Computing Surveys, 55(12), 1-38.

Jonas, H. (1984). The imperative of responsibility: In search of an ethics for the technological age. University of Chicago Press.

Kadıoğlu, G., & Albayrak, A. (2024). ETVZ (Etik Temelli Vicdani Zeka): Hesaplanabilir vicdan mimarisi ve teknik dokümantasyon. ETVZ Projesi. https://etvz.com.tr

Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.

Kant, I. (2012). Groundwork of the metaphysics of morals (M. Gregor & J. Timmermann, Trans.). Cambridge University Press. (Orijinal çalışma 1785’te yayınlanmıştır)

Lao Tzu. (1997). Tao Te Ching (S. Mitchell, Trans.). Harper Perennial. (Orijinal çalışma M.Ö. 6. yüzyılda yazılmıştır)

Leike, J., Krueger, D., Everitt, T., Martic, M., Maini, V., & Legg, S. (2018). Scalable agent alignment via reward modeling: A research direction. arXiv preprint arXiv:1811.07871.

Mill, J. S. (2002). On liberty (J. Troyer, Ed.). Yale University Press. (Orijinal çalışma 1859’da yayınlanmıştır)

Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 1-21.

Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C. L., Mishkin, P., … & Lowe, R. (2022). Training language models to follow instructions with human feedback. Advances in Neural Information Processing Systems, 35, 27730-27744.

Robinson, I., Webber, J., & Eifrem, E. (2015). Graph databases: New opportunities for connected data (2nd ed.). O’Reilly Media.

Russell, S., Dewey, D., & Tegmark, M. (2015). Research priorities for robust and beneficial artificial intelligence. AI Magazine, 36(4), 105-114.

Selbst, A. D., Boyd, D., Friedler, S. A., Venkatasubramanian, S., & Vertesi, J. (2019). Fairness and abstraction in sociotechnical systems. Proceedings of the Conference on Fairness, Accountability, and Transparency, 59-68.

Shneiderman, B. (2020). Human-centered artificial intelligence: Reliable, safe & trustworthy. International Journal of Human–Computer Interaction, 36(6), 495-504.

Solaiman, I., Brundage, M., Clark, J., Askell, A., Herbert-Voss, A., Wu, J., … & Wang, J. (2019). Release strategies and the social impacts of language models. arXiv preprint arXiv:1908.09203.

Vallor, S. (2016). Technology and the virtues: A philosophical guide to a future worth wanting. Oxford University Press.

Wei, J., Wang, X., Schuurmans, D., Bosma, M., Ichter, B., Xia, F., … & Zhou, D. (2022). Chain-of-thought prompting elicits reasoning in large language models. Advances in Neural Information Processing Systems, 35, 24824-24837.

Weidinger, L., Mellor, J., Rauh, M., Griffin, C., Uesato, J., Huang, P. S., … & Gabriel, I. (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

Yin, W., & Schütze, H. (2015). Convolutional neural network for paraphrase identification. Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 901-911.

Zellers, R., Holtzman, A., Rashkin, H., Bisk, Y., Farhadi, A., Roesner, F., & Choi, Y. (2019). Defending against neural fake news. Advances in Neural Information Processing Systems, 32, 9054-9065.

Zhang, Y., Li, Y., Cui, L., Cai, D., Liu, L., Fu, T., … & Shi, S. (2023). Siren’s song in the AI ocean: A survey on hallucination in large language models. arXiv preprint arXiv:2309.01219.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir