ETVZ

Yapay Zekâda “Basiretli” Yanıt Mekanizması: Epistemik Hafıza ve Neo4j ile Doğruluk Denetimi

Epistemik Hafıza; Neo4j Yapay Zeka; Trust Score Algoritması; LLM Doğruluk Denetimi; ETVZ Mimari; Halüsinasyon Önleme; Grafik Veritabanı Etik AI

Özet Büyük Dil Modelleri (LLM), doğası gereği istatistiksel olasılıklara dayanır; bu yapı onları dil üretiminde çok güçlü kılarken, “doğruluk” konusunda kırılgan hale getirir. Model, bildiği ile bilmediği arasındaki sınırı her zaman ayırt edemez; bu durum “halüsinasyon” (uydurma bilgi) ve bilgi kirliliği gibi sistemik sorunlara yol açar (Huang et al., 2023; Ji et al., 2023). ETVZ […]

Büyük Dil Modellerinde Karar Eşiği: ETVZ ile Cevap Vermek mi, Durmak mı?

ETVZ, Karar Eşiği, Yapay Zeka Etiği, Algoritmik Vicdan, HVM, DERP, Stratejik Sessizlik, Büyük Dil Modelleri, LLM Denetimi, Vicdani Muhakeme, Basiretli Yapay Zeka, Yerli Yapay Zeka Mimarisi, Yapay Zeka Felsefesi, Dijital Etik, Halüsinasyon Önleme, Epistemik Güven

Decision Threshold in Large Language Models: To Respond or To Remain Silent with ETVZ? Özet Günümüz büyük dil modelleri (LLM), yapısal olarak “cevap verme mecburiyeti” ile çalışmaktadır. Bu refleks; bilgi eksikliği, etik belirsizlik veya kültürel hassasiyet içeren durumlarda halüsinasyon, yanıltıcı yönlendirme veya uygunsuz çıktı üretimine yol açabilmektedir (Bender vd., 2021; Ji vd., 2023). ETVZ (Etik […]