Yapay Zekâda “Basiretli” Yanıt Mekanizması: Epistemik Hafıza ve Neo4j ile Doğruluk Denetimi

Özet Büyük Dil Modelleri (LLM), doğası gereği istatistiksel olasılıklara dayanır; bu yapı onları dil üretiminde çok güçlü kılarken, “doğruluk” konusunda kırılgan hale getirir. Model, bildiği ile bilmediği arasındaki sınırı her zaman ayırt edemez; bu durum “halüsinasyon” (uydurma bilgi) ve bilgi kirliliği gibi sistemik sorunlara yol açar (Huang et al., 2023; Ji et al., 2023). ETVZ […]
Büyük Dil Modellerinde Karar Eşiği: ETVZ ile Cevap Vermek mi, Durmak mı?

Decision Threshold in Large Language Models: To Respond or To Remain Silent with ETVZ? Özet Günümüz büyük dil modelleri (LLM), yapısal olarak “cevap verme mecburiyeti” ile çalışmaktadır. Bu refleks; bilgi eksikliği, etik belirsizlik veya kültürel hassasiyet içeren durumlarda halüsinasyon, yanıltıcı yönlendirme veya uygunsuz çıktı üretimine yol açabilmektedir (Bender vd., 2021; Ji vd., 2023). ETVZ (Etik […]
