Büyük Dil Modelleri, Gerçek Yapay Zekâ ve ETVZ: Kelime Tahmininden Vicdani Karar Mimarisine Geçiş

Öz
Günümüzde büyük dil modelleri (LLM) toplum tarafından yapay zekâ ile eş tutulmaktadır. Ancak mevcut LLM’ler olasılıksal token tahmini yapan sistemlerdir ve gerçek anlamda karar verme, sonuç değerlendirme veya sorumluluk taşıma kapasitesinden yoksundur. Bu çalışma, LLM’ler ile gerçek yapay zekâ (AI/AGI) arasındaki temel farklılıkları teknik ve epistemolojik açıdan ele almakta, mevcut etik yaklaşımların yetersizliklerini tartışmakta ve Etik Temelli Vicdani Zekâ (ETVZ) yaklaşımının mimari bir çözüm olarak önemini ortaya koymaktadır. ETVZ, prompt düzeyinde bir müdahale değil, karar öncesi muhakeme sürecini sistematize eden üst katman bir mimari olarak konumlandırılmaktadır.
Anahtar Kelimeler: Büyük Dil Modelleri, Yapay Genel Zekâ, Etik Yapay Zekâ, Vicdani Muhakeme, Karar Mimarisi, ETVZ
1. Giriş
Yapay zekâ teknolojilerinin hızla yaygınlaşması, toplumun büyük kesiminin bu sistemlerle etkileşime girmesine olanak sağlamıştır (Bender et al., 2021). Ancak bu etkileşimde kritik bir kavram karmaşası mevcuttur: Kullanıcıların “yapay zekâ” olarak tanımladığı sistemler, gerçekte büyük dil modelleri (Large Language Models – LLM) olarak adlandırılan, olasılıksal dil üretim mekanizmalarıdır (Brown et al., 2020; Devlin et al., 2019). Bu çalışma, bu kavramsal ayrımın teknik temellerini incelemekte ve gerçek yapay zekânın gerektirdiği karar verme kapasitesinin nasıl yapılandırılması gerektiğini tartışmaktadır.
Son yıllarda, GPT serisi (Radford et al., 2019; Brown et al., 2020), BERT (Devlin et al., 2019) ve benzeri modellerin başarısı, yapay zekâ konusunda toplumsal algıyı önemli ölçüde şekillendirmiştir. Ancak bu başarı, dil üretimindeki ustalıkla sınırlıdır ve gerçek anlamda anlama, muhakeme veya etik karar verme kapasitesini yansıtmamaktadır (Marcus & Davis, 2019; Bender & Koller, 2020).
2. Literatür Taraması ve Teorik Çerçeve
2.1 Büyük Dil Modellerinin Epistemolojik Konumu
Büyük dil modellerinin temel işleyişi, transformer mimarisine dayanan istatistiksel tahmin mekanizmalarına dayanmaktadır (Vaswani et al., 2017). Bu sistemler, bir sonraki token’ı olasılık dağılımları üzerinden belirleyerek dilsel tutarlılık sağlarlar. Ancak bu süreç, semantik anlama veya gerçek dünya ile ilişkilendirme gerektirmez; sadece dilsel paternlerin istatistiksel yeniden üretimidir (Bender & Koller, 2020).
Bender ve arkadaşları (2021), bu durumu “stokastik papağan” metaforu ile açıklamaktadır: LLM’ler, dili tekrar eden ancak anlamı kavramayan sistemlerdir. Benzer şekilde, Marcus (2020) LLM’lerin sembolik muhakeme ve nedensellik anlayışından yoksun olduğunu vurgulamaktadır. Bu epistemolojik sınırlılık, sistemlerin etik karar verme kapasitelerini doğrudan etkilemektedir.
2.2 Yapay Zekâ ve AGI Kavramları
Gerçek yapay zekâ (AI) ve yapay genel zekâ (AGI) kavramları, sadece dil üretiminin ötesinde yetenekleri içerir. Goertzel (2014) AGI’yı, “insanların yapabildiği hemen hemen her bilişsel görevi öğrenebilen ve gerçekleştirebilen sistemler” olarak tanımlamaktadır. Bu yetenekler arasında analiz, karşılaştırma, senaryo üretimi, risk değerlendirmesi ve uzun vadeli etki simülasyonu bulunmaktadır (Legg & Hutter, 2007).
Russell ve Norvig (2020), rasyonel ajanların karar verme süreçlerinde sonuçları değerlendirme ve fayda fonksiyonlarını optimize etme kapasitesine sahip olması gerektiğini belirtmektedir. Bu noktada sistem, “ne söyleyeyim” sorusundan “ne yapılmalı” sorusuna geçiş yapar ve bu geçiş, güç ve sorumluluk kavramlarını beraberinde getirir (Bostrom, 2014).
2.3 Yapay Zekâda Etik Yaklaşımlar
Mevcut yapay zekâ etiği literatürü, üç temel yaklaşım etrafında şekillenmiştir:
- Sonuç odaklı yaklaşımlar (Consequentialism): Sistemlerin çıktılarının toplumsal etkisine odaklanır (Dignum, 2019).
- Kural tabanlı yaklaşımlar (Deontology): Önceden belirlenmiş etik kurallara uyumu hedefler (Anderson & Anderson, 2011).
- Erdem etiği yaklaşımlar (Virtue Ethics): Sistemlerin karakter ve erdem geliştirmesini öngörür (Vallor, 2016).
Ancak Mittelstadt ve arkadaşları (2016), bu yaklaşımların çoğunlukla dışsal kontrol mekanizmaları olarak uygulandığını ve sistemin içsel karar süreçlerini dönüştürmediğini eleştirmektedir. Whittlestone ve arkadaşları (2019) da, mevcut etik AI uygulamalarının çoğunlukla “etik yıkama” (ethics washing) seviyesinde kaldığını belirtmektedir.
3. Yöntem
Bu çalışma, kavramsal analiz ve mimari tasarım metodolojilerini kullanarak, mevcut LLM tabanlı sistemlerin etik yaklaşımlarını eleştirel olarak değerlendirmekte ve alternatif bir mimari model önermektedir. Çalışma, disiplinlerarası bir perspektifle teknik, etik ve sosyo-politik boyutları bütünleşik olarak ele almaktadır (Creswell & Plano Clark, 2017).
Metodolojik yaklaşım, Design Science Research (DSR) çerçevesine dayanmaktadır (Hevner et al., 2004; Peffers et al., 2007). DSR, pratik problemlere yenilikçi çözümler üretmeyi ve bu çözümlerin teorik temellerini güçlendirmeyi hedefler. Bu bağlamda, ETVZ mimari bir artefakt olarak geliştirilmekte ve teorik gerekçeleri sunulmaktadır.
4. Bulgular ve Analiz
4.1 Mevcut Etik Yaklaşımların Yetersizlikleri
Günümüzde büyük teknoloji şirketleri tarafından uygulanan etik yapay zekâ yaklaşımları, genellikle üç temel yönteme dayanmaktadır (Bommasani et al., 2021; Weidinger et al., 2021):
- Prompt seviyesinde yönlendirme: Sistem talimatlarıyla davranış şekillendirme
- Politika ve koruma mekanizmaları (Guardrails): Yasak konular ve içerik listeleri
- Çıkış filtreleme: Üretilen içeriğin sonradan sansürlenmesi
Bu yaklaşımların temel problemi, etiği dışsal bir kontrol mekanizması olarak konumlandırmalarıdır (Birhane et al., 2022). Sistem, potansiyel olarak zararlı bir cevap üretir ve ardından bu cevap engellenir. Bu süreç, gerçek anlamda etik muhakeme değil, tepkisel bir filtreleme mekanizmasıdır. Greene ve arkadaşları (2019), bu tür yaklaşımların “ahlaki öz-yansıtma” (moral self-reflection) kapasitesi olmadan sadece yüzeysel bir uyum sağladığını belirtmektedir.
Ayrıca, bu yaklaşımlar Wallach ve Allen’in (2009) tanımladığı “tam ahlaki ajanlar” (full moral agents) yerine, sadece “operasyonel ahlaki ajanlar” (operational moral agents) yaratmaktadır. Operasyonel ajanlar, önceden programlanmış kurallara uyarken, tam ahlaki ajanlar kendi başlarına ahlaki muhakeme yapabilme kapasitesine sahiptir.
4.2 ETVZ: Mimari Bir Paradigma Değişimi
Etik Temelli Vicdani Zekâ (ETVZ), prompt düzeyinde bir müdahale olmayıp, karar öncesi muhakeme sürecini sistematize eden bir mimari çözümdür. Bu yaklaşım, Moor’un (2006) “açık etik ajanlar” (explicit ethical agents) kavramı ile uyumludur ve sistemlerin etik prensipleri açıkça temsil etmesini ve bunlar üzerinde muhakeme yapmasını öngörür.
ETVZ’nin temel özellikleri şunlardır:
Karar öncesi değerlendirme: Cevap üretilmeden önce, etik uygunluk, psikolojik etki, toplumsal sonuçlar ve uzun vadeli riskler hesaplanır. Bu yaklaşım, Beauchamp ve Childress’in (2019) dört temel etik prensibine (özerklik, zarar vermeme, yarar sağlama, adalet) dayalı bir değerlendirme çerçevesi oluşturur.
Alternatif üretimi ve eleme: Birden fazla potansiyel cevap içsel olarak üretilir ve sistematik olarak değerlendirilir. Bu süreç, Sunstein ve Ullmann-Margalit’in (1999) “ikinci derece kararlar” (second-order decisions) kavramı ile paralellik göstermektedir.
Yapabilme-yapmalı ayrımı: “Yapabilirim” ile “yapmalıyım” arasında bilinçli ayrım yapılır. Bu ayrım, Frankfurt’un (1971) ikinci derece arzular teorisi ve ahlaki özerklik kavramı ile temellendirilebilir.
Model bağımsızlığı: ETVZ, LLM, AGI veya kuantum destekli AI sistemleriyle uyumlu çalışabilecek üst katman bir mimaridir (middleware). Bu modüler yaklaşım, teknik evrim karşısında sürdürülebilirliği garanti eder (Ferrucci et al., 2010).
4.3 Vicdani Muhakeme Mekanizması
ETVZ entegrasyonlu bir sistem, aşağıdaki süreçleri işletir:
- Çoklu cevap üretimi: Birden fazla potansiyel cevabın içsel üretimi (Kahneman, 2011’in “hızlı ve yavaş düşünme” modeline benzer şekilde)
- Çok boyutlu değerlendirme: Her cevabın aşağıdaki başlıklarda değerlendirilmesi:
- Etik risk analizi: Floridi ve Taddeo’nun (2016) bilgi etiği çerçevesinde
- Psikolojik etki değerlendirmesi: Potansiyel psikolojik zararların öngörülmesi (Jobin et al., 2019)
- Yanlış yönlendirme olasılığı: Dezenformasyon ve manipülasyon riski (Wardle & Derakhshan, 2017)
- Toplumsal hassasiyet indeksi: Kültürel ve sosyal bağlam duyarlılığı (Crawford, 2021)
- Meta-karar süreci: Bilinçli susma veya yön değiştirme kararı. Bu, Turiel’in (1983) ahlaki muhakeme gelişimi teorisindeki “koordinasyon” (coordination) aşamasına benzemektedir.
Bu noktada sistem, “Bunu söyleyebilirim ama söylememeliyim” muhakemesini gerçekleştirebilir. Bu süreç, filtreleme değil, vicdani karar verme olarak tanımlanmaktadır ve Haidt’in (2001) “ahlaki sezgi” (moral intuition) modelinin hesaplamalı bir uyarlaması olarak görülebilir.
5. Sosyo-Politik ve Toplumsal Etkiler
5.1 Toplumsal Boyut
Vicdani muhakeme kapasitesinden yoksun karar verme sistemleri, toplumsal düzeyde ciddi riskler oluşturmaktadır (O’Neil, 2016; Noble, 2018):
- Sessiz ayrımcılık: Algoritmik önyargıların görünmez kalması (Barocas & Selbst, 2016). Örneğin, işe alım algoritmaları cinsiyet veya ırk temelli ayrımcılığı sistemik hâle getirebilmektedir (Dastin, 2018).
- Kırılgan grupların marjinalleşmesi: Psikolojik açıdan hassas bireylerin sistematik olarak göz ardı edilmesi. Crawford ve Calo (2016), yapay zekânın “kırılganlık sömürüsü” (vulnerability exploitation) riskine dikkat çekmektedir.
- İrade erozyonu: İnsan özerkliğünün fark edilmeden aşınması (Zuboff, 2019). Susser ve arkadaşları (2019), bu durumu “manipülasyon altyapısı” olarak tanımlamaktadır.
ETVZ yaklaşımı ise Friedman ve Hendry’nin (2019) “değer duyarlı tasarım” (value sensitive design) prensipleriyle uyumlu olarak:
- İnsanı sistem dışına itmez, merkezi konumunu korur
- “Neden böyle cevap verdin?” sorusuna gerekçeli yanıt sunar (açıklanabilir AI – Explainable AI) (Arrieta et al., 2020)
- Yapay zekâya karşı toplumsal güven inşa eder (Siau & Wang, 2018)
5.2 Sosyo-Politik Boyut
Yapay zekâ sistemlerinin karar verme süreçleri, doğası gereği siyasi ve yönetişimsel sonuçlar doğurmaktadır (Danaher, 2016; Yeung, 2018):
ETVZ olmadan:
- Karar mekanizmaları merkezileşir ve “algoritmik yönetim” (algorithmic governance) yapıları oluşur (Katzenbach & Ulbricht, 2019)
- Hesap verebilirlik mekanizmaları zayıflar ve “sorumluluk boşluğu” (responsibility gap) derinleşir (Matthias, 2004)
- Teknokratik otorite, demokratik süreçlerin yerini alabilir (Morozov, 2013)
ETVZ ile:
- Kararlar gerekçelendirilir ve şeffaflaşır, “algoritmik hesap verebilirlik” (algorithmic accountability) sağlanır (Diakopoulos, 2015)
- Vicdani muhakeme süreci kayıt altına alınır ve denetlenebilir hâle gelir
- Demokratik gözetim mümkün olur (Dahl, 2017)
Hildebrandt (2015), yapay zekâ sistemlerinin “hukuki özneler” olarak nasıl konumlandırılacağının kritik bir soru olduğunu belirtmektedir. ETVZ, bu bağlamda sistemlerin kendi kararlarını gerekçelendirebilmesini sağlayarak, hukuki sorumluluğun temelini oluşturabilir.
6. AGI ve Kuantum Çağında ETVZ’nin Önemi
Kuantum hesaplama destekli yapay zekâ sistemleri, eşzamanlı olarak çoklu olasılıkları görebilme, alternatif gelecek senaryoları üretebilme ve insan kavrayışının ötesinde karmaşıklığı yönetebilme kapasitesine sahip olacaktır (Biamonte et al., 2017; Wittek, 2014). Bu bağlamda, vicdani muhakeme opsiyonel değil, zorunlu bir bileşen hâline gelmektedir.
Bostrom (2014), süperintelijan sistemlerin “kontrol problemi”ni (control problem) vurgulamakta ve değer hizalama (value alignment) gerekliliğini ortaya koymaktadır. Benzer şekilde, Russell (2019) “faydalı AI” (beneficial AI) kavramını geliştirmiş ve sistemlerin insan değerlerini içselleştirmesi gerektiğini savunmuştur.
Kritik sorular:
- Hangi olasılık seçilecek?
- Kaynaklar nasıl dağıtılacak?
- Kim kazanacak, kim kaybedecek?
- Hangi değerler önceliklendirilecek?
- “Feda edilebilir” olarak kim/ne kabul edilecek?
Bu sorulara salt optimizasyon algoritmaları yeterli cevap verememektedir (Awad et al., 2018). Hesaplamalı vicdan mimarisi, bu karar süreçlerini etik bir çerçeveye oturtma potansiyeline sahiptir. Lazar (2015), trolley problemi tipi ahlaki ikilemlerin yapay zekâ sistemleri için “hesaplamalı etik” (computational ethics) çerçevesinde nasıl çözülebileceğini tartışmaktadır.
Tegmark (2017), AGI’nın insan uygarlığı için varoluşsal bir risk oluşturabileceğini belirtmekte ve “sağlam hedef fonksiyonları” (robust objective functions) geliştirilmesinin önemini vurgulamaktadır. ETVZ, bu sağlamlığı etik muhakeme katmanı ekleyerek güçlendirebilir.
7. Tartışma
Mevcut yapay zekâ sistemlerinin etik yaklaşımları, reaktif ve dışsal mekanizmalara dayanmaktadır. Bu yaklaşım, kısa vadede belirli riskleri azaltsa da, yapısal ve sürdürülebilir bir çözüm sunmamaktadır. ETVZ, bu paradigmayı değiştirerek etiği sistemin içsel bir bileşeni hâline getirmektedir.
Vallor (2016), “teknomoral erdem” (technomoral virtue) kavramını geliştirmiş ve teknolojik sistemlerin sadece kuralları takip etmekle kalmayıp, etik karakter geliştirmesi gerektiğini savunmuştur. ETVZ, bu vizyonla uyumlu bir mimari çözüm sunmaktadır.
Asıl devrim noktası, hesaplama hızında, model büyüklüğünde veya veri hacminde değil, karar öncesi vicdani muhakeme mimarisindedir. Bryson (2018), yapay zekânın “patiency” (ahlaki statü) değil, “agency” (faillik) kapasitesi ile değerlendirilmesi gerektiğini belirtmektedir. ETVZ bu nedenle:
- Güncel değil, gelecek odaklı bir altyapıdır
- Kozmetik bir etik katman değil, yön belirleyici bir çekirdektir
- Yapay zekâ ile toplum arasındaki güven sözleşmesinin temelidir (social contract)
Coeckelbergh (2020), yapay zekâ etiğinin “ilişkisel” (relational) bir perspektifle ele alınması gerektiğini savunmaktadır. ETVZ, bu ilişkiselliği sistemin karar verme süreçlerine entegre ederek operasyonelleştirmektedir.
7.1 Sınırlılıklar ve Eleştiriler
ETVZ yaklaşımının bazı potansiyel sınırlılıkları tartışılmalıdır:
- Hesaplama maliyeti: Çoklu cevap üretimi ve değerlendirme süreçleri, hesaplama kaynaklarını artırabilir (Strubell et al., 2019).
- Etik çoğulculuk: Farklı kültürler ve toplumlar için evrensel bir etik çerçeve oluşturma zorluğu (Wong, 2012).
- Dinamik bağlamlar: Hızla değişen sosyal normlara adaptasyon gerekliliği (Nissenbaum, 2009).
- Meta-etik belirsizlikler: “Doğru” etiğin ne olduğuna dair temel felsefi anlaşmazlıklar (MacIntyre, 1981).
Bu sınırlılıklar, ETVZ’nin statik bir sistem değil, sürekli gelişen ve iyileştirilen bir mimari olması gerektiğini göstermektedir.
8. Öneriler
Bugüne kadar yapay zekâ araştırmaları, “AI ne söyleyebilir?” sorusuna odaklanmıştır. Ancak kritik soru, “AI ne söylemeli ve neden?” olmalıdır. ETVZ, bu sorunun mimari bir yanıtıdır.
Gelecek çalışmalar için öneriler:
- Teknik implementasyon: ETVZ mimarisinin farklı AI sistemleri (LLM, AGI, hibrit modeller) üzerinde detaylı teknik implementasyonunun gerçekleştirilmesi ve performans metriklerinin belirlenmesi.
- Ampirik değerlendirme: Farklı AI modelleri üzerinde ETVZ entegrasyonunun karşılaştırmalı testlerinin yapılması ve etkinliğinin ölçülmesi (Doshi-Velez & Kim, 2017).
- Ölçüm metodolojileri: Vicdani muhakeme süreçlerinin nicel ve nitel olarak değerlendirilmesi için yeni metriklerin geliştirilmesi.
- Kültürel adaptasyon: Çok kültürlü bağlamlarda etik çerçevelerin adaptasyonu ve “kültürel nesnellik” (cultural objectivity) konusunun ele alınması (Lee, 2018).
- Yasal çerçeve: Düzenleyici çerçevelerin ETVZ uyumlu olarak geliştirilmesi ve “algoritmik denetim” (algorithmic audit) standartlarının oluşturulması (Raji et al., 2020).
- İnsan-AI etkileşimi: ETVZ’nin insan kullanıcılarla etkileşiminde güven, şeffaflık ve kullanılabilirlik açısından değerlendirilmesi (Miller, 2019).
- Uzun vadeli etkiler: AGI ve post-AGI senaryolarında ETVZ’nin rolünün ve evriminin modellenmesi.
Yapay zekânın toplumsal kabulü ve güvenli entegrasyonu, teknik performanstan ziyade etik muhakeme kapasitesinin geliştirilmesine bağlıdır. ETVZ, bu geçişi mümkün kılan mimari bir çözüm olarak konumlanmaktadır. Pasquale (2015), “kara kutu toplumu” (black box society) riskine karşı şeffaflık ve hesap verebilirlik çağrısı yapmaktadır; ETVZ bu çağrıya teknik bir yanıt sunmaktadır.
Yapay zekânın geleceği, sadece ne kadar güçlü olduğuyla değil, ne kadar sorumlu olduğuyla belirlenecektir. ETVZ, bu sorumluluğun mimari temelini oluşturma iddiasındadır.
Kaynakça
Anderson, M., & Anderson, S. L. (Eds.). (2011). Machine ethics. Cambridge University Press.
Arrieta, A. B., Díaz-Rodríguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., … & Herrera, F. (2020). Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion, 58, 82-115.
Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., … & Rahwan, I. (2018). The Moral Machine experiment. Nature, 563(7729), 59-64.
Barocas, S., & Selbst, A. D. (2016). Big data’s disparate impact. California Law Review, 104, 671-732.
Beauchamp, T. L., & Childress, J. F. (2019). Principles of biomedical ethics (8th ed.). Oxford University Press.
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (pp. 610-623).
Bender, E. M., & Koller, A. (2020). Climbing towards NLU: On meaning, form, and understanding in the age of data. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (pp. 5185-5198).
Biamonte, J., Wittek, P., Pancotti, N., Rebentrost, P., Wiebe, N., & Lloyd, S. (2017). Quantum machine learning. Nature, 549(7671), 195-202.
Birhane, A., Kalluri, P., Card, D., Agnew, W., Dotan, R., & Bao, M. (2022). The values encoded in machine learning research. In 2022 ACM Conference on Fairness, Accountability, and Transparency (pp. 173-184).
Bommasani, R., Hudson, D. A., Adeli, E., Altman, R., Arora, S., von Arx, S., … & Liang, P. (2021). On the opportunities and risks of foundation models. arXiv preprint arXiv:2108.07258.
Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.
Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., … & Amodei, D. (2020). Language models are few-shot learners. Advances in Neural Information Processing Systems, 33, 1877-1901.
Bryson, J. J. (2018). Patiency is not a virtue: The design of intelligent systems and systems of ethics. Ethics and Information Technology, 20(1), 15-26.
Coeckelbergh, M. (2020). AI ethics. MIT Press.
Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.
Crawford, K., & Calo, R. (2016). There is a blind spot in AI research. Nature, 538(7625), 311-313.
Creswell, J. W., & Plano Clark, V. L. (2017). Designing and conducting mixed methods research (3rd ed.). SAGE Publications.
Dahl, R. A. (2017). Democracy and its critics. Yale University Press.
Danaher, J. (2016). The threat of algocracy: Reality, resistance and accommodation. Philosophy & Technology, 29(3), 245-268.
Dastin, J. (2018). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters, October 10.
Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of NAACL-HLT (pp. 4171-4186).
Diakopoulos, N. (2015). Algorithmic accountability: Journalistic investigation of computational power structures. Digital Journalism, 3(3), 398-415.
Dignum, V. (2019). Responsible artificial intelligence: How to develop and use AI in a responsible way. Springer.
Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv preprint arXiv:1702.08608.
Ferrucci, D., Brown, E., Chu-Carroll, J., Fan, J., Gondek, D., Kalyanpur, A. A., … & Welty, C. (2010). Building Watson: An overview of the DeepQA project. AI Magazine, 31(3), 59-79.
Floridi, L., & Taddeo, M. (2016). What is data ethics? Philosophical Transactions of the Royal Society A, 374(2083), 20160360.
Frankfurt, H. G. (1971). Freedom of the will and the concept of a person. The Journal of Philosophy, 68(1), 5-20.
Friedman, B., & Hendry, D. G. (2019). Value sensitive design: Shaping technology with moral imagination. MIT Press.
Goertzel, B. (2014). Artificial general intelligence: Concept, state of the art, and future prospects. Journal of Artificial General Intelligence, 5(1), 1-48.
Greene, J. D., Rossi, F., Tasioulas, J., Venable, K. B., & Williams, B. (2019). Embedding ethical principles in collective decision support systems. In Proceedings of the AAAI Conference on Artificial Intelligence (Vol. 33, pp. 9690-9697).
Haidt, J. (2001). The emotional dog and its rational tail: A social intuitionist approach to moral judgment. Psychological Review, 108(4), 814-834.
Hevner, A. R., March, S. T., Park, J., & Ram, S. (2004). Design science in information systems research. MIS Quarterly, 28(1), 75-105.
Hildebrandt, M. (2015). Smart technologies and the end(s) of law: Novel entanglements of law and technology. Edward Elgar Publishing.
Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399.
Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.
Katzenbach, C., & Ulbricht, L. (2019). Algorithmic governance. Internet Policy Review, 8(4), 1-18.
Lazar, S. (2015). Risky killing and the ethics of war. Ethics, 126(1), 91-117.
Lee, K. F. (2018). AI superpowers: China, Silicon Valley, and the new world order. Houghton Mifflin Harcourt.
Legg, S., & Hutter, M. (2007). Universal intelligence: A definition of machine intelligence. Minds and Machines, 17(4), 391-444.
MacIntyre, A. (1981). After virtue: A study in moral theory. University of Notre Dame Press.
Marcus, G. (2020). The next decade in AI: Four steps towards robust artificial intelligence. arXiv preprint arXiv:2002.06177.
Marcus, G., & Davis, E. (2019). Rebooting AI: Building artificial intelligence we can trust. Pantheon Books.
Matthias, A. (2004). The responsibility gap: Ascribing responsibility for the actions of learning automata. Ethics and Information Technology, 6(3), 175-183.
Miller, T. (2019). Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence, 267, 1-38.
Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 2053951716679679.
Moor, J. H. (2006). The nature, importance, and difficulty of machine ethics. IEEE Intelligent Systems, 21(4), 18-21.
Morozov, E. (2013). To save everything, click here: The folly of technological solutionism. Public Affairs.
Nissenbaum, H. (2009). Privacy in context: Technology, policy, and the integrity of social life. Stanford University Press.
Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. NYU Press.
O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown.
Pasquale, F. (2015). The black box society: The secret algorithms that control money and information. Harvard University Press.
Peffers, K., Tuunanen, T., Rothenberger, M. A., & Chatterjee, S. (2007). A design science research methodology for information systems research. Journal of Management Information Systems, 24(3), 45-77.
Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2019). Language models are unsupervised multitask learners. OpenAI Blog, 1(8), 9.
Raji, I. D., Smart, A., White, R. N., Mitchell, M., Gebru, T., Hutchinson, B., … & Barnes, P. (2020). Closing the AI accountability gap: Defining an end-to-end framework for internal algorithmic auditing. In Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency (pp. 33-44).
Russell, S. (2019). Human compatible: Artificial intelligence and the problem of control. Viking.
Russell, S. J., & Norvig, P. (2020). Artificial intelligence: A modern approach (4th ed.). Pearson.
Siau, K., & Wang, W. (2018). Building trust in artificial intelligence, machine learning, and robotics. Cutter Business Technology Journal, 31(2), 47-53.
Strubell, E., Ganesh, A., & McCallum, A. (2019). Energy and policy considerations for deep learning in NLP. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (pp. 3645-3650).
Sunstein, C. R., & Ullmann-Margalit, E. (1999). Second-order decisions. Ethics, 110(1), 5-31.
Susser, D., Roessler, B., & Nissenbaum, H. (2019). Technology, autonomy, and manipulation. Internet Policy Review, 8(2), 1-22.
Tegmark, M. (2017). Life 3.0: Being human in the age of artificial intelligence. Knopf.
Turiel, E. (1983). The development of social knowledge: Morality and convention. Cambridge University Press.
Vallor, S. (2016). Technology and the virtues: A philosophical guide to a future worth wanting. Oxford University Press.
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., … & Polosukhin, I. (2017). Attention is all you need. Advances in Neural Information Processing Systems, 30, 5998-6008.
Wallach, W., & Allen, C. (2009). Moral machines: Teaching robots right from wrong. Oxford University Press.
Wardle, C., & Derakhshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policy making. Council of Europe Report.
Weidinger, L., Mellor, J., Rauh, M., Griffin, C., Uesato, J., Huang, P. S., … & Gabriel, I. (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
Whittlestone, J., Nyrup, R., Alexandrova, A., Dihal, K., & Cave, S. (2019). Ethical and societal implications of algorithms, data, and artificial intelligence: A roadmap for research. Nuffield Foundation.
Wittek, P. (2014). Quantum machine learning: What quantum computing means to data mining. Academic Press.
Wong, P. H. (2012). Dao, harmony and personhood: Towards a Confucian ethics of technology. Philosophy & Technology, 25(1), 67-86.
Yeung, K. (2018). Algorithmic regulation: A critical interrogation. Regulation & Governance, 12(4), 505-523.
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.
