Yapay zekâlı varlıklar veya “AI”lar, bazı önemli açılardan insanlara benzer şekilde iletişim kurabilen, düşünebilen, hissedebilen, mantık yürütebilen ya da hareket edebilen bilgisayar programları veya makinelerdir.
“Zayıf” yapay zekâlar insanî zihinsel durumlara sadece sahipmiş gibi davranır veya görünür ancak “güçlü” yapay zekâlar, gerçekten bu zihinsel aktiviteleri gerçekleştirir.[1]
Yapay zekâlar gelecek için muazzam bir potansiyel taşımaktadır.[2] Ama hem zayıf yapay zekâların varlığı hem de güçlü yapay zekâların olasılığı, önemli etik soruları beraberinde getiriyor. Bu makale, yapay zekâlara ilişkin en acil ahlaki ve toplumsal sorunlardan bazılarını tanıtmaktadır.
1. Yapay Zekâlara Davranışımız
Çoğu filozof, bir şeyin ahlaki haklara sahip olması veya ahlaki olarak önemli olması için sadece insan olmasının gerekli olmadığını düşünmektedir.[3] Örneğin, insan olmayan bir hayvana karşı, mesela yavru bir köpeği tekmeleyerek ahlaki bir yanlış yapmak mümkündür.[4]
Dolayısıyla ahlaki hakları, bir şeyin insan olması üzerine dayandırmak yerine birçok filozof, bir canlıya karşı, yalnızca bilişsel deneyimi var ise, yani algılayabiliyor ve farkında olabiliyor ise yanlış yapmanın mümkün olabileceğini savunur.[5]
Yani bir yapay zekânın bilinçli olup olamayacağı veya hiç olabilecek mi sorusu, yapay zekânın ahlaki haklara sahip olup olmayacağı veya bizim ona karşı ahlaki yükümlülüklerimiz olup olmayacağı sorusunu yanıtlamak için çok önemlidir. Eğer yükümlülüğümüz varsa o zaman bir yapay zekâyı silmenin veya kalıcı olarak kapatmanın cinayet olarak sayılıp sayılamayacağını sormamız gerekir.[6] Ve yapay zekâlara oy kullanma hakkı ve ifade özgürlüğü gibi siyasi haklar borçlu olup olmadığımız sorusu ortaya çıkacaktır.[7] Eğer ahlaki hakları varsa bir yapay zekâyı çalışmaya zorlamak, kölelik gibi olabilir.[8]
Ancak bazı filozoflar bilgisayarların, doğaları gereği, gerçekten düşünemeyeceğini veya anlayamayacağını savunmuştur.[9] Eğer yalnızca zayıf yapay zekâlar yaratırsak yukarıda bahsedilen sebeplerden ötürü onlara ahlaki olarak ne borçlu olabileceğimiz konusunda çok daha az endişelenebiliriz.
2. Yapay Zekâların Bize Davranışı
İnsan refahı ahlaki olarak oldukça değerlidir, bu yüzden yapay zekâların insanlara nasıl fayda sağlayabileceği veya zarar verebileceğini sormak önemlidir.
Zayıf yapay zekâlar insanlığa hâlihazırda birçok yönden fayda sağlamaktadır. Bu durum, dijital asistanlar (Alexa, Google, Siri),[10] ChatGPT[11] gibi sohbet robotları ve konuşma temsilcileri gibi yapay zekâ yazılımlarının popülerliğinden açıkça bellidir. Yapay zekâlar çoğu zaman hayatımızı kolaylaştırır.
Kötü niyetli yapay zekâlar, kurgu dünyasında popüler bir konudur. Örneğin tarihte en iyi bilinen bilimkurgu serilerinden ikisi -Matrix serisi ve Terminator serisi[12] – insanlığı yok etmeye çalışan yapay zekâları belirgin bir şekilde yansıtmaktadır. Yapay zekâlar, insanların diğer türlere ve birbirlerine saldırmasıyla aynı sebeplerden ötürü insanlara saldırabilir: kaynak elde etmek ve kendilerini korumak için.[13]
Yapay zekâlar aynı zamanda insanlığa istemeden de zarar verebilirler. Başka bir hedefe ulaşmaya çalışabilirler, hatta görünüşte insanlığa fayda sağlayacak bir hedefe, ancak nihayetinde bunu zararlı bir şekilde yapabilirler. Örneğin tüm hastalıkları, kirliliği veya savaşları sona erdirmesi talimatı verilen bir yapay zekâ, tüm biyolojik organizmaları öldürmeye çalışabilir.[14] Yapay zekâları araştıran kişiler; bazen “uyum sorunu”nu herhangi bir yapay zekânın bizim çıkarlarımızla uyumlu şekilde hareket etmesini sağlama sorunu olarak tanımlarlar: yani yapay zekaların insanlığa zarar veren projeler yürütmemelerini sağlama.[15]
3. İnsanların Birbirlerine Davranışı
En acil etik sorun, yapay zekânın insanların birbirleriyle etkileşimlerini nasıl etkileyeceğidir. Sonuçta, ne tür yapay zekâların yaratılacağı ve yeteneklerinin ne olacağı henüz belli değil ancak insanların birbirlerine karşı olan ahlaki yükümlülüklerini her zaman yerine getirmediklerini zaten biliyoruz.[16]
Yapay zekâları, birbirimizin hayatlarını çeşitli şekillerde iyileştirmek için kullanabiliriz. Yapay zekâlar biyoloji alanındaki[17] zor problemleri çözmeye yardımcı oldu ve değerli ilaçların keşiflerine öncülük etti.[18] Hatta yeni temiz enerji kaynakları bulmamıza bile yardımcı olabilirler.[19]
Yine de yapay zekâları başka insanlara zarar vermek için de kasıtlı veya kasıtsız olarak kullanabiliriz. Birçok ulus-devlet yapay zekâ tabanlı silahlar geliştiriyor.[20]
Daha küçük ölçekte, insanlar yapay zekâları diğer insanları kandırmak veya dolandırmak için de kullanabilir; örneğin aldatıcı ‘’chatbot’’lar[21] kullanarak, yanıltıcı görseller ve videolar[22] oluşturarak veya intihal yaparak.[23] Yapay zekâ kullanımı ayrıca insanların yakın kişilerarası ilişkilerinin bir parçası olan duygusal olarak önemli ve anlamlı bazı faaliyetleri kişiliksizleştirmesine ve hatta insanlarla değerli ilişkiler kurmak yerine yapay zekâlarla duygusal ilişkiler kurmalarına yol açabilir.[24]
Kasıtsız zararlara gelince, yapay zekâlar savunmasız gruplara karşı taraflı olabilir.[25] Örneğin, eğer bir yapay zekâ gerçek hayattan yazılı çalışmalar temelinde eğitilmişse ve eğer o yazılı çalışmanın bir kısmı ırkçı ise o zaman yapay zekâ ırkçı çıktılar üretebilir. Benzer şekilde, eğer bir yapay zekâ belli grupların yeterince temsil edilmediği veriler üzerinden eğitilmişse yapay zekânın kullandığı algoritmalar bu grupların üyelerine zarar verebilir.[26]
Başka bir örnek olarak, yapay zekâları inşa etmek ve işletmek oldukça kaynak tüketici olabilir. Bu projeler, çok fazla elektrik ve belirli mineraller gerektirir.[27] Bu elektrik, fosil yakıtların yakılması ile elde edildiğinde Dünya’daki herkese, özellikle madenciliğin çevresel zararlarından da daha çok etkilenebilecek yoksul ülkelerdeki insanlara, zarar verme potansiyeline sahiptir.[28]
Yapay zekâların yaygın olarak erişilebilirliği, ekonomik eşitsizliği de daha da şiddetlendirebilir. Zenginler ve ülkeler yapay zekâları kendi servetlerini daha da arttırmak için kullanabilir.[29]
Buna bağlı olarak yapay zekâlar, yetenekleri arttıkça birçok işte insanların yerine geçmeye başlayabilirler. Bu durum yaygın işsizliğe ve buna karşılık gelen zararlara neden olabilir.[30] Ayrıca yapay zekâların veya yapay zekâ üretiminin yarattığı işler konusunda, bu işler onları etik olarak daha iyi hale getirmeyi amaçladığında bile ahlaki endişeler vardır. Bu tür işler tehlikeli veya sömürücü olabilir.[31]
Bu sebeplerden ötürü yapay zekâları kullanan veya üreten çoğu şirket, yapay zekâların potansiyel zararlarına karşı sosyal olarak bilinçli oldukları imajını dünyaya sunmakla ilgilenir.[32] Yine de bunlardan bazıları, yapay zekâların karmaşıklıklarının sadece farkındaymış gibi görünmek istiyor olabilir.[33]
4. Sonuç
Yapay zekâlar insanlığa hayal edilemez faydalar ve zararlar sağlama potansiyeline sahiptir ki bunların çoğu henüz öngörülmemiştir. Yapay zekâların gelişimine ve kullanımınıa potansiyel yarar ve zararlarını çok dikkatlice değerlendirmeksizin devam etmek pervasızlık olacaktır.
Dipnotlar
- [1] Bringsjord & Govindarajulu (2023); Hauser (t.y.). Tam olarak hangi tür bilgisayarların yapay zekâ olarak sayıldığı sorgulanabilir; bkz. Thomas Metcalf, Artificial Intelligence: The Possibility of Artificial Minds, § 1. Bugün en çok tartışılan yapay zekâlar (ve yapay zekâ olarak kabul edilmesi en az tartışmalı olan programlar) genellikle muazzam miktarlardaki verileri özümseyip sindiren ve bu verilere dayanarak insan benzeri (veya geliştirilmiş insan benzeri) şekillerde davranmaya çalışan makine öğrenimi programlardır. Makine öğrenimi hakkında da fazla bilgi için bkz. Brown (2021).
- [2] Örneğin, bizim işimizi çok daha verimli hale getirilebilirler ve sıradan insanların başaramayacağı buluşlar ve icatlar yapabilirler (Rotman, 2019; Cambridge Üniversitesi, 2024). Bu konuya aşağıdaki Bölüm 2’de geri döneceğiz.
- [3] Bkz. Jonathan Spelman, Theories of Moral Considerability.
- [4] Bkz. Gruen (2023). Ayrıca bkz. Jason Wyckoff, The Moral Status of Animals; Dan Lowe, Speciesism; and Jacob Berger, The Mind-Body Problem. Ampirik iddiaya gelince, birçok filozof vejetaryen veya vegandır (PhilPapers, t.y.).
- [5] Yine, bkz. Jonathan Spelman, Theories of Moral Considerability. Ayrıca bkz. Varner (2000). Öncelikle, eğer bir yapay zekâ bilinçli değilse o zaman etkili refah teorilerinden en az birine göre, yapay zekâya zarar vermek imkânsız olacaktır. Refahla ilgili ana akım hedonizmi doğruysa bilinçli deneyim sahibi olamayan canlılara ne zarar verilebilir ne de onlardan fayda sağlanabilir (Moore, 2023). Diğer refah teorileri de bilinçsiz varlıklara zarar verilemeyeceğini veya onlardan fayda sağlanamayacağını gerektirebilir; bkz. Crisp (2023). Ayrıca bkz. Kiki Berk, Happiness: What is it to be Happy?. Ayrıca standart ahlaki değerlilik teorilerinin, bir yapay zekânın ahlaki açıdan dikkate değer olup olmayacağı konusunda söyleyecek pek bir şeyinin olmadığını belirtmekte fayda var; ancak tartışmalı bir şekilde, insan dışı hayvanların ahlaki olarak dikkate değer kabul eden teoriler, bilinçli yapay zekâları da ahlaki açıdan dikkate değer olarak değerlendirecektir. Bkz. Gruen (2023) ve Jonathan Spelman, Theories of Moral Considerability. Ayrıca bkz. Dan Lowe, Speciesism.
- [6] İlginç bir örnek için bkz. Coeckelbergh (2020, s. 54 ve devamı) ve Müller (2023, § 2.9.2) ve Hatmaker (2017). Eğer deneyimleri olan yapay zekâlar yaratmak mümkün olursa kötü niyetli bir insanın milyarlarca bilinçli varlığa eziyet etmesi çok kolay hale gelebilir ve buna bağlı olarak zevk hissedebilen milyarlarca basit yapay zekâ yaratarak muazzam miktarda etik değer üretmek de kolaylaşabilir. Gerçekten de yüzlerce basit yapay zeka yaratarak etik değer üretmek, tek bir biyolojik insan yaratarak bunu yapmaktan çok daha ucuz olabilir. Bkz. Jonathan Spelman, The Repugnant Conclusion, ve Shane Gronholz, Consequentialism and Utilitarianism. Bu sorunlardan bazıları aynı zamanda uzunvadecilik konusuyla da ilgilidir; bkz. Dylan Balfour, Longtermism: How much should we care about the far future?. Bu tür karmaşıklıklar, bazı filozofların ‘’sentetik fenomenoloji’’nin yani bilinçli deneyimlere sahip olan yapay zekâların yasaklanmasına çağrıda bulunmasına yol açmıştır (Bentley ve diğerleri, 2018, s. 28–29). Ayrıca bkz. aşağıdaki dipnot 9.
- [7] Buradaki kararımız, eğer öyleyse, neden insanların oy verme hakkına sahip olması gerektiğini düşünmemize bağlı olabilir. Eğer demokrasinin en iyi sonuçlar ürettiğini düşündüğümüz içinse o zaman yapay zekâların oy kullanmasının iyi sonuçları olduğunu düşünürsek onlara bunun için izin veririz. Yapay zekâların muhtemelen ortalama insan seçmenden çok daha fazla bilgiye erişiminin olacağı göz önüne alındığında, bu, daha iyi sonuçlar beklemek için bir nedendir. Yasalardan etkilenen kişilerin, bu yasaları etkileme hakkına sahip olması gerektiğini düşündüğümüz için insanların oy kullanabilmesi gerektiğini düşünürsek o zaman yapay zekâlar kararların, hepsinde değil ama bazılarında oy kullanma hakkına sahip olabilir. Bkz. örneğin, Brennan (2023, § 6), ve Thomas Metcalf, Ethics and the Expected Consequences of Voting.
- [8] Kölelik hakkında daha fazla bilgi için bkz. Dan Lowe, Aristotle’s Defense of Slavery. Yine de kasıtlı olarak çalışmayı seven bir yapay zekâ yaratmayı hayal edebiliriz. Ayrıca, bir şeyi var ederek, eğer hayatı yaşanmaya değerse, ona zarar vermenin veya yanlış yapmanın mümkün olup olmadığı konusunda da felsefi bir tartışma vardır. Belirli görevleri yerine getirmek için yapay zekâlar yaratmanın, yapay zekâların ‘’hayatları’’ yaşanmaya değer olduğu sürece, yapay zekâlara zarar vermediği çünkü aksi takdirde zaten var olamayacakları savunulabilir. Bkz. Haramia (2014) ve Duncan Purves, The Non-Identity Problem. Fakat bilinçli yapay zekâların iyi yaşamlara sahip olabilecek birçok kopyasını yaratma yeteneğini elde edersek, bazı ahlaki teorilere göre, mümkün olduğu kadar çok kopya yaratmak ahlaki açıdan iyi (hatta gerekli) olabilir; bu bizler için ciddi bir maliyet olsa da. (Bkz. Jonathan Spelman, The Repugnant Conclusion.) Makul bir şekilde, bir iyi insan hayatı sürdürmenin bedeliyle, milyonlarca veya milyarlarca iyi yapay zekâ hayatı sürdürebiliriz. Ancak çoğu filozof, dünyada iyi yaşamlardan başka değerli şeylerin de olduğunu savunacaktır. Ayrıca bkz. yukarıdaki dipnot 5.
- [9] Makinelerin bilinçli olup olamayacağına dair bazı görüşler için bkz. Bringsjord & Govindarajulu (2023, § 8). Bu alandaki dönüm noktası niteliğindeki makale Searle’ün “Çin Odası” argümanıdır (Cole,2023).
- [10] Hoy (2018) sesli asistanlara bir giriş sunmaktadır.
- [11] ChatGPT gibi büyük dil modellerine giriş için, bkz. Ruby (2023)
- [12] Bkz. Blunden (2016). Popüler ve yeni Battlestar Galactica serisinde de ana düşman olarak kötücül yapay zekâlar yer almakta ve bu yapay zekâlar Dr. Who serisinde de belirgin bir şekilde öne çıkmaktadır.
- [13] Bkz. Daniel Weltman, “Nasty, Brutish, and Short”: Hobbes on Life in the State of Nature. Eğer yapay zekâlar kısmen insanlarla olan benzerliklerine göre tanımlanırsa, o zaman muhtemelen, bizim birbirimize saldırma nedenlerimizden bazıları nedeniyle bize saldıracaklardır.
- [14] Bu soruna bazen ‘’Ters Yerine Getirme’’ sorunu da denir. Temel olarak, yapay zekânın bir hedefi vardır ve bu amacı ters bir şekilde gerçekleştirir: son derece zararlı bir şekilde veya hedefin asıl amacını feda ederek. Bkz. örneğin, Danaher (2014) ve Bostrom (2014, s. 120 ve devamı). Kurgu dünyasından öne çıkan bir örnek, 2015 yapımı Avengers: Age of Ultron filmidir (Whedon, 2015).
- [15] Örneğin bkz. Gent (2023) ve Leike ve diğerleri. (2022). Bazı yazarlar yapay zekâları ahlaki muhakeme yapacak şekilde programlama girişimine karşı çıkmışlardır (van Wynsberghe ve Robbins, 2019).
- [16] Gerçekten de bazı yazarlar, kötü niyetli veya tehlikeli yapay zekâların insanlık için varoluşsal bir risk olduğu konusunda endişelenmenin, yapay zekâ yüzünden karşı karşıya kaldığımız günümüz risklerinden dikkatimizi uzaklaştırdığını savunmaktadır. Bkz. örneğin, Milmo (2023).
- [17] Callaway (2022).
- [18] Smith ve diğerleri (2021). Daha genel olarak, bkz. Cambridge Üniversitesi (2024).
- [19] Yapay zekâların buluşlardaki potansiyel rollerine ilişkin görüşler için bkz. Rotman (2019).
- [20] Yapay zekâ silahlarına giriş için bkz. Dresp-Langley (2023).
- [21] Chatbot’ların kopya çekmek için kullanılması yükseköğretimde büyük bir problemdir; bkz. örneğin, Spector (2023).
- [22] ’’Deepfake’’ler gerçek insanların gerçek fotoğrafları ve videoları gibi görünen son derece ikna edici, aldatıcı videolar veya görsellerdir. Genellikle yapay zekâ yardımıyla oluşturulurlar. Bkz. Jones (2023).
- [23] Kwon (2024)
- [24] Weirich (2023); ayrıca bkz. Lam (2023a ve 2023b).
- [25] Bkz. örneğin, Coeckelbergh (2020, s. 125 ve devamı) ve Müller (2023, § 2.4).
- [26] Bu “algoritmik önyargı” hakkında, bkz. örneğin, Friis ve Riley (2023).
- [27] Yapay zekânın sürdürülebilirliğiyle ilgili çevresel sorunlara giriş için, bkz. van Wynsberghe (2021) ve OECD (2022). Ayrıca bkz. Brevini (2021) ve Bolte ve diğerleri (2022). Örnek olarak, bir yapay zekâ inşa etmek arabaların kullanım ömrü boyunca birçok arabaya eşdeğer CO2 emisyonu üretebilir (Strubell ve diğerleri, 2019) ve popüler bir yapay zekâ hizmeti -ChatGPT- kullanımı, ABD’deki 33.000 hanenin tükettiği kadar elektrik tüketebilir (McQuate, 2023). Bu, şu anda Amerika Birleşik Devletleri’ndeki hanelerin yalnızca %0,02’sine eşdeğer olsa da (ABD Nüfus Sayım Bürosu, t.y.) daha fazla yapay zeka modeli geliştirildikçe, bunlar yetenekler kazandıkça ve yaşamın diğer alanlarına daha fazla entegre oldukça, yapay zeka kullanımının artmasını beklemeliyiz.
- [28] İklim değişikliğinin yoksulları nasıl etkilediği hakkında bkz. Guivarch ve diğerleri (2021) ve Leichenko & O’Brien (2008). Ham mineral madenciliği hakkında bkz. Penke (2021).
- [29] Bkz. Burkhardt (2019) ve Bushwick (2023). Ancak diğer sermaye mallarında olduğu gibi, artan üretkenlik nispeten yoksul olarnların mutlak konumunu gerçekten de iyileştirebilir. Bkz. Thomas Metcalf, Arguments for Capitalism and Socialism.
- [30] Bkz. Coeckelbergh (2020, s. 137 ve devamı), Müller (2023, § 2.6), ve Milmo (2024).
- [31] Bunun bir örneği ‘’hayalet iş’’tir: aslında bir insan tarafından yapılan ama otomatik bir süreç tarafından yapılıyormuş gibi görünen veya yapıldığı iddia edilen bir iş. Bkz. Gray ve Suri (2019). Ayrıca yapay zekâların eğitilmesinde çalışan insanların yaygın olarak sömürüldüğü de savunulabilir; bkz. Williams ve diğerleri (2022). Aslında, algoritma önyargısıyla mücadele etme girişimi, sömürücü veya başka türlü ahlaki açıdan sorgulanabilir işler yaratabilir; bkz. Perrigo (2023).
- [32] Yapay zekâ hakkındaki “etik yıkama”ya giriş için, bkz. Kaspersen & Wallach (2021). Bu terim daha iyi bilinen; ajansların çevreye duyarlı veya çevre dostu görünmek istediklerinde, çevresel zararı gizlemek için yanlış veya yanıltıcı iddialarda bulunmaları anlamına gelen ‘’yeşil aklama (greenwashing)’’ teriminden gelmektedir (Birleşmiş Milletler t.y.).
- [33] Yine de tüketicilerin etiği önemsediği gerçeği (Allen, 2021; Barton, 2018) en azından bazı tüketicilerin yeterli araştırma yapacağı ve böylece, sadece ‘’etik yıkama’’nın, gerçekten etik davranışın sağladığı faydaların aynısını sağlamayacağı anlamına geliyor.
Referanslar
- Allen, S. (2021, October 4). Yes, consumers care if your product is ethical. KelloggInsight.
- Alonso, C., Kothari, S., & Rehman, S. (2020, December 2). How artificial intelligence could widen the gap between rich and poor nations. IMF Blog.
- Barton, R. (2018, December 5). From me to we: The rise of the purpose-led brand. Accenture Strategy.
- Bentley, P. J., Brundage, M., Häggström, O., & Metzinger, T. (2018). Should we fear artificial intelligence? In-depth analysis. European Parliament.
- Blunden, F. (2016). The 20 greatest sci-fi franchises of all time. Screenrant.com.
- Bolte, L., Vandemeulebroucke, T., & van Wynsberghe, A. (2022). From an ethics of carefulness to an ethics of desirability: Going beyond current ethics approaches to sustainable AI. Sustainability, 14, 4472.
- Bourget, D. & Chalmers, D. (n.d.). Eating animals and animal products. Survey2020.philpeople.org.
- Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.
- Bostrom, N. & Yudkowsky, E. (2014). The ethics of artificial intelligence. In K. Frankish & W. M. Ramsey (eds.), The Cambridge Handbook of Artificial Intelligence (Cambridge University Press), pp. 316–334.
- Brennan, J. (2023). The ethics and rationality of voting. In E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy (Winter 2023 ed.).
- Brevini, B. (2021). Is AI good for the planet? Polity Press.
- Bringsjord, S. & Govindarajulu, N. S. (2023). Artificial intelligence. In E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy (Winter 2023 ed.).
- Brown, S. (2021). Machine learning, explained. MIT Management Sloan School.
- Burkhardt, M. (2019). The impact of AI on inequality, job automation, and skills of the future. Towards Data Science.
- Bushwick, S. (2023, August 1). Unregulated AI will worsen inequality, warns Nobel-winning economist Joseph Stiglitz. Scientific American.
- Callaway, E. (2022, April 13). What’s next for AlphaFold and the AI protein-folding revolution. Nature (13 April 2022 ed.).
- Coeckelbergh, M. (2020). AI ethics. MIT Press.
- Coldewey, D. (2023, April 1). Ethicists fire back at “AI Pause” letter they say “ignores the actual harms.” TechCrunch.
- Cole, D. (2023). The Chinese Room argument. In E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy (Winter 2023 ed.).
- Crisp, R. (2023). Well-being. In E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy (Winter 2023 ed.).
- Danaher, J. (2014). Bostrom on superintelligence (4): Malignant failure modes. Philosophical Disquisitions.
- Danaher, J. (2019). Automation and utopia: Human flourishing in a world without work. Harvard University Press.
- Dresp-Langley. (2023). The weaponization of artificial intelligence: What the public needs to be aware of. Frontiers in artificial intelligence, 6, 1154184.
- Friis, S. & Riley, J. (2023, September 9). Eliminating algorithmic bias is just the beginning of equitable AI. Harvard Business Review.
- Gent, E. (2023). What is the AI alignment problem and how can it be solved? New Scientist.
- Google. (n.d.). Introduction to large language models. Developers.google.com.
- Gordon, J. & Nyolm, S. (n.d.). Ethics of artificial intelligence. In J. Fieser & B. Dowden (eds.), The Internet Encyclopedia of Philosophy.
- Gray, M. L. & Suri, S. (2019). Ghost work: How to stop Silicon Valley from building a new global underclass. Harper Business.
- Gruen, L. (2023). The moral status of animals. In E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy (Winter 2023 ed.).
- Guivarch, C., Taconet, N., & Méjean, A. (2021). Linking climate and inequality. International Monetary Fund.
- Haramia, C. M. (2014). Roles and responsibilities: Creating moral subjects. [Unpublished doctoral dissertation]. University of Colorado, Boulder.
- Hauser, L. (n.d.). Artificial intelligence. In J. Fieser & B. Dowden (eds.), The Internet Encyclopedia of Philosophy.
- Hoy, M. B. (2018). Alexa, Siri, Cortana, and more: An introduction to voice assistants. Med Ref Serv Q, 37(1), 81–88.
- Jones, N. (2023). How to stop AI deepfakes from sinking society — and science. Nature.
- Kaspersen, A. & Wallach, W. (2021, November 10). Why are we failing at the ethics of AI? Carnegie Council for Ethics in International Affairs.
- Knell, S. & Rüther, M. (2023). Artificial intelligence, superefficiency and the end of work: a humanistic perspective on meaning in life. AI and Ethics.
- Kurzweil, R. (2005). The singularity is near: When humans transcend biology. Viking.
- Kwon, D. (2024, July 30). AI is complicating plagiarism. How should scientists respond? Nature (30 July 2024 ed.).
- Lam, B. (2023a, April 11). Digital future of grief. Hi-Phi Nation (11 April 2023 ed.).
- Lam, B. (2023b, April 25). Love in time of Replika. Hi-Phi Nation (25 April 2023 ed.).
- Leike, J., Schulman, J., & Wu, J. (2022, August 24). Our approach to alignment research. OpenAI.
- Leichenko, R. & O’Brien, K. (2008). Environmental change and globalization: Double exposures. Oxford University Press.
- McQuate, S. (2023, July 27). Q&A: UW researcher discusses just how much energy ChatGPT uses. UW News.
- Milmo, D. (2023, October 29). AI doomsday warnings a distraction from the danger it already poses, warns expert. The Guardian.
- Milmo, D. (2024, January 15). AI will affect 40% of jobs and probably worsen inequality, says IMF head. The Guardian.
- Moore, A. (2023). Hedonism. In E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy (Winter 2023 ed.).
- Müller, V. C. (2023). Ethics of artificial intelligence and robotics. In E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy (Winter 2023 ed.).
- OECD. (2022). Measuring the environmental impacts of artificial intelligence compute and applications: The AI footprint. OECD Digital Economy Papers, 341.
- Ord, T. (2020). The precipice: Existential risk and the future of humanity. Hachette.
- Penke, M. (2021, April 13). The toxic damage from mining rare elements. DW.
- Perrigo, B. (2023, January 18). Exclusive; OpenAI used Kenyan workers on less than $2 per hour to make ChatGPT less toxic. Time.
- Reynolds, E. (2018). The agony of Sophia, the world’s first robot citizen condemned to a lifeless career in marketing. Wired UK.
- Richards, B., Agüera y Arcas, B., Lajoie, G., & Sridhar, D. (2023, July 18). The illusion of AI’s existential risk. Noēma.
- Roose, K. (2023, May 30). A.I. poses “risk of extinction,” industry leaders warn. The New York Times.
- Rotman, D. (2019, February 15). AI is reinventing the way we invent. Technology Review.
- Skrbina, D. (n.d.). Panpsychism. In J. Fieser & B. Dowden (eds.), The Internet Encyclopedia of Philosophy.
- Smith, D. P. et al. (2021). Expert-augmented computational drug repurposing identified baricitinib as a treatment for COVID-19. Frontiers in Pharmacology, 12, 709856.
- Spector, C. (2023, October 31). What do AI chatbots really mean for students and cheating? Stanford Graduate School of Technology Research Stories.
- Strubell, E., Ganesh, A., & McCallum, A. (2019, June 5). Energy and policy considerations for deep learning in NLP. ArXiv.
- United Nations. (n.d.). Greenwashing – the deceptive tactics behind environmental claims. United Nations Climate Action.
- University of Cambridge. (2024). Accelerating how new drugs are made with machine learning. Phys.org.
- U.S. Census Bureau. (n.d.). QuickFacts: United States. U. S. Census Bureau.
- Van Wynsberghe, A. (2021). Sustainable AI: AI for sustainability and the sustainability of AI. AI and Ethics, 1, 213–218.
- Van Wynsberghe, A. & Robbins, S. (2019). Critiquing the reasons for making artificial moral agents. Sci Eng Ethics, 25(3), 719–735.
- Varner, G. (2000). Sentientism. In D. Jamieson (ed.), A Companion to Environmental Philosophy (Oxford), pp. 192–203.
- Weirich, K. (2023, March 22). ChatGPT and emotional outsourcing. Prindle Post (22 March 2023 ed.).
- Whedon, J. (Director). (2015). Avengers: Age of Ultron. [Film]. Marvel Studios.
- Williams, A., Miceli, M., & Gebru, T. (2022, October 13). The exploited labor behind artificial intelligence. Noēma.
İlgili Yazılar
- Artificial Intelligence: The Possibility of Artificial Minds by Thomas Metcalf
- The Mind-Body Problem: What Are Minds? – Jacob Berger
- Ahlaken Göz Önüne Alınabilirlik Kuramları: Ahlaki Açıdan Kimler ve Neler Önemlidir? – Jonathan Spelman
- Türcülük – Dan Lowe
- Hayvanların Ahlaki Statüsü – Jason Wyckoff
- Dağıtıcı Adalet: Kaynaklar Nasıl Kullanılmalı? – Dick Timmer & Tim Meijers
- Aristotle’s Defense of Slavery – Dan Lowe
- Kapitalizm ve Sosyalizm İçin Argümanlar – Thomas Metcalf
- Kapitalizmi ve Sosyalizmi Tanımlamak – Thomas Metcalf
- Sonuççuluk – Shane Gronholz
- Uzun-Dönemcilik: Uzak Geleceği Ne Kadar Önemsemeliyiz? – Dylan Balfour
- Oy Vermenin Etiği Ve Beklenen Sonuçları – Thomas Metcalf
- Happiness: What is it to be happy? – Kiki Berk
- “Berbat, Acımasız ve Kısa”: Hobbes’un Doğa Durumunda Yaşama Dair Görüşleri – Daniel Weltman
- Özdeşsizlik Problemi – Duncan Purves
- İğrenç Sonuç – Jonathan Spelman
Thomas Metcalf – “Artificial Intelligence: Ethics, Society, and the Environment“, (Erişim Tarihi: 05.01.2025)
Çeviren: Elifnur Avcı
Çeviri Editörü: Beyza Nur Doğan
[…] Turkish […]