Yapay Zekâ: Etik, Toplum ve Çevre – Thomas Metcalf

////
202 Okunma
Okunma süresi: 19 Dakika

Yapay zekâlı varlıklar veya “AI”lar, bazı önemli açılardan insanlara benzer şekilde iletişim kurabilen, düşünebilen, hissedebilen, mantık yürütebilen ya da hareket edebilen bilgisayar programları veya makinelerdir.

“Zayıf” yapay zekâlar insanî zihinsel durumlara sadece sahipmiş gibi davranır veya görünür ancak “güçlü” yapay zekâlar, gerçekten bu zihinsel aktiviteleri gerçekleştirir.[1]

Yapay zekâlar gelecek için muazzam bir potansiyel taşımaktadır.[2] Ama hem zayıf yapay zekâların varlığı hem de güçlü yapay zekâların olasılığı, önemli etik soruları beraberinde getiriyor. Bu makale, yapay zekâlara ilişkin en acil ahlaki ve toplumsal sorunlardan bazılarını tanıtmaktadır.

1. Yapay Zekâlara Davranışımız

Çoğu filozof, bir şeyin ahlaki haklara sahip olması veya ahlaki olarak önemli olması için sadece insan olmasının gerekli olmadığını düşünmektedir.[3] Örneğin, insan olmayan bir hayvana karşı, mesela yavru bir köpeği tekmeleyerek ahlaki bir yanlış yapmak mümkündür.[4]

Dolayısıyla ahlaki hakları, bir şeyin insan olması üzerine dayandırmak yerine birçok filozof, bir canlıya karşı, yalnızca bilişsel deneyimi var ise, yani algılayabiliyor ve farkında olabiliyor ise yanlış yapmanın mümkün olabileceğini savunur.[5]

Yani bir yapay zekânın bilinçli olup olamayacağı veya hiç olabilecek mi sorusu, yapay zekânın ahlaki haklara sahip olup olmayacağı veya bizim ona karşı ahlaki yükümlülüklerimiz olup olmayacağı sorusunu yanıtlamak için çok önemlidir. Eğer yükümlülüğümüz varsa o zaman bir yapay zekâyı silmenin veya kalıcı olarak kapatmanın cinayet olarak sayılıp sayılamayacağını sormamız gerekir.[6] Ve yapay zekâlara oy kullanma hakkı ve ifade özgürlüğü gibi siyasi haklar borçlu olup olmadığımız sorusu ortaya çıkacaktır.[7] Eğer ahlaki hakları varsa bir yapay zekâyı çalışmaya zorlamak, kölelik gibi olabilir.[8]

Ancak bazı filozoflar bilgisayarların, doğaları gereği, gerçekten düşünemeyeceğini veya anlayamayacağını savunmuştur.[9] Eğer yalnızca zayıf yapay zekâlar yaratırsak yukarıda bahsedilen sebeplerden ötürü onlara ahlaki olarak ne borçlu olabileceğimiz konusunda çok daha az endişelenebiliriz.

2. Yapay Zekâların Bize Davranışı

İnsan refahı ahlaki olarak oldukça değerlidir, bu yüzden yapay zekâların insanlara nasıl fayda sağlayabileceği veya zarar verebileceğini sormak önemlidir.

Zayıf yapay zekâlar insanlığa hâlihazırda birçok yönden fayda sağlamaktadır. Bu durum, dijital asistanlar (Alexa, Google, Siri),[10] ChatGPT[11] gibi sohbet robotları ve konuşma temsilcileri gibi yapay zekâ yazılımlarının popülerliğinden açıkça bellidir. Yapay zekâlar çoğu zaman hayatımızı kolaylaştırır. 

Kötü niyetli yapay zekâlar, kurgu dünyasında popüler bir konudur. Örneğin tarihte en iyi bilinen bilimkurgu serilerinden ikisi -Matrix serisi ve Terminator serisi[12] – insanlığı yok etmeye çalışan yapay zekâları belirgin bir şekilde yansıtmaktadır. Yapay zekâlar, insanların diğer türlere ve birbirlerine saldırmasıyla aynı sebeplerden ötürü insanlara saldırabilir: kaynak elde etmek ve kendilerini korumak için.[13]

Yapay zekâlar aynı zamanda insanlığa istemeden de zarar verebilirler. Başka bir hedefe ulaşmaya çalışabilirler, hatta görünüşte insanlığa fayda sağlayacak bir hedefe, ancak nihayetinde bunu zararlı bir şekilde yapabilirler. Örneğin tüm hastalıkları, kirliliği veya savaşları sona erdirmesi talimatı verilen bir yapay zekâ, tüm biyolojik organizmaları öldürmeye çalışabilir.[14] Yapay zekâları araştıran kişiler; bazen “uyum sorunu”nu herhangi bir yapay zekânın bizim çıkarlarımızla uyumlu şekilde hareket etmesini sağlama sorunu olarak tanımlarlar: yani yapay zekaların insanlığa zarar veren projeler yürütmemelerini sağlama.[15]

3. İnsanların Birbirlerine Davranışı

En acil etik sorun, yapay zekânın insanların birbirleriyle etkileşimlerini nasıl etkileyeceğidir. Sonuçta, ne tür yapay zekâların yaratılacağı ve yeteneklerinin ne olacağı henüz belli değil ancak insanların birbirlerine karşı olan ahlaki yükümlülüklerini her zaman yerine getirmediklerini zaten biliyoruz.[16]

Yapay zekâları, birbirimizin hayatlarını çeşitli şekillerde iyileştirmek için kullanabiliriz. Yapay zekâlar biyoloji alanındaki[17] zor problemleri çözmeye yardımcı oldu ve değerli ilaçların keşiflerine öncülük etti.[18] Hatta yeni temiz enerji kaynakları bulmamıza bile yardımcı olabilirler.[19]

Yine de yapay zekâları başka insanlara zarar vermek için de kasıtlı veya kasıtsız olarak kullanabiliriz. Birçok ulus-devlet yapay zekâ tabanlı silahlar geliştiriyor.[20]

Daha küçük ölçekte, insanlar yapay zekâları diğer insanları kandırmak veya dolandırmak için de kullanabilir; örneğin aldatıcı ‘’chatbot’’lar[21] kullanarak, yanıltıcı görseller ve videolar[22] oluşturarak veya intihal yaparak.[23] Yapay zekâ kullanımı ayrıca insanların yakın kişilerarası ilişkilerinin bir parçası olan duygusal olarak önemli ve anlamlı bazı faaliyetleri kişiliksizleştirmesine ve hatta insanlarla değerli ilişkiler kurmak yerine yapay zekâlarla duygusal ilişkiler kurmalarına yol açabilir.[24]

Kasıtsız zararlara gelince, yapay zekâlar savunmasız gruplara karşı taraflı olabilir.[25] Örneğin, eğer bir yapay zekâ gerçek hayattan yazılı çalışmalar temelinde eğitilmişse ve eğer o yazılı çalışmanın bir kısmı ırkçı ise o zaman yapay zekâ ırkçı çıktılar üretebilir. Benzer şekilde, eğer bir yapay zekâ belli grupların yeterince temsil edilmediği veriler üzerinden eğitilmişse yapay zekânın kullandığı algoritmalar bu grupların üyelerine zarar verebilir.[26]

Başka bir örnek olarak, yapay zekâları inşa etmek ve işletmek oldukça kaynak tüketici olabilir. Bu projeler, çok fazla elektrik ve belirli mineraller gerektirir.[27] Bu elektrik, fosil yakıtların yakılması ile elde edildiğinde Dünya’daki herkese, özellikle madenciliğin çevresel zararlarından da daha çok etkilenebilecek yoksul ülkelerdeki insanlara, zarar verme potansiyeline sahiptir.[28]

Yapay zekâların yaygın olarak erişilebilirliği, ekonomik eşitsizliği de daha da şiddetlendirebilir. Zenginler ve ülkeler yapay zekâları kendi servetlerini daha da arttırmak için kullanabilir.[29]

Buna bağlı olarak yapay zekâlar, yetenekleri arttıkça birçok işte insanların yerine geçmeye başlayabilirler. Bu durum yaygın işsizliğe ve buna karşılık gelen zararlara neden olabilir.[30] Ayrıca yapay zekâların veya yapay zekâ üretiminin yarattığı işler konusunda, bu işler onları etik olarak daha iyi hale getirmeyi amaçladığında bile ahlaki endişeler vardır. Bu tür işler tehlikeli veya sömürücü olabilir.[31]

Bu sebeplerden ötürü yapay zekâları kullanan veya üreten çoğu şirket, yapay zekâların potansiyel zararlarına karşı sosyal olarak bilinçli oldukları imajını dünyaya sunmakla ilgilenir.[32] Yine de bunlardan bazıları, yapay zekâların karmaşıklıklarının sadece farkındaymış gibi görünmek istiyor olabilir.[33]

4. Sonuç

Yapay zekâlar insanlığa hayal edilemez faydalar ve zararlar sağlama potansiyeline sahiptir ki bunların çoğu henüz öngörülmemiştir. Yapay zekâların gelişimine ve kullanımınıa potansiyel yarar ve zararlarını çok dikkatlice değerlendirmeksizin devam etmek pervasızlık olacaktır.


Dipnotlar

  • [1] Bringsjord & Govindarajulu (2023); Hauser (t.y.). Tam olarak hangi tür bilgisayarların yapay zekâ olarak sayıldığı sorgulanabilir; bkz. Thomas Metcalf, Artificial Intelligence: The Possibility of Artificial Minds, § 1. Bugün en çok tartışılan yapay zekâlar (ve yapay zekâ olarak kabul edilmesi en az tartışmalı olan programlar) genellikle muazzam miktarlardaki verileri özümseyip sindiren ve bu verilere dayanarak insan benzeri (veya geliştirilmiş insan benzeri) şekillerde davranmaya çalışan makine öğrenimi programlardır. Makine öğrenimi hakkında da fazla bilgi için bkz. Brown (2021).
  • [2] Örneğin, bizim işimizi çok daha verimli hale getirilebilirler ve sıradan insanların başaramayacağı buluşlar ve icatlar yapabilirler (Rotman, 2019; Cambridge Üniversitesi, 2024). Bu konuya aşağıdaki Bölüm 2’de geri döneceğiz.
  • [3] Bkz. Jonathan Spelman, Theories of Moral Considerability.
  • [4] Bkz. Gruen (2023). Ayrıca bkz. Jason Wyckoff, The Moral Status of Animals; Dan Lowe, Speciesism; and Jacob Berger, The Mind-Body Problem. Ampirik iddiaya gelince, birçok filozof vejetaryen veya vegandır (PhilPapers, t.y.).
  • [5] Yine, bkz. Jonathan Spelman, Theories of Moral Considerability. Ayrıca bkz. Varner (2000). Öncelikle, eğer bir yapay zekâ bilinçli değilse o zaman etkili refah teorilerinden en az birine göre, yapay zekâya zarar vermek imkânsız olacaktır. Refahla ilgili ana akım hedonizmi doğruysa bilinçli deneyim sahibi olamayan canlılara ne zarar verilebilir ne de onlardan fayda sağlanabilir (Moore, 2023). Diğer refah teorileri de bilinçsiz varlıklara zarar verilemeyeceğini veya onlardan fayda sağlanamayacağını gerektirebilir; bkz. Crisp (2023). Ayrıca bkz. Kiki Berk, Happiness: What is it to be Happy?. Ayrıca standart ahlaki değerlilik teorilerinin, bir yapay zekânın ahlaki açıdan dikkate değer olup olmayacağı konusunda söyleyecek pek bir şeyinin olmadığını belirtmekte fayda var; ancak tartışmalı bir şekilde, insan dışı hayvanların ahlaki olarak dikkate değer kabul eden teoriler, bilinçli yapay zekâları da ahlaki açıdan dikkate değer olarak değerlendirecektir. Bkz. Gruen (2023) ve Jonathan Spelman, Theories of Moral Considerability. Ayrıca bkz. Dan Lowe, Speciesism.
  • [6] İlginç bir örnek için bkz. Coeckelbergh (2020, s. 54 ve devamı) ve Müller (2023, § 2.9.2) ve Hatmaker (2017). Eğer deneyimleri olan yapay zekâlar yaratmak mümkün olursa kötü niyetli bir insanın milyarlarca bilinçli varlığa eziyet etmesi çok kolay hale gelebilir ve buna bağlı olarak zevk hissedebilen milyarlarca basit yapay zekâ yaratarak muazzam miktarda etik değer üretmek de kolaylaşabilir. Gerçekten de yüzlerce basit yapay zeka yaratarak etik değer üretmek, tek bir biyolojik insan yaratarak bunu yapmaktan çok daha ucuz olabilir. Bkz. Jonathan Spelman, The Repugnant Conclusion, ve Shane Gronholz, Consequentialism and Utilitarianism. Bu sorunlardan bazıları aynı zamanda uzunvadecilik konusuyla da ilgilidir; bkz. Dylan Balfour, Longtermism: How much should we care about the far future?. Bu tür karmaşıklıklar, bazı filozofların ‘’sentetik fenomenoloji’’nin yani bilinçli deneyimlere sahip olan yapay zekâların yasaklanmasına çağrıda bulunmasına yol açmıştır (Bentley ve diğerleri, 2018, s. 28–29). Ayrıca bkz. aşağıdaki dipnot 9.
  • [7] Buradaki kararımız, eğer öyleyse, neden insanların oy verme hakkına sahip olması gerektiğini düşünmemize bağlı olabilir. Eğer demokrasinin en iyi sonuçlar ürettiğini düşündüğümüz içinse o zaman yapay zekâların oy kullanmasının iyi sonuçları olduğunu düşünürsek onlara bunun için izin veririz. Yapay zekâların muhtemelen ortalama insan seçmenden çok daha fazla bilgiye erişiminin olacağı göz önüne alındığında, bu, daha iyi sonuçlar beklemek için bir nedendir. Yasalardan etkilenen kişilerin, bu yasaları etkileme hakkına sahip olması gerektiğini düşündüğümüz için insanların oy kullanabilmesi gerektiğini düşünürsek o zaman yapay zekâlar kararların, hepsinde değil ama bazılarında oy kullanma hakkına sahip olabilir. Bkz. örneğin, Brennan (2023, § 6), ve Thomas Metcalf, Ethics and the Expected Consequences of Voting.
  • [8] Kölelik hakkında daha fazla bilgi için bkz. Dan Lowe, Aristotle’s Defense of Slavery. Yine de kasıtlı olarak çalışmayı seven bir yapay zekâ yaratmayı hayal edebiliriz. Ayrıca, bir şeyi var ederek, eğer hayatı yaşanmaya değerse, ona zarar vermenin veya yanlış yapmanın mümkün olup olmadığı konusunda da felsefi bir tartışma vardır. Belirli görevleri yerine getirmek için yapay zekâlar yaratmanın, yapay zekâların ‘’hayatları’’ yaşanmaya değer olduğu sürece, yapay zekâlara zarar vermediği çünkü aksi takdirde zaten var olamayacakları savunulabilir. Bkz. Haramia (2014) ve Duncan Purves, The Non-Identity Problem. Fakat bilinçli yapay zekâların iyi yaşamlara sahip olabilecek birçok kopyasını yaratma yeteneğini elde edersek, bazı ahlaki teorilere göre, mümkün olduğu kadar çok kopya yaratmak ahlaki açıdan iyi (hatta gerekli) olabilir; bu bizler için ciddi bir maliyet olsa da. (Bkz. Jonathan Spelman, The Repugnant Conclusion.) Makul bir şekilde, bir iyi insan hayatı sürdürmenin bedeliyle, milyonlarca veya milyarlarca iyi yapay zekâ hayatı sürdürebiliriz. Ancak çoğu filozof, dünyada iyi yaşamlardan başka değerli şeylerin de olduğunu savunacaktır. Ayrıca bkz. yukarıdaki dipnot 5.
  • [9] Makinelerin bilinçli olup olamayacağına dair bazı görüşler için bkz. Bringsjord & Govindarajulu (2023, § 8). Bu alandaki dönüm noktası niteliğindeki makale Searle’ün “Çin Odası” argümanıdır (Cole,2023).
  • [10] Hoy (2018) sesli asistanlara bir giriş sunmaktadır.
  • [11] ChatGPT gibi büyük dil modellerine giriş için, bkz. Ruby (2023)
  • [12] Bkz. Blunden (2016). Popüler ve yeni Battlestar Galactica serisinde de ana düşman olarak kötücül yapay zekâlar yer almakta ve bu yapay zekâlar Dr. Who serisinde de belirgin bir şekilde öne çıkmaktadır.
  • [13] Bkz. Daniel Weltman, “Nasty, Brutish, and Short”: Hobbes on Life in the State of Nature. Eğer yapay zekâlar kısmen insanlarla olan benzerliklerine göre tanımlanırsa, o zaman muhtemelen, bizim birbirimize saldırma nedenlerimizden bazıları nedeniyle bize saldıracaklardır.
  • [14] Bu soruna bazen ‘’Ters Yerine Getirme’’ sorunu da denir. Temel olarak, yapay zekânın bir hedefi vardır ve bu amacı ters bir şekilde gerçekleştirir: son derece zararlı bir şekilde veya hedefin asıl amacını feda ederek. Bkz. örneğin, Danaher (2014) ve Bostrom (2014, s. 120 ve devamı). Kurgu dünyasından öne çıkan bir örnek, 2015 yapımı Avengers: Age of Ultron filmidir (Whedon, 2015).
  •  [15] Örneğin bkz. Gent (2023) ve Leike ve diğerleri. (2022). Bazı yazarlar yapay zekâları ahlaki muhakeme yapacak şekilde programlama girişimine karşı çıkmışlardır (van Wynsberghe ve Robbins, 2019).
  •  [16] Gerçekten de bazı yazarlar, kötü niyetli veya tehlikeli yapay zekâların insanlık için varoluşsal bir risk olduğu konusunda endişelenmenin, yapay zekâ yüzünden karşı karşıya kaldığımız günümüz risklerinden dikkatimizi uzaklaştırdığını savunmaktadır. Bkz. örneğin, Milmo (2023).
  • [17] Callaway (2022).
  • [18] Smith ve diğerleri (2021). Daha genel olarak, bkz. Cambridge Üniversitesi (2024).
  • [19] Yapay zekâların buluşlardaki potansiyel rollerine ilişkin görüşler için bkz. Rotman (2019).
  • [20] Yapay zekâ silahlarına giriş için bkz. Dresp-Langley (2023).
  • [21] Chatbot’ların kopya çekmek için kullanılması yükseköğretimde büyük bir problemdir; bkz. örneğin, Spector (2023).
  • [22] ’’Deepfake’’ler gerçek insanların gerçek fotoğrafları ve videoları gibi görünen son derece ikna edici, aldatıcı videolar veya görsellerdir. Genellikle yapay zekâ yardımıyla oluşturulurlar. Bkz. Jones (2023).
  • [23] Kwon (2024)
  • [24] Weirich (2023); ayrıca bkz. Lam (2023a ve 2023b).
  • [25] Bkz. örneğin, Coeckelbergh (2020, s. 125 ve devamı) ve Müller (2023, § 2.4).
  • [26] Bu “algoritmik önyargı” hakkında, bkz. örneğin, Friis ve Riley (2023).
  • [27] Yapay zekânın sürdürülebilirliğiyle ilgili çevresel sorunlara giriş için, bkz. van Wynsberghe (2021) ve OECD (2022). Ayrıca bkz. Brevini (2021) ve Bolte ve diğerleri (2022). Örnek olarak, bir yapay zekâ inşa etmek arabaların kullanım ömrü boyunca birçok arabaya eşdeğer CO2 emisyonu üretebilir (Strubell ve diğerleri, 2019) ve popüler bir yapay zekâ hizmeti -ChatGPT- kullanımı, ABD’deki 33.000 hanenin tükettiği kadar elektrik tüketebilir (McQuate, 2023). Bu, şu anda Amerika Birleşik Devletleri’ndeki hanelerin yalnızca %0,02’sine eşdeğer olsa da (ABD Nüfus Sayım Bürosu, t.y.) daha fazla yapay zeka modeli geliştirildikçe, bunlar yetenekler kazandıkça ve yaşamın diğer alanlarına daha fazla entegre oldukça, yapay zeka kullanımının artmasını beklemeliyiz.
  • [28] İklim değişikliğinin yoksulları nasıl etkilediği hakkında bkz. Guivarch ve diğerleri (2021) ve Leichenko & O’Brien (2008). Ham mineral madenciliği hakkında bkz. Penke (2021).
  • [29] Bkz. Burkhardt (2019) ve Bushwick (2023). Ancak diğer sermaye mallarında olduğu gibi, artan üretkenlik nispeten yoksul olarnların mutlak konumunu gerçekten de iyileştirebilir. Bkz. Thomas Metcalf, Arguments for Capitalism and Socialism.
  • [30] Bkz. Coeckelbergh (2020, s. 137 ve devamı), Müller (2023, § 2.6), ve Milmo (2024).
  • [31] Bunun bir örneği ‘’hayalet iş’’tir: aslında bir insan tarafından yapılan ama otomatik bir süreç tarafından yapılıyormuş gibi görünen veya yapıldığı iddia edilen bir iş. Bkz. Gray ve Suri (2019). Ayrıca yapay zekâların eğitilmesinde çalışan insanların yaygın olarak sömürüldüğü de savunulabilir; bkz. Williams ve diğerleri (2022). Aslında, algoritma önyargısıyla mücadele etme girişimi, sömürücü veya başka türlü ahlaki açıdan sorgulanabilir işler yaratabilir; bkz. Perrigo (2023).
  • [32] Yapay zekâ hakkındaki “etik yıkama”ya giriş için, bkz. Kaspersen & Wallach (2021). Bu terim daha iyi bilinen; ajansların çevreye duyarlı veya çevre dostu görünmek istediklerinde, çevresel zararı gizlemek için yanlış veya yanıltıcı iddialarda bulunmaları anlamına gelen ‘’yeşil aklama (greenwashing)’’ teriminden gelmektedir (Birleşmiş Milletler t.y.).
  • [33] Yine de tüketicilerin etiği önemsediği gerçeği (Allen, 2021; Barton, 2018) en azından bazı tüketicilerin yeterli araştırma yapacağı ve böylece, sadece ‘’etik yıkama’’nın, gerçekten etik davranışın sağladığı faydaların aynısını sağlamayacağı anlamına geliyor.

Referanslar


İlgili Yazılar


Thomas Metcalf – “Artificial Intelligence: Ethics, Society, and the Environment“, (Erişim Tarihi: 05.01.2025)

Çeviren: Elifnur Avcı

Çeviri Editörü: Beyza Nur Doğan

1 Yorum

Bir cevap yazın

Your email address will not be published.

Önceki Gönderi

Tartışmalı Bir Ahlak Teorisi: Faydacılık – Doç. Dr. Metin Aydın & Taner Beyter

Sonraki Gönderi

Büyü Nedir? – Michael Huemer

En Güncel Haberler Analitik Felsefe:Tümü