Hayırseverlik yapmanız için size kendi tercihlerinize göre bağışlayabileceğiniz şekilde bir milyon dolar verildiğini düşünün. Bu parayı nasıl harcardınız?
Belki de gönlünüze yakın bir amaca, mesela yerel bir topluluk projesine bağışlardınız. Belki de afet yardımı veya sıtma önleyici cibinlikleri destekleyerek dünyadaki yoksullara yardımcı olmayı denerdiniz.
Büyümekte olan bir felsefi hareket olan Uzun-dönemciliğin savunucularına göre, sürpriz bir şekilde paranızı bu şekillerde harcamanız yanlış olurdu. Uzun-döneimciler bugünkü insanların ihtiyaçlarını neredeyse tamamen göz ardı etmeniz ve bunun yerine paranızı insanlığın uzun vadeli geleceğini güvence altına alıp geliştirmeye yardım edecek şekilde kullanmanız gerektiğine inanıyorlar: onların hedefi binlerce, milyonlarca hatta milyarlarca yıl sonra yaşayacak insanlara fayda sağlamaktır.[1]
Bu yazıda Uzun-dönemcilik tanıtılacaktır.
1. Uzun-Dönemcilik Nedir?
Uzun-dönemcilik öncelikle insanların soyunun tükenmesini engelleyerek ve gelecekteki torunlarımızın yaşamlarını iyileştirerek uzak gelecekteki insanlığı öncelememiz gerektiği yönündeki görüştür.
Bazı Uzun-dönemciler teknolojiyi hızlandırarak yıldızları kolonize etmeyi ve astronomik sayıda gelecekteki insan hayatını mümkün kılmayı sağlayacak şekilde teknolojiyi hızlandırarak insanlığın kozmik potansiyelini tamamlamayı savunarak daha da ileri gider. Hatta bazıları insanlığı bilgisayarlaştırılmış zihinlerden oluşan dijital bir medeniyete dönüştürerek pratik olarak insanlara sınırsız yaşam süresi vermemiz gerektiğini dahi önermektedir.[2]
İnsanlığın kaynakları sınırlı olduğu için bu eforlar günümüzdeki insanların ihtiyaçlarına daha az önem atfetmemizi gerektirir. Dolayısıyla Uzun-dönemciler kaynakları neredeyse her zaman günümüzdeki nesillere yardım etmektense uzun vadedeki geleceği daha iyi bir hale getirmek için dağıtmanın tercih edilmesi gerektiğine inanır.[3]
2. Neden Uzun-Dönemcilik?
Uzun-dönemciler genellikle gelecekteki insan popülasyonunun büyük boyutuna vurguda bulunarak görüşlerini destekler. Ilımlı bir tahminle Dünya’nın yaşanılamaz hale gelmeden önce on katrilyon insanın (bu 10’un yanına 15 sıfır eklemek anlamına gelir!) yaşamını kaldırabileceği öngörülmektedir.[4] Ve eğer insanlık başarıyla Samanyolu Galaksisi’ne yayılırsa bu sayı çok ciddi ölçüde artabilir.[5]
Uzun-dönemciler eğer insan yaşamı değerliyse bundan çıkan sonucun bu kadar fazla sayıda gelecek insanın günümüzde yaşayan insanlara göre çok daha önemli olduğunu savunmaktadır: gelecekte o kadar fazla sayıda insan olabilir ki onların çıkarları kümülatif olarak sizinkilere ağır basacaktır.
Bu gelecekteki insanların bireysel olarak bizden daha önemli olduğunu değil ancak bir bütün olarak günümüzdeki nesillerden daha büyük ilgiyi hak ettiklerini söylemektir.[6] Bu nedenle, Uzun-dönemciler uzak geleceği iyileştirmeyi hedefleyen eylemlerin kısa vadeli faydalar sağlayanlara göre çok daha fazla iyilik sağladığını iddia eder.
Uzun-dönemcilik, tıpkı atalarımızın bize sahip çıktığı gibi bizim de gelecek nesillere sahip çıkma yükümlülüğümüz olduğu önerisiyle de destekleniyor.[7] Bir diğer argümansa muhtemelen evrendeki tek akıllı canlılar olmamızdan kaynaklı kozmik önemimizin insanlığı koruma yönünde bir görev doğurduğudur.[8]
3. Uzun-Dönemci Öncelikler
Uzun-dönemciler tipik olarak iki tür müdahalenin öncelenmesi gerektiğini düşünür.
İlki nükleer savaş, asteroit çarpması ve iklim değişimi gibi varoluşsal felaketleri -medeniyeti engelleyecek ya da insanlığın yok olmasına neden olacak olaylar- önlemektir.[9] Çoğu araştırmacı ileri yapay zekanın eğer yapay zekaların çıkarları bizim çıkarlarımızla örtüşmezse insanlık için tehlikeye dönüşebileceği şeklindeki risklerden de endişe duymaktadır.[10]
İkinci müdahele pozitif bir yön değişimini mümkün kılmak ya da başka bir deyişle, medeniyetin uzun vadeli gidişatını geliştirmeyi denemek şeklindedir:[11] örn., Yıllık ekonomik büyüme oranının yüzde birlik kadar küçük bir kısmını artırmak bile sadece birkaç yüzyıl içinde muazzam miktarda servet üretecektir.[12] Uzun vadeli bakış açısıyla, ekonomik büyüme kısa ya da orta vadeli zaman skalalarından çok daha önemlidir ve bu nedenle bireyler ve devletler için yüksek önceliktedir.
4. İtirazlar
Uzun vadecilik tartışmalı bir görüştür; elbette Uzun-dönemciliğe karşı birçok eleştiri vardır.
İtirazlardan biri Uzun-dönemciliğin çok güven duyamayacağımız tahminlere dayandığı şeklindedir: insanlığın ne kadar uzun süre hayatta kalacağını bilemeyiz ve uzak geleceği tam olarak hangi eylemlerin geliştireceğini tam olarak bilmek oldukça zordur. Bunun aksine, halihazırda yaşayan insanlara fayda sağlama kabiliyetimizden oldukça emin olabiliriz.[13]
Bununla bağlantılı bir itirazsa Uzun-dönemciliğin günümüzde büyük acılar çeken insanların çıkarlarına daha düşük ilgi göstermemizi isteyerek tamamen duygusuz olmamızı beklemesidir.[14] Elbette, günümüzde mutlak yoksulluk içinde yaşayan milyonlar gibi ihtiyaç içinde olan insanları var olmaları yalnızca bir olasılık olan insanlar uğruna görmezden gelemeyiz.
Verilecek bir cevap Uzun-dönemciliğin duygusuz gözüktüğünü kabul etmek ancak yine de benimsememiz gerektiğini söylemektir. Şimdiki neslin ihtiyaçları üzerimizde daha büyük bir duygusal çekime neden olabilir, ancak bu onların gelecek nesillerden daha önemli oldukları anlamına gelmez.
Uzun-dönemciler bu suçlamayı tersine çevirebilir: Sayıca bizden çok daha fazla olan ve henüz hiçbir sosyal veya politik güce sahip olmayan gelecekteki insanların çıkarlarını ihmal etmek de en az bir o kadar duygusuz olurdu. Şu anki nesle ayrıcalık tanımak, kendi çıkarlarını savunamayacak olan trilyonlarca insanı göz ardı etmek anlamına gelebilir.
5. Uzun-Dönemciliği Pratiğe Dökmek
Eğer Uzun-dönemcilik kulağa makul geliyorsa yardım etmek için ne yapabiliriz?
Çoğu Uzun-dönemci, paramızı asteroit tespiti ve yapay zeka güvenliği gibi uzun vadeli meseleler üzerine çalışan araştırma organizasyonlarına bağışlamamız gerektiğini savunur.[15]
Diğer Uzun-dönemciler paramızı kendi yaşam süremiz boyunca bağışlamaktan kaçınmamızı ve kişisel servetimizi gelecekteki hayırseverlik etkimizi maksimize edecek şekilde bağışlamaya yönelik bir ayarlama yapmamızı önerir.[16]
Ayrıca kendi kariyerlerimizi de uzun vadeli geleceğe adayabiliriz. Altruistik kariyer tavsiyeleri veren bir organizasyon olan 80,000 Hours, kariyerlerimizle en büyük etkiye sahip olabilmemiz için içgüdüsel olarak değerli gözüken küresel yoksulluk ve eşitsizlik gibi yakın dönemli amaçlar yerine pandemi hazırlığı ve nükleer güvenlik gibi uzun vadeci amaçlar uğruna çalışmamızı önerir.[17]
Uzun-dönemciler ayrıca devletleri, insanlığın uzun vadeli geleceğini güvenceye alacak ve geliştirecek yollara çok daha fazla kaynak ayırmaları için teşvikte bulunur.
6. Sonuç
Uzun-dönemcilik günümüz problemleriyle mücadele etmeye çok daha az kaynak harcamamız ve bunun yerine gelecek nesilleri destekleyecek kullanımlara yönelmemizi ifade eder. Gelecekte var olabilecek birçok insanın iyiliği için tartışmalı olsalar dahi Uzun-dönemcilerin önerilerini dikkatli bir şekilde değerlendirmeliyiz.
Notlar
- [1] Uzun-dönemcilik, en önemli ve etkili altruistik amaçları belirlemeyi ve bunlara kaynak sağlamayı amaçlayan “efektif altruizm” hareketinin bir dalıdır. Efektif altruizme giriş için, Brandon Boesch’in Etik ve Mutlak Yoksulluk: Peter Singer ve Efektif Altruizm’e bakınız.
- [2] Bostrom (2003, 2013)’e bakınız.
- [3] Bu görüş, Greaves ve MacAskill (2021) tarafından Uzun-dönemcilik için oluşturulan söz sahibi bir argümanda “aksiyolojik güçlü uzun vadecilik” olarak adlandırılmıştır.
- [4] Bu, Nick Bostrom’un (2013, 18), Dünya’nın herhangi bir zamanda, bir milyar yıllık bir süre boyunca ortalama bir milyar nüfusu taşıyabileceğini varsayan hesaplamasıdır.
- [5] Newberry (2021), insanlık Samanyolu’na yayılırsa 10³⁵’e kadar insanın var olabileceğini tahmininde bulunuyor.
- [6] Bu düşünce şekli, örtük olarak değerin “toplanabileceğini” veya daha basit bir terminolojiyle üst üste konulabileceğini varsayar. Toplama, genellikle sonuçsalcılık ahlaki teorisi ile ilişkilendirilir (bkz. Shane Gronholz’un Sonuçsalcılık’ı). Toplama tartışmalı bir fikirdir. Parfit (1987), toplamanın, yaşamları zar zor yaşamaya değer olan yeterince büyük bir insan nüfusunun, mutlu yaşamlara sahip küçük bir popülasyondan daha değerli olduğu şeklindeki İğrenç Sonuç’a yol açabileceğine işaret etmiştir (bkz. Jonathan Spelman tarafından yazılan İğrenç Sonuç). Diğerleri, değeri bir dereceye kadar toplamamız gerekse de bunun sınırları olduğunu düşünüyor. Sözde “kısmi toplanabilirlik” değer teorileri, bazı malların veya deneyimlerin hiçbir zaman toplama yoluyla diğer bazı mal veya deneyimlerden daha yüksek bir değere ulaşamayacağını kabul eder – örneğin, ne kadar sayıda olursa olsun baş ağrısını önlemenin ahlaki olarak bir insan hayatını kurtarmak kadar önemli olamaması: bkz. Norcross (1997).
- [7] Bu, Ord (2020, 49-51) tarafından gösterilen bir noktadır.
- [8] Bu da Ord (2020, 53-6) tarafından gösterilen bir noktadır.
- [9] Birçok varoluşsal felaketin değerlendirmesi ve kapsamlı bir tanımlaması için Ord (2020)’ye bakınız.
- [10] For just a few examples, see Bostrom (2014), Russell (2019), and Ord (2020) who estimates, frighteningly, that there is a 1 in 10 chance that humanity will go extinct in the next century due to misaligned artificial intelligence. Sadece birkaç örnek için, yanlış ayarlanmış yapay zeka nedeniyle gelecek yüzyılda insanlığın neslinin tükenme olasılığının korkutucu bir şekilde 10’da 1 olduğunu tahmin eden Bostrom (2014), Russell (2019) ve Ord’a (2020) bakınız.
- [11] ‘Yön değişimi’ terimi Nick Beckstead (2013) tarafından bulunmuştur.
- [12] Bakınız Cowen (2018). Ek olarak, yıllık büyüme oranını düşürmek son derece üzücü bir yön değişikliği olabilir. MacAskill’in (2020) açıkladığı gibi, yıllık büyüme oranını %0,8’den %0,2’ye düşürmek: “birkaç yüzyıl içinde […] dünyanın servetinin yarısını yok eden bir felakete eşdeğer olur”.
- [13] Peter Singer, 2021’de bir milyon dolarlık ödül alan ve tamamını efektif hayır kurumlarına vermeyi taahhüt eden bir filozofdur. Neden uzun vadeci amaçlarla bağışta bulunmamaya karar verdiğini şöyle açıklıyor: “Bazı düşünceli efektif altruistler bizi yok olma riskini azaltmaya odaklanmaya teşvik ediyor. Ancak bu hedefe nasıl ulaşacağımıza dair belirsizlikler o kadar büyük ki olumlu bir şey başarma olasılığının çok daha yüksek olduğu projelere bağış yapmayı tercih ediyorum.” Bkz. Singer (2021).
- [14] Bu etki hakkında bir argüman için bkz. Torres (2021).
- [15] Bkz. Greaves and MacAskill (2021, 16-7).
- [16] Bkz. Trammell (2020).
- [17] https://80000hours.org/key-ideas/#longtermism. 80,000 Hours’un ayrıca ‘’kısa-vadeci’’ amaçlarla ilgili alanlarda da kariyer tavsiyeleri verdiğini ancak en iyi fırsatların tipik olarak uzun vadeci alanlarda olduğunu düşündüklerini dikkate alınız.
Referenslar
- Ahmed, A (2018) ‘Rationality and Future Discounting’ HYPERLINK “https://philpapers.org/rec/AHMRAF-3”Topoi HYPERLINK “https://philpapers.org/rec/AHMRAF-3″39(2): 245-56
- Beckstead, N (2013) ‘On the Overwhelming Importance of Shaping the Far Future’ (PhD thesis). Department of Philosophy, Rutgers University
- Beckstead, N (2014) ‘Will we eventually be able to colonize other stars? Notes from a preliminary review’ HYPERLINK “https://www.fhi.ox.ac.uk/will-we-eventually-be-able-to-colonize-other-stars-notes-from-a-preliminary-review/”Future of Humanity Institute HYPERLINK “https://www.fhi.ox.ac.uk/will-we-eventually-be-able-to-colonize-other-stars-notes-from-a-preliminary-review/”.
- Bostrom, N (2003) ‘Astronomical Waste: The Opportunity Cost of Delayed Technological Development’ HYPERLINK “https://www.nickbostrom.com/astronomical/waste.html”Utilitas HYPERLINK “https://www.nickbostrom.com/astronomical/waste.html”15(3): 308-14
- Bostrom, N (2013) ‘Existential Risk Prevention as Global Priority’ HYPERLINK “https://onlinelibrary.wiley.com/doi/abs/10.1111/1758-5899.12002”Global Policy HYPERLINK “https://onlinelibrary.wiley.com/doi/abs/10.1111/1758-5899.12002″4(1): 15-31
- Bostrom, N (2014) HYPERLINK “https://global.oup.com/academic/product/superintelligence-9780199678112?cc=gb&lang=en&”Superintelligence: Paths, Dangers, Strategies. HYPERLINK “https://global.oup.com/academic/product/superintelligence-9780199678112?cc=gb&lang=en&”Oxford: OUP
- Bostrom, N (2019) ‘The Vulnerable World Hypothesis’ HYPERLINK “https://www.nickbostrom.com/papers/vulnerable.pdf”Global Policy HYPERLINK “https://www.nickbostrom.com/papers/vulnerable.pdf”10(4): 455-76
- Broome, J (2005) ‘Should we Value Population?’ HYPERLINK “https://onlinelibrary.wiley.com/doi/abs/10.1111/j.1467-9760.2005.00230.x”Journal of Political Philosophy HYPERLINK “https://onlinelibrary.wiley.com/doi/abs/10.1111/j.1467-9760.2005.00230.x” 13(4): 399-413
- Cowen, T (2018) HYPERLINK “https://www.goodreads.com/en/book/show/31283667-stubborn-attachments”Stubborn Attachments: A Vision for a Society of Free, Prosperous, and Responsible Individuals HYPERLINK “https://www.goodreads.com/en/book/show/31283667-stubborn-attachments”. Stripe Press
- Greaves, H; MacAskill, W (2021) ‘The Case for Strong Longtermism’ HYPERLINK “https://globalprioritiesinstitute.org/hilary-greaves-william-macaskill-the-case-for-strong-longtermism-2/”Global Priorities Institute Working Paper HYPERLINK “https://globalprioritiesinstitute.org/hilary-greaves-william-macaskill-the-case-for-strong-longtermism-2/”5-2021
- John, T.M; MacAskill, W (2020) ‘Longtermist Institutional Reform’ HYPERLINK “https://globalprioritiesinstitute.org/tyler-m-john-and-william-macaskill-longtermist-institutional-reform/”Global Priorities Institute Working Paper HYPERLINK “https://globalprioritiesinstitute.org/tyler-m-john-and-william-macaskill-longtermist-institutional-reform/” 14-2020
- MacAskill (2020) ‘What We Owe the Future’ (Lecture)
- Newberry, T (2021) ‘How Many Lives Does the Future Hold?’ HYPERLINK “https://globalprioritiesinstitute.org/how-many-lives-does-the-future-hold-toby-newberry-future-of-humanity-institute-university-of-oxford/”GPI Technical Report no.T2 – 2021
- Norcross, A (1997) ‘Comparing Harms: Headaches and Human Lives’ HYPERLINK “https://onlinelibrary.wiley.com/doi/abs/10.1111/j.1088-4963.1997.tb00079.x”Philosophy and Public Affairs
- Ord, T (2020) HYPERLINK “https://www.bloomsbury.com/uk/precipice-9781526600233”The Precipice: Existential Risk and the Future of Humanity HYPERLINK “https://www.bloomsbury.com/uk/precipice-9781526600233”. London: Bloomsbury
- Parfit, D (1987) HYPERLINK “https://oxford.universitypressscholarship.com/view/10.1093/019824908X.001.0001/acprof-9780198249085”Reasons and Persons, 2 HYPERLINK “https://oxford.universitypressscholarship.com/view/10.1093/019824908X.001.0001/acprof-9780198249085”nd HYPERLINK “https://oxford.universitypressscholarship.com/view/10.1093/019824908X.001.0001/acprof-9780198249085” edition. HYPERLINK “https://oxford.universitypressscholarship.com/view/10.1093/019824908X.001.0001/acprof-9780198249085” Oxford: OUP
- Russell, S (2019) HYPERLINK “https://www.penguinrandomhouse.com/books/566677/human-compatible-by-stuart-russell/”Human Compatible: AI and the Problem of Control HYPERLINK “https://www.penguinrandomhouse.com/books/566677/human-compatible-by-stuart-russell/”. London: Penguin
- Singer, P (1972) ‘Famine, Affluence, and Morality’ HYPERLINK “https://personal.lse.ac.uk/robert49/teaching/mm/articles/Singer_1972Famine.pdf”Philosophy and Public Affairs HYPERLINK “https://personal.lse.ac.uk/robert49/teaching/mm/articles/Singer_1972Famine.pdf”1(3): 229-43
- Singer, P. (2021) ‘How to Give Away a Million Dollars’ HYPERLINK “https://www.project-syndicate.org/commentary/how-to-give-away-a-million-dollars-by-peter-singer-2021-09”Project Syndicate
- Tarsney, C (2017) ‘Does a Discount Rate Measure the Costs of Climate Change?’ HYPERLINK “https://www.cambridge.org/core/journals/economics-and-philosophy/article/does-a-discount-rate-measure-the-costs-of-climate-change/62E21F7AF09080AC880768023374755A”Economics and Philosophy HYPERLINK “https://www.cambridge.org/core/journals/economics-and-philosophy/article/does-a-discount-rate-measure-the-costs-of-climate-change/62E21F7AF09080AC880768023374755A” 33: 337-65
- Torres, P (2021) ‘The Dangerous Ideas of “Longtermism” and “Existential Risk”’ HYPERLINK “https://www.currentaffairs.org/2021/07/the-dangerous-ideas-of-longtermism-and-existential-risk”Current Affairs
- Trammell, P (2020) ‘How Becoming a “Patient Philanthropist” Can Allow You to Do Far More Good’ HYPERLINK “https://80000hours.org/podcast/episodes/phil-trammell-patient-philanthropy/”The 80,000 Hours Podcast
Dylan Balfour – “Longtermism: How Much Should We Care About the Far Future?“, (Erişim Tarihi:06.10.2022)
Çevirmen: Yiğit Aras Tarım
Site Editörü: Taner Beyter