Yapay Zekalar Hayvanlarla Aynı Etik Korumalara Sahip Olmalıdır – John Basl ve Eric Schwitzgebel

Dünyada genelinde çeşitli üniversiteler, Allen Enstitüsü gibi organizasyonlar, Google ve Facebook’un da dahil olduğu teknoloji şirketleri yapay zeka (AI) üzerinde büyük araştırmalar yürütüyorlar. Muhtemel bir sonuç olarak yakında yapay zeka, bilişsel olarak fareler ve köpekler kadar gelişmiş olacaklar. Bu yapay zekanın hayvanlara verdiğimiz etik korumaları hak edip etmediklerini, hangi koşullar altında ettiklerini düşünmeye başlamamızın tam zamanı.

/
1753 Okunma
Okunma süresi: 4 Dakika

Şimdiye kadar ‘Yapay Zeka Hakları’ veya ‘Robot Hakları‘ tartışmalarına, insan benzeri bir yapay zekaya veya üstün zekaya – Star Trek’teki android Data veya Westworld’den Dolores gibi-  karşı nasıl etik yükümlülükler taşıyacağımız soruları hakim oldu. Ancak bu şekilde düşünmek yanlış yerden başlamaktır ve ciddi ahlaki sonuçları olabilir. Büyük olasılıkla insani etik düşünceyi hak eden yapay zeka yaratmadan önce, daha az insani etik düşünceyi hak eden insan karmaşıklığının altında bir yapay zeka yaratacağız.

İnsan dışı hayvanların kullanıldığı araştırmaları nasıl yaptığımız konusunda zaten çok dikkatliyiz. Hayvan bakım ve kullanım komiteleri, omurgalı hayvanların gereksiz yere öldürülmemesini veya gereksiz yere acı çekmemesini sağlamak için araştırma önerilerini değerlendiriyor. Hatta insan kök hücreleri veya insan beyni hücreleri söz konusuysa, gözetim standartları daha da sıkılaşıyor. Biyomedikal araştırmalar dikkatle incelenirken, aynı etik risklerden bazılarını içerebilecek yapay zeka araştırmaları şu anda hiç incelenmiyor.

Yapay zeka, bilinçli olmadıkça – yani gerçek bir deneyim akışı, gerçek sevinç ve ıstırap olmadıkça –  bu tür bir etik korumayı hak etmediklerini düşünebilirsiniz. Katılıyoruz. Ama şimdi karmaşık bir felsefi soruyla karşı karşıyayız: sevinç ve acı çekebilecek bir şey yarattığımızda bunu nasıl bileceğiz?

Yapay zeka, Data veya Dolores gibiyse, şikayetlerini savunabilir ve haklarını tartışmaya başlayabilir. Ancak yapay zeka bir fare veya köpek gibi anlaşılmazsa veya başka bir nedenden dolayı iç yaşamını bize iletemiyorsa, acı çektiğini bildirmenin bir yolu olmayabilir. Burada bir kafa karışıklığı ve güçlük ortaya çıkıyor çünkü bilinç çalışmaları, henüz bilincin ne olduğu ve var olup olmadığını nasıl anlayabileceğimiz konusunda bir fikir birliğine varmadı.

Bazı görüşlere göre – ‘liberal’ görüşler – bilincin var olması için çevresindeki nesnelerle, yönlendirilmiş dikkat yetenekleri ve uzun vadeli planlamayla bağlantı kurabilen hareket kabiliyeti yüksek bilgilendirici sistem modeli gibi iyi organize edilmiş belirli bir bilgi işlem türünden başka bir şey gerekmiyor. Zaten bu sistemleri yaratmanın eşiğinde olabiliriz. Diğer görüşlerde – ‘muhafazakar’ görüşler – bilinç, düşük seviyeli yapısal detaylarında bir memeli beynine çok benzer bir beyin gibi çok spesifik biyolojik özellikler gerektiriyor: bu durumda yapay bilinç yaratmaya hiç yakın değiliz.

SpotMini robotu CeBIT 2018 Hannover, Almanya

Hangi görüş türünün doğru olduğu veya sonunda başka bir açıklamanın geçerli olup olmayacağı belirsiz. Ancak, eğer liberal görüş doğruysa, çok yakında etik korumayı hak edecek birçok insan-altı yapay zeka yaratıyor olacağız. İşte ahlaki risk burada yatıyor.

‘Yapay Zeka Riski’ tartışmaları, genellikle yeni yapay zeka teknolojilerinin dünyayı ele geçirebileceği veya en azından bankacılık sistemlerimizi bozacağı gibi insanlığa karşı oluşturabileceği tehditlere odaklanıyor. Çok daha az tartışılanı, yapay zekaya karşı olası kötü davranışlarımızın ortaya koyduğu etik riskler.

Bu kulağa bilim kurgu gibi geliyor olabilir ancak yapay zeka topluluğundaki araştırmacılar bilinçli yapay zeka veya bilinçli hale gelebilecek sağlam yapay zeka sistemleri geliştirmeyi amaçladıkça, konuyu ciddiye almalıyız. Bu tür araştırmalar, hayvan araştırmalarına ve insan sinir dokusu örnekleri üzerinde yaptığımız incelemeye benzer bir etik incelemeyi gerektirir.

The Creation of Artificial Intelligence – Sarah Modak

Hayvanlar ve hatta insan denekler üzerinde yapılan araştırmalarda, ancak ciddi etik suçlar ortaya çıktıktan sonra uygun korumalar sağlandı (örneğin denek hayvanları üzerinde yapılan gereksiz testler, Nazi tıbbi savaş suçları ve Tuskegee Frengi Deneyi). Yapay zeka ile daha iyisini yapma şansımız var. Bu soruların doğrultusunda modern yapay zeka araştırmalarını değerlendirebilecek gözetim komiteleri kurulmasını öneriyoruz. Bu tür komiteler, tıpkı hayvan bakım komiteleri ve kök hücre gözetim komiteleri gibi, bilim insanlarının ve bilim insanı olmayanların – yapay zeka tasarımcıları, bilinç bilimcileri, etikçiler ve ilgili topluluk üyelerinin bir karışımından oluşmalıdır. Bu komiteler, bilimsel ve etik konuların sofistike bir anlayışıyla donanmış, araştırmanın faydalarına karşı riskleri tartarak, yapay zeka tasarımının yeni formlarının etik risklerini tanımlamak ve değerlendirmekle görevlendirilecektir.

Bu tür komitelerin mevcut yapay zeka araştırmalarına izin verilebilir olduğuna karar vermesi muhtemeldir. Çoğu ana akım bilinç teorilerinde henüz etik düşünceyi hak eden bilinçli yapay zeka yaratmıyoruz. Ancak – muhtemelen çok yakında – bu kritik etik çizgiyi aşacağız. Buna hazırlıklı olmalıyız.


Kaynak:  John Basl ve Eric Schwitzgebel, “AIs should have the same ethical protections as animals?” 26 Nisan 2019, https://aeon.co/ideas/ais-should-have-the-same-ethical-protections-as-animals (erişim: 6 Şubat 2020) 

Çevirmen: Berkay Topuk

Bir cevap yazın

Your email address will not be published.

Önceki Gönderi

Güvenilircilik Gettier Problemine Çözüm Bulabilmiş midir? – Zeynep Vuslat Yekdaneh

Sonraki Gönderi

Objektif Dindarlığın İmkansızlığı Argümanı-Mehmet Mirioğlu

En Güncel Haberler Analitik Felsefe:Tümü