AI büyük silahlar, özerk "katil robotlar" geliştirmemeye söz veriyor

Anonim

AI büyük silahlar otonom "katil robotlar " geliştirmemeye söz veriyor

Robotik

Michael Irving

25 Temmuz 2018

AI endüstrisinden yüzlerce şirket ve binlerce insan ölümcül otonom silah geliştirmemeye söz verdi (Kredi: chagpg / Depositphotos)

Katil robotlar fikri şu anda bilim kurgu alanındaki alanda kalıyor, ancak yapay zeka uzmanlarının bunu yakın gelecekte gerçek bir olasılık olarak ele aldığının farkına varmak oldukça endişe verici. Birleşmiş Milletler'in silahlı yapay zekaya karşı harekete geçmesi için yıllarca dilekçe verdikten sonra, Yaşamın Geleceği Enstitüsü (FLI) şimdi AI endüstrisindeki binlerce araştırmacı, mühendis ve şirket ile gelişmemesi ya da destek vermeme sözü vererek kendi ellerine geçmiştir. Özerk öldürme makinelerinin gelişimi.

2015 yılında, FLI BM'ye açık bir mektup sunarak, örgütü öldürücü özerk silah sistemlerinin (YGS) geliştirilmesine yasaklamaya çağırdı. Mektup, 1000'den fazla robotik araştırmacı ve Elon Musk ve Stephen Hawking gibi önde gelen bilim adamları tarafından imzalandı. İki yıl sonra, FLI ve aynı imzacıların çoğu sürekli görüşmelerde durduğu için bir takip gönderdi.

Bir başka eylemsizlik süresinden sonra, bu endüstri liderleri artık BM'nin girişini gerektirmeyen daha doğrudan bir yaklaşımı benimsedi. Binlerce insan şimdi kendimizi yüksek bir standartta tutmayı tercih ettiğimizi belirten bir söz verdiler: Biz ne de ölümcül otonom silahların geliştirilmesine, üretimine, ticaretine veya kullanımına destek vermeyeceğiz.

Bu kez imzalayanlar arasında 160 AI ile ilgili şirket ve kuruluş ve 2.400'den fazla kişi var. Sırasıyla Google DeepMind, ClearPath Robotics, AI için Avrupa Birliği, XPRIZE Vakfı, Silikon Vadisi Robotları, University College London ve Elon Musk, Google Research Jeffrey's ve İngiltere Parlamentosu Üyesi Alex Sobel gibi insanlar.

Grubun karşıt olduğu spesifik teknoloji, insanları tamamen özerk olarak tanımlayabilen, hedefleyen ve öldüren silahlı AI sistemleri içerir. Bu, insan pilotların hedefleri uzaktan tanımlamak ve öldürmek için kullanabileceği askeri uçaklar gibi şeyler içermezdi. Bu, yapmak için garip bir ayrım gibi gelse de, grup, bu ikinci davanın, eylem için ahlaki ve etik bir filtre olarak hala bir insan "döngüde" olduğunu savunuyor.

"Aşağıda imzası bulunan kişi, insan hayatına girme kararının asla bir makineye devredilmemesi gerektiğini kabul ediyor", diyerek resmi açıklamaları okuyor. "Bu pozisyonun ahlaki bir bileşeni var, makinelerin başkalarının ya da hiç kimsenin kusurlu olduğu karar alma kararları vermelerine izin vermemeliyiz. "

Bu öldürme makineleri veri ve gözetim platformlarına bağlandığında, bu ifade devam ederken, LAWS, insan hayatını çok kolay, risksiz ve hesap vermeyecek şekilde harekete geçirerek, şiddet ve baskıya yönelik güçlü araçlar haline gelebilir. Özellikle problemli olan bu cihazların kara pazarda yanlış ellere geçme potansiyeli.

Sözün amacı, öyle görünüyor ki, şirketleri ve insanları imzalamaya "utandırmak". Büyük oyuncuların sayısı arttıkça, aynı zamanda üye oluncaya kadar akranları ve müşterileri tarafından inceleme yapmayacaktır.

Bu şekilde oynayıp oynamadığı, en azından katil robotsuz bir geleceğin hedefine yönelik olarak bebek adımlarını görmeyi cesaretlendiriyor. BM, Ağustos ayında bir sonraki toplantısını LAWS'de yapmaya hazırlanıyor.

Kaynak: Yaşam Enstitüsünün Geleceği

AI endüstrisinden yüzlerce şirket ve binlerce insan ölümcül otonom silah geliştirmemeye söz verdi (Kredi: chagpg / Depositphotos)