“Yapay zekanın vaftiz babası” olarak kabul edilen bilgisayar bilimci, hükümetin yapay zekanın oluşturacağı eşitsizlik üzerindeki etkisiyle başa çıkabilmek için evrensel bir temel gelir oluşturması gerekeceğini söylüyor.

Profesör Geoffrey Hinton BBC Newsnight’a yaptığı açıklamada, “yapay zekanın birçok sıradan işi elinden alması konusunda çok endişeli” olduğu için her vatandaşa sabit miktarda nakit sağlayan bir sosyal yardım reformuna ihtiyaç duyulacağını söyledi.

“Downing Street’teki insanlar bana danıştı ve onlara evrensel temel gelirin iyi bir fikir olduğunu söyledim” dedi.

Yapay zekanın üretkenliği ve zenginliği artıracağını hissettiğini ancak paranın “işlerini kaybeden insanlara değil, zenginlere gideceğini ve bunun toplum için çok kötü olacağını” söyledi.

Profesör Hinton, yapay zekadaki mevcut patlamanın teorik temelini oluşturan sinir ağlarının öncüsüdür.

Geçen yıla kadar Google‘da çalışıyordu ancak düzenlenmemiş yapay zekanın tehlikeleri hakkında daha özgürce konuşabilmek için teknoloji devinden ayrıldı.

Evrensel temel gelir kavramı, hükümetin tüm bireylere maddi durumları ne olursa olsun belirli bir maaş ödemesi anlamına gelmektedir.

Eleştirmenler, bunun son derece maliyetli olacağını ve finansmanı kamu hizmetlerinden uzaklaştıracağını, ancak yoksulluğun azaltılmasına mutlaka yardımcı olmayacağını söylüyor.

Bir hükümet sözcüsü “evrensel bir temel gelir getirme planının olmadığını” söyledi.

Profesör Hinton, insan neslinin tükenmesi düzeyinde tehditlerin ortaya çıktığı yönündeki endişesini yineledi.

Geçtiğimiz yıl yaşanan gelişmeler, hükümetlerin yapay zekanın askeri kullanımını dizginleme konusunda isteksiz olduklarını gösterdiğini, ancak hızla ürün geliştirme rekabetinin teknoloji şirketlerinin “güvenlik konusunda yeterince çaba göstermeme” riski anlamına geldiğini söyledi.

Profesör Hinton, “Tahminimce bundan beş ila 20 yıl sonra, yapay zekanın kontrolü ele geçirmeye çalışması sorunuyla yüzleşmek zorunda kalma ihtimalimiz yarı yarıya var” dedi.

Bu, insanlar için “yok olma düzeyinde bir tehdit”e yol açacaktır çünkü “biyolojik zekadan çok daha iyi bir zeka türü yaratabilirdik… Bu bizim için çok endişe verici”.

Yapay zekanın “kendisinden daha fazlasını yapma motivasyonunu elde etmek için gelişebileceğini” ve otonom olarak “kontrolü ele geçirmek için bir alt hedef geliştirebileceğini” söyledi.

Metin oluşturmak için kullanılan bir tür yapay zeka algoritması olan büyük dil modellerinin yanıltıcı olmayı seçtiğine dair kanıtların zaten bulunduğunu söyledi.

Yapay zekanın binlerce askeri hedef üretmeye yönelik son uygulamalarının “sonraki ince nokta” olduğunu söyledi.

“En çok endişelendiğim şey bunların ne zaman bağımsız olarak insanları öldürme kararını verebileceğidir” dedi.

Profesör Hinton, yapay zekanın askeri kullanımını düzenlemek için Cenevre Sözleşmelerine (savaşta insani muameleye ilişkin yasal standartları belirleyen uluslararası anlaşmalar) benzer bir şeyin gerekli olabileceğini söyledi.

“Fakat çok kötü şeyler yaşanana kadar bunun olacağını sanmıyorum” diye ekledi.

Batı’nın, İkinci Dünya Savaşı sırasındaki nükleer silah araştırmalarına atıfta bulunarak, yapay zekanın askeri kullanımı konusunda Rusya ve Çin gibi otokrasilerle Manhattan Projesi tarzı bir yarışta olup olmadığı sorulduğunda, Profesör Hinton şöyle cevap verdi: “[Rusya Devlet Başkanı Vladimir] Putin şunu söyledi: Yıllar önce yapay zekayı kontrol edenin dünyayı kontrol edeceğini söylüyordu. Bu yüzden çok sıkı çalıştıklarını düşünüyorum.

“Neyse ki, Batı muhtemelen araştırmada onlardan çok ileride. Biz muhtemelen Çin’in biraz ilerisindeyiz. Ancak Çin daha fazla kaynak koyuyor. Dolayısıyla askeri kullanımlar açısından bir yarış olacağını düşünüyorum”.

Daha iyi bir çözümün yapay zekanın askeri kullanımlarının yasaklanması olacağını söyledi.