Taufe der Taufe künstlicher Intelligenz , sagt, dass die Regierung ein universelles Grundeinkommen schaffen muss, um die Auswirkungen künstlicher Intelligenz auf die Ungleichheit zu bewältigen.
Professor Geoffrey Hinton sagte zu BBC Newsnight: „Es ist sehr besorgt darüber, dass künstliche Intelligenz viele gewöhnliche Jobs wegnimmt“ und dass für jeden Bürger ein fester Geldbetrag benötigt wird.
"Die Leute in der Downing Street konsultierten mich und sagten ihnen, dass das universelle Grundeinkommen eine gute Idee sei", sagte er.
, dass künstliche Intelligenz der Ansicht war, dass sie Produktivität und Wohlstand steigern würde, aber das Geld würde den Reichen, nicht an die Menschen, die ihre Arbeit verloren haben, und dass es für die Gesellschaft sehr schlecht sein würde .
Professor Hinton ist der Pionier der neuronalen Netze, die die theoretische Grundlage der bestehenden Explosion in der künstlichen Intelligenz bilden.
Er arbeitete bis letztes Jahr Google
Das Konzept des universellen Grundeinkommens bedeutet, ein bestimmtes Gehalt an alle Personen unabhängig von ihrer finanziellen Situation zu zahlen.
Kritiker sagen, dass dies äußerst kostspielig sein wird und die Finanzierung aus öffentlichen Dienstleistungen entfernen wird, aber nicht unbedingt dazu beitragen, die Armut zu verringern.
Ein Regierungssprecher sagte : "Es gibt keinen universellen Grundeinkommensplan."
Professor Hinton bekräftigte seine Besorgnis, dass sich Drohungen auf der Erschöpfung der menschlichen Generation ergeben hatten.
das Risiko von Teknoloji , nicht genügend Sicherheitsanstrengungen zu unternehmen. “
"Ich denke, wir haben die Hälfte der Möglichkeit, dass künstliche Intelligenz versucht, die Kontrolle über fünf bis 20 Jahre nach fünf bis 20 Jahren zu übernehmen", sagte Hinton
Dies wird zu einer „Bedrohung auf das Aussterben des Aussterbens için „ wir eine viel bessere Art von Intelligenz als biologische Intelligenz hätten schaffen können. Dies ist sehr besorgniserregend für uns “ .
, dass sich künstliche Intelligenz entwickeln könnte, um die Motivation zu erhalten, mehr zu tun als sie. “Autonom kann Yarım ein Sub -ziel entwickeln, um die Kontrolle zu ergreifen .
Er sagte, dass es bereits Beweise dafür gibt, dass Großsprachmodelle, die eine Art künstliche Intelligenzalgorithmus sind, mit denen ein Text erstellt wurde, irreführend sind.
, dass die neuesten Praktiken der künstlichen Intelligenz, Tausende militärischer Ziele zu produzieren, der „nächste dünne Punkt“ .
"Ich mache mir am meisten Sorgen, wenn sie sich entscheiden können, Menschen unabhängig voneinander zu töten", sagte er.
Professor Hinton sagte, dass etwas ähnliches wie die Genfer Verträge (internationale Vereinbarungen, die rechtliche Standards für die menschliche Behandlung festlegen) erforderlich sein könnten, um die militärische Verwendung künstlicher Intelligenz zu regulieren.
"Aber ich glaube nicht, dass es passieren wird, bis sehr schlechte Dinge passieren", fügte er hinzu.
der Westen gefragt wurde, ob es in einem Rennen im Rennstil mit Autokratien wie Russland und China über den militärischen Einsatz künstlicher Intelligenz während des Zweiten Weltkriegs ein Projekt gibt, antwortete Professor Hinton: „[Russischer Präsident Vladir] Putin sagte :
"Glücklicherweise ist der Westen ihnen in der Forschung wahrscheinlich weit voraus. Wir sind wahrscheinlich ein wenig weiter in China. China stellt jedoch mehr Ressourcen auf. Ich denke, es wird eine Rasse in Bezug auf militärische Zwecke sein.".