Googles DeepMind sagt, dass es kurz davor steht, KI auf menschlicher Ebene zu erreichen

Googles DeepMind hat seit seiner Gründung im Jahr 2010 Pionierarbeit in der künstlichen Intelligenz geleistet, mit dem ultimativen Ziel, eine KI auf menschlicher Ebene zu schaffen (Alan Warburton / Better Images of AI / CC)

Menschliche Ebene künstliche Intelligenz laut einem leitenden Forscher der DeepMind-KI-Abteilung von Google kurz davor steht, endlich erreicht zu werden.

Dr. Nando de Freitas sagte, „das Spiel ist vorbei“ in der jahrzehntelangen Suche nach der Verwirklichung der künstlichen allgemeinen Intelligenz (AGI) danach DeepMind stellte ein KI-System vor, das in der Lage ist, eine Vielzahl komplexer Aufgaben zu erledigen, vom Stapeln von Blöcken bis zum Schreiben von Gedichten.

Beschrieben als “Generalist-Agent”, DeepMind’s neue Gato-KI muss nur vergrößert werden, um eine KI zu schaffen, die mit der menschlichen Intelligenz konkurrieren kann, sagte Dr. de Freitas.

Antwort auf einen geschriebenen Meinungsartikel Das nächste Web der behauptete „Menschen werden niemals AGI erreichen“, schrieb der Forschungsleiter von DeepMind, dass seiner Meinung nach ein solches Ergebnis unvermeidlich sei.

„Jetzt dreht sich alles um die Größe! Das Spiel ist vorbei! ” er schrieb auf Twitter.

“Es geht darum, diese Modelle größer, sicherer, recheneffizienter, schneller bei der Abtastung, intelligenterem Speicher, mehr Modalitäten, innovativen Daten, online / offline zu machen … Die Lösung dieser Herausforderungen ist das, was AGI liefern wird.”

Auf die Frage des Forschers für maschinelles Lernen, Alex Dimikas, wie weit seiner Meinung nach die Gato-KI davon entfernt sei, einen echten Turing-Test zu bestehen – ein Maß für Computerintelligenz, bei dem ein Mensch nicht in der Lage sein muss, eine Maschine von einem anderen Menschen zu unterscheiden – antwortete Dr. de Freitas: „Weit still. “

Führende KI-Forscher haben davor gewarnt, dass das Aufkommen von AGI zu einer existenziellen Katastrophe für die Menschheit führen könnte, wobei Professor Nick Bostrom von der Universität Oxford spekuliert, dass ein „superintelligentes“ System, das die biologische Intelligenz übertrifft, den Menschen als dominierende Lebensform auf der Erde ersetzen könnte.

Eine der Hauptsorgen bei der Einführung eines AGI-Systems, das in der Lage ist, sich selbst zu lehren und exponentiell intelligenter als Menschen zu werden, ist, dass es unmöglich wäre, abzuschalten.

Dr. de Freitas stellte weitere Fragen von KI-Forschern auf Twitter und sagte, dass „Sicherheit bei der Entwicklung von AGI von größter Bedeutung ist“.

„Das ist wahrscheinlich die größte Herausforderung, vor der wir stehen“, schrieb er. „Jeder sollte darüber nachdenken. Mangelnde Vielfalt macht mir auch große Sorgen.“

Google, das 2014 das in London ansässige Unternehmen DeepMind übernommen hat, arbeitet bereits an einem „großen roten Knopf“, um die mit einer Intelligenzexplosion verbundenen Risiken zu mindern.

In einem Papier aus dem Jahr 2016 mit dem Titel „Safely Interruptible Agents“ skizzierten DeepMind-Forscher einen Rahmen, um zu verhindern, dass fortschrittliche künstliche Intelligenz Abschaltbefehle ignoriert.

Sichere Unterbrechbarkeit kann nützlich sein, um die Kontrolle über einen Roboter zu übernehmen, der sich schlecht benimmt, und kann zu irreversiblen Folgen führen “, heißt es in dem Papier.

Wenn ein solcher Agent in Echtzeit unter menschlicher Aufsicht operiert, kann es hin und wieder erforderlich sein, dass ein menschlicher Operator den großen roten Knopf drückt, um zu verhindern, dass der Agent eine schädliche Aktionsfolge fortsetzt – schädlich entweder für den Agenten oder für ihn die Umgebung – und den Agenten in eine sicherere Situation führen.“

Leave a Comment