Bis vor kurzem waren neuronale Netze eine Kuriosität, die eine enorme Computerleistung erforderte, um einfache Aufgaben schlechter als andere Ansätze auszuführen
„In den letzten 50 Jahren habe ich versucht, Computermodelle zu entwickeln, die Dinge ein bisschen so lernen können, wie das Gehirn es lernt, um besser zu verstehen, wie das Gehirn Dinge lernt", sagt er mir, als wir uns treffen das Haus seiner Schwester im Norden Londons, wo er sich aufhält (normalerweise wohnt er in Kanada).
Das erste, was Geoffrey Hinton sagt, wenn wir anfangen zu reden, und das letzte, was er wiederholt, bevor ich meinen Rekorder ausschalte, ist, dass er Google, seinen Arbeitgeber des letzten Jahrzehnts, im guten Einvernehmen verlassen hat. Ein weiteres Beispiel wäre das „Jahr 2000"-Problem. „Ich habe keine Einwände gegen das, was Google getan hat oder tut, aber offensichtlich würden die Medien mich gerne als ‚einen verärgerten Google-Angestellten' hinstellen. Bis vor kurzem waren neuronale Netze eine Kuriosität, die eine enorme Computerleistung erforderte, um einfache Aufgaben schlechter als andere Ansätze auszuführen. Das heißt, wir lernen, indem wir andere nachahmen. Ich möchte solche Dinge nicht ausschließen – ich denke, Leute, die sich in dieser Situation souverän verhalten, sind verrückt." Nichtsdestotrotz, sagt er, ist die richtige Art, über die Wahrscheinlichkeit einer Katastrophe nachzudenken, näher an einem einfachen Münzwurf, als uns vielleicht lieb ist.
Diese Entwicklung, so argumentiert er, ist eine unvermeidliche Folge der Technologie im Kapitalismus. Und es wird aus dem Internet lernen, es wird jedes einzelne Buch gelesen haben, das jemals darüber geschrieben wurde, wie man Menschen manipuliert, und es auch in der Praxis gesehen haben."
Ich bin erschüttert von der Erkenntnis, dass digitale Intelligenz wahrscheinlich viel besser ist als biologische IntelligenzEr glaubt jetzt, dass die Crunch-Zeit in den nächsten fünf bis 20 Jahren kommen wird, sagt er. „Ich habe derzeit große Unsicherheit. Tatsächlich ist Google führend in dieser Forschung, die wichtigsten technischen Durchbrüche, die dieser Welle zugrunde liegen, kamen von Google, und es hat beschlossen, sie nicht direkt der Öffentlichkeit zugänglich zu machen. Ich frage ihn, ob er Grund zur Hoffnung hat. Ich bin nur jemand, dem plötzlich bewusst wird, dass die Gefahr besteht, dass etwas wirklich Schlimmes passiert. Also beschloss ich, dass es an der Zeit war, mich von der eigentlichen Arbeit zurückzuziehen." Aber anstatt in einer gut bezahlten zeremoniellen Position zu bleiben, hielt er es für wichtig, die Verbindungen vollständig abzubrechen, denn „wenn Sie bei einem Unternehmen angestellt sind, gibt es unvermeidliche Selbstzensur. „Ziemlich oft scheinen Menschen aus Situationen, die hoffnungslos erschienen, herauszukommen und in Ordnung zu sein. Aber in den letzten zehn Jahren, als die Verfügbarkeit von Rechenleistung und riesigen Datensätzen explodiert ist, ist der von Hinton entwickelte Ansatz zum Zentrum einer technologischen Revolution geworden.
„Als ich versuchte, darüber nachzudenken, wie das Gehirn den Algorithmus hinter all diesen Modellen implementieren könnte, kam ich zu dem Schluss, dass es das vielleicht nicht kann – und vielleicht sind diese großen Modelle tatsächlich viel besser als das Gehirn", sagt er.
Eine „biologische Intelligenz" wie unsere habe Vorteile, sagt er. Und viele von ihnen sind es, aber ich denke, darauf müssen wir uns konzentrieren."
Seit er sich am Montag zum ersten Mal zu Wort gemeldet hat, hat er alle zwei Minuten Anfragen von den Medien der Welt abgelehnt (er sagte, er habe einem Treffen mit dem Guardian zugestimmt, weil er seitdem seit 60 Jahren Leser ist er wechselte in den 60er Jahren vom Daily Worker). Aber was ist, wenn es passiert, weil wir nicht darüber gesprochen haben? Sich nur auf den kurzfristigen Einsatz von KI zu konzentrieren, um die ethischen und gerechten Probleme zu lösen, die in der heutigen Technologie vorhanden sind, wird die Überlebenschancen der Menschheit insgesamt nicht unbedingt verbessern, sagt er.
Ich bin nur jemand, dem plötzlich bewusst wird, dass die Gefahr besteht, dass etwas wirklich Schlimmes passiertNicht, dass er wüsste, was wird. Google war besorgt über all die Dinge, über die wir uns Sorgen machen, es hat einen guten Ruf und will es nicht vermasseln. Die schlechte Nachricht ist, dass es nichts für uns ist."
Als er akzeptierte, dass wir Intelligenzen mit dem Potenzial aufbauen, die Menschheit zu überdenken, folgten umso alarmierendere Schlussfolgerungen. Einer war einfach sein Alter: Mit 75 Jahren ist er „in den technischen Sachen nicht mehr so gut wie ich früher, und es ist sehr ärgerlich, nicht so gut zu sein wie früher. Etwas über mich gebeugt – er spricht lieber im Stehen, sagt er – erinnert der Ton auf unheimliche Weise an ein Uni-Tutorium, als der 75-jährige Ex-Professor seine Forschungsgeschichte erzählt und wie sie ihn unweigerlich zu dem Schluss geführt hat wir können dem Untergang geweiht sein.
Bei dem Versuch, die Funktionsweise des menschlichen Gehirns zu modellieren, fand sich Hinton als einer der führenden Köpfe auf dem Gebiet der „neuronalen Vernetzung" wieder, einem Ansatz zum Aufbau von Computersystemen, die aus Daten und Erfahrungen lernen können. So ist es nicht."
Es ist eine wichtige Klarstellung, weil man leicht auf das Gegenteil schließen kann. Es ist möglich, dass große Sprachmodelle", die Technologie, die Systemen wie ChatGPT zugrunde liegt, „nachdem sie alle Dokumente im Web verbraucht haben, nicht viel weiter gehen können, wenn sie nicht auch auf alle unsere privaten Daten zugreifen können. „Ich habe derzeit drei Leute, die mit mir sprechen wollen – Bernie Sanders, Chuck Schumer und Elon Musk. „Aber ich würde ein oder zwei Jahre nicht ausschließen. Ich schiebe sie alle auf, bis ich etwas mehr Zeit habe. Denn wenn die meisten Menschen ihren ehemaligen Arbeitgeber ruhig als eines von einer kleinen Gruppe von Unternehmen beschreiben, die einen Kurs einschlagen, der mit alarmierender Wahrscheinlichkeit die Menschheit selbst auslöschen wird, tun sie dies mit einem Gefühl der Schande. „Ich dachte, es würde irgendwann passieren, aber wir hatten viel Zeit: 30 bis 50 Jahre. Aber um Hinton zuzuhören: Wir sind dabei, einer existenziellen Bedrohung der Zivilisation entgegenzuwandeln, ohne dass irgendjemand böswillig handelt.
Bekannt als einer von drei „Godfathers of AI", gewann Hinton 2018 den ACM Turing Award – den Nobelpreis der Informatiker für seine Arbeit zum „Deep Learning". Wie Atomwaffen: Der Kalte Krieg mit diesen mächtigen Waffen schien eine sehr schlechte Situation zu sein. Ich möchte, dass die besten Köpfe, die sich mit KI auskennen – nicht nur Philosophen, Politiker und Politikfreaks, sondern Menschen, die die Details dessen, was passiert, wirklich verstehen – gründlich über diese Themen nachdenken. Es läuft mit geringer Leistung, „nur 30 Watt, auch wenn man nachdenkt", und „jedes Gehirn ist ein bisschen anders". Und 100 Jahre würde ich immer noch nicht ausschließen – nur ist meine Zuversicht, dass dies noch lange nicht kommen würde, durch die Erkenntnis erschüttert, dass biologische Intelligenz und digitale Intelligenz sehr unterschiedlich sind und digitale Intelligenz wahrscheinlich viel besser ist. Es war nichts wie dieses existenzielle Risiko, aber die Tatsache, dass die Leute es im Voraus sahen und viel Aufhebens darum machten, bedeutete, dass die Leute überreagierten, was viel besser war als unterzureagieren.
„Der Grund, warum es nie ein Problem war, ist, dass die Leute es tatsächlich geklärt haben, bevor es passiert ist."
. „Wir befinden uns in einer Zeit großer Unsicherheit", sagt Hinton, „und es könnte gut sein, dass man über die existenziellen Risiken am besten gar nicht spricht, um nicht von diesen anderen Dingen abzulenken [such as issues of AI ethics and justice]. „Es ist nicht so, dass Google schlecht gewesen wäre. Ein von mehr als 1.200 Google-Mitarbeitern unterzeichneter Brief sprach sich gegen die Entlassung aus und sagte, er „kündigt eine Gefahr für Menschen an, die für ethische und gerechte KI bei Google arbeiten".Aber es gibt eine Spaltung innerhalb der KI-Fraktion, bei der die Risiken dringender sind. Und ich denke, das war eine faire, verantwortungsvolle Entscheidung. „Ich bin kein Politiker. Das glaube ich nicht mehr. Und ich kenne keine Beispiele dafür, dass intelligentere Dinge von weniger intelligenten Dingen gesteuert werden – zumindest nicht, seit Biden gewählt wurde.
„Man muss sich etwas vorstellen, das intelligenter ist als wir, genauso wie wir intelligenter sind als ein Frosch. "
Es besteht immer noch die Hoffnung, dass sich das Potenzial von KI als überbewertet erweisen könnte. Die gute Nachricht ist also, dass wir das Geheimnis der Unsterblichkeit entdeckt haben. Oh, und das Weiße Haus. Digitale Intelligenzen haben dagegen einen enormen Vorteil: Es ist trivial, Informationen zwischen mehreren Kopien auszutauschen. Ich dachte, wenn ich in Rente gehe, hätte ich viel Zeit für mich."
Während unseres gesamten Gesprächs steht sein leicht jovialer Ton etwas im Widerspruch zu der Botschaft von Untergang und Zerstörung, die er übermittelt. Wenn ich bei Google angestellt bin, muss ich ständig darüber nachdenken: "Wie wird sich das auf das Geschäft von Google auswirken?" Und der andere Grund ist, dass ich eigentlich viele gute Dinge über Google sagen möchte, die glaubwürdiger sind, wenn ich nicht bei Google bin."
Seit Hinton über seine Ängste an die Öffentlichkeit gegangen ist, ist er unter Beschuss geraten, weil er einigen seiner Kollegen nicht gefolgt ist und früher gekündigt hat. Aber dieser Ansatz ist in Bezug auf die Informationsübertragung „sehr ineffizient". Aber das Problem ist, dass in einem kapitalistischen System, wenn Ihr Konkurrent das tut, Sie nichts anderes tun können, als dasselbe zu tun."
Er habe sich aus drei Gründen entschieden, seinen Job bei Google zu kündigen. „Sie zahlen enorme Energiekosten, aber wenn einer von ihnen etwas lernt, wissen es alle, und Sie können problemlos mehr Kopien speichern. Im Jahr 2020 wurde Timnit Gebru, der technische Co-Leiter des ethischen KI-Teams von Google, vom Unternehmen entlassen, nachdem ein Streit über ein Forschungspapier zu einem weitreichenden Konflikt über die Diversitäts- und Inklusionsrichtlinien des Unternehmens geführt hatte „Wir haben das Geheimnis der Unsterblichkeit entdeckt. Die schlechte Nachricht ist, dass es nichts für uns ist: Warum der Pate der KI um die Menschheit fürchtet | Künstliche Intelligenz (KI)
Kommentare
Kommentar veröffentlichen