Google DeepMind 執行 Chief Demis Hassabis und Anthropic CEO Dario Amodei diskutierten am 20.1. beim Weltwirtschaftsforum (WEF) in der Schweiz über die zukünftige Entwicklung der Allgemeinen Künstlichen Intelligenz (AGI). Das gesamte Gespräch war rational und freundlich, doch bei drei Kernfragen zeigten die beiden deutliche Unterschiede.
Was ist Allgemeine Künstliche Intelligenz (AGI)?
AGI bezeichnet eine hypothetische Form der KI, die in der Lage ist, menschliche rationale Aufgaben zu verstehen, zu lernen und auszuführen. Ziel ist es, die kognitiven Fähigkeiten des menschlichen Gehirns zu simulieren. Im Gegensatz zu den meisten bestehenden KI-Systemen, die nur eine einzelne Aufgabe bewältigen können, besitzt AGI eine generalisierte Fähigkeit über verschiedene Bereiche hinweg, kann in neuen Kontexten angewandt werden, und verfügt über menschenähnliches Allgemeinwissen und Weltverständnis, um zu schlussfolgern und Entscheidungen zu treffen.
Die Entwicklung von AGI hängt von interdisziplinärer Forschung in Informatik, Neurowissenschaften und Kognitionspsychologie ab. Derzeit ist echtes AGI noch nicht realisiert, aber die entsprechenden Forschungs- und Entwicklungsarbeiten laufen kontinuierlich.
Wann wird AGI erreicht? Meinungen von DeepMind und Anthropic gehen auseinander
Anthropic-CEO Amodei bekräftigte seinen Zeitplan vom letzten Jahr, wonach bis 2026–2027 eine KI entstehen könnte, die in den meisten Bereichen das „Nobelpreis-Niveau“ menschlicher Leistung erreicht.
„Solange KI bereits Programme schreiben und KI-Forschung betreiben kann, kann sie sich selbst bei der Entwicklung der nächsten Generation von Modellen helfen, was einen selbstverstärkenden Kreislauf der KI-Verbesserung schafft. Sobald dieser Kreislauf reibungslos läuft, wird AGI exponentiell explodieren.“
Er sagte sogar, dass innerhalb von Anthropic fast keine Programmierer mehr selbst Code schreiben, sondern die Modelle Ergebnisse liefern, die dann von Menschen überprüft werden, was zeigt, dass dieser Weg bereits Form annimmt.
Hassabis von Google DeepMind bleibt jedoch vorsichtiger und schätzt die Wahrscheinlichkeit, dass vollständige AGI noch vor Ende dieses Jahrhunderts mit 50 % erreicht wird. Er glaubt, dass Bereiche wie Programmieren und Mathematik, die schnell verifiziert werden können, tatsächlich automatisiert werden können. Naturwissenschaften, kreative Theorien und das Stellen guter Fragen seien jedoch noch immer Schlüsselkompetenzen, die derzeit fehlen. Zudem seien Verifikationszyklen lang und die Reibung im realen Umfeld groß, sodass eine Selbstverstärkung nur schwer schnell umgesetzt werden könne.
Wie schnell wird KI den Arbeitsmarkt beeinflussen? Amodei warnt vor Eile, Hassabis betont Puffer
Bei der Beschäftigungspolitik sind die Meinungen ebenfalls deutlich unterschiedlich. Amodei äußerte öffentlich, dass in den nächsten 1–5 Jahren möglicherweise die Hälfte der Einstiegs-White-Collar-Jobs verschwinden könnten. Er erklärte auf dem Forum, dass die Gesamtdatenlage noch nicht vollständig sei, aber in Programmierung und Engineering bereits erste Auswirkungen sichtbar seien. Die Nachfrage nach Einstiegs- und mittleren Fachkräften werde wahrscheinlich zunächst durch eine „Verlangsamung des Wachstums“ beeinflusst, bevor es zu deutlich sichtbaren Ersatzmaßnahmen komme. Amodeis Kernbefürchtung ist, dass das exponentielle Fortschreiten der KI mit der linearen gesellschaftlichen Anpassung kollidiere.
Hassabis vertritt eine eher traditionelle wirtschaftliche Sicht. Er glaubt, dass kurzfristig das Muster vergangener technologischer Revolutionen wiederholt werde:
„Einige Jobs werden verschwinden, aber gleichzeitig entstehen neue, höherwertige Tätigkeiten. Einstiegsstellen und Praktika könnten am stärksten betroffen sein.“
Er betonte jedoch, dass die heutigen KI-Tools fast „jeder nutzen kann“ und junge Menschen, die schnell damit umgehen lernen, sogar schneller praktische Erfahrung sammeln könnten als durch traditionelle Praktika.
Sollte die KI-Entwicklung verlangsamt werden? Amodei fordert langsameres Vorgehen, Hassabis setzt auf stabile Fortschritte
In Bezug auf Risiken und geopolitische Aspekte sind die Unterschiede noch deutlicher. Amodei äußerte, er wünsche sich, dass die Welt die KI-Entwicklung „langsamer“ angehen sollte, um mehr Zeit für Sicherheits- und Governance-Mechanismen zu gewinnen. Er befürwortete strenge Kontrollen beim Export fortschrittlicher Chips und betonte, dass die strategische Bedeutung von KI mit der von Nuklearwaffen vergleichbar sei und nicht nur nach wirtschaftlichen oder lieferkettenbezogenen Gesichtspunkten bewertet werden dürfe. Er zog sogar einen Vergleich mit Nuklearwaffen-Transaktionen und warnte davor, kurzfristige Gewinne auf Kosten langfristiger Risiken zu erzielen.
Hassabis sieht die Realität pragmatischer. Zwar sei ein „langsamerer“ Ansatz grundsätzlich nicht verkehrt, doch die geopolitischen Spannungen und der Wettbewerb zwischen Unternehmen erschweren es, wirklich zu bremsen. In diesem Kontext sei die realistische Frage:
„Wie kann man im Hochgeschwindigkeitswettlauf der KI-Entwicklung möglichst gleichzeitig Sicherheitsmechanismen etablieren, um Risiken zu begegnen?“
Der Unterschied in der Grundhaltung entscheidet über das Tempo der KI-Entwicklung
Es ist wichtig zu betonen, dass die beiden in vielen grundlegenden Punkten sehr ähnlich sind: Beide sind sich einig, dass KI die Welt grundlegend verändern wird, und beide erkennen die echten Sicherheitsrisiken an. Sie lehnen die apokalyptische Endzeitvision ab, dass alles verloren sei. Doch beim Tempo unterscheiden sie sich deutlich. Diese Differenz spiegelt die zentrale Frage der aktuellen KI-Ära wider: Soll KI auf AGI zusteuern oder das Tempo drosseln?
(KI beginnt, selbstständig zu handeln, erklärt Anthropic: Wie soll die Menschheit bewerten, ob es gut oder schlecht ist?)
Dieser Artikel erschien zuerst bei 链新闻 ABMedia.