Wir haben noch keine KI, die sich selbst verbessert, und wenn wir das tun, wird es ein Wendepunkt sein. Mit mehr Weisheit im Vergleich zu den Tagen von GPT-4 ist es offensichtlich, dass es kein "schneller Start" sein wird, sondern eher extrem allmählich über viele Jahre, wahrscheinlich ein Jahrzehnt. Das erste, was man wissen sollte, ist, dass Selbstverbesserung, d.h. Modelle, die sich selbst trainieren, nicht binär ist. Betrachten Sie das Szenario, dass GPT-5 GPT-6 trainiert, was unglaublich wäre. Würde GPT-5 plötzlich von der Unfähigkeit, GPT-6 überhaupt zu trainieren, zu einem extrem kompetenten Training übergehen? Definitiv nicht. Die ersten Trainingsläufe von GPT-6 wären wahrscheinlich extrem ineffizient in Bezug auf Zeit und Rechenleistung im Vergleich zu menschlichen Forschern. Und erst nach vielen Versuchen wäre GPT-5 tatsächlich in der Lage, GPT-6 besser als Menschen zu trainieren. Zweitens, selbst wenn ein Modell sich selbst trainieren könnte, würde es nicht plötzlich in allen Bereichen besser werden. Es gibt einen Gradienten der Schwierigkeit, wie schwer es ist, sich in verschiedenen Bereichen zu verbessern. Zum Beispiel funktioniert Selbstverbesserung vielleicht zunächst nur in Bereichen, die wir bereits wissen, wie man sie nach dem Training leicht behebt, wie grundlegende Halluzinationen oder Stil. Als nächstes kämen Mathematik und Programmierung, was mehr Arbeit erfordert, aber etablierte Methoden zur Verbesserung von Modellen hat. Und dann, am extremen Ende, kann man sich vorstellen, dass es einige Aufgaben gibt, die sehr schwer für die Selbstverbesserung sind. Zum Beispiel die Fähigkeit, Tlingit zu sprechen, eine amerikanische Ureinwohner-Sprache, die von etwa 500 Menschen gesprochen wird. Es wird sehr schwierig für das Modell sein, sich im Sprechen von Tlingit zu verbessern, da wir noch keine Möglichkeiten haben, ressourcenarme Sprachen wie diese zu lösen, außer mehr Daten zu sammeln, was Zeit in Anspruch nehmen würde. Daher wird aufgrund des Gradienten der Schwierigkeit der Selbstverbesserung nicht alles auf einmal geschehen. Schließlich, vielleicht ist das umstritten, aber letztendlich wird der Fortschritt in der Wissenschaft durch reale Experimente behindert. Einige glauben vielleicht, dass das Lesen aller Biologie-Papiere uns das Heilmittel gegen Krebs verraten würde, oder dass das Lesen aller ML-Papiere und das Beherrschen aller Mathematik es Ihnen ermöglichen würde, GPT-10 perfekt zu trainieren. Wenn dem so wäre, dann wären die Menschen, die die meisten Papiere lesen und die meiste Theorie studieren, die besten KI-Forscher. Aber was wirklich passiert ist, ist, dass KI (und viele andere Bereiche) von rücksichtslos empirischen Forschern dominiert wurde, was widerspiegelt, wie viel Fortschritt auf realen Experimenten basiert, anstatt auf roher Intelligenz. Mein Punkt ist also, dass, obwohl ein superintelligenter Agent 2x oder sogar 5x bessere Experimente als unsere besten menschlichen Forscher entwerfen könnte, er am Ende des Tages immer noch auf die Durchführung der Experimente warten muss, was eine Beschleunigung, aber keinen schnellen Start darstellen würde. Zusammenfassend gibt es viele Engpässe für den Fortschritt, nicht nur rohe Intelligenz oder ein Selbstverbesserungssystem. KI wird viele Bereiche lösen, aber jeder Bereich hat seine eigene Fortschrittsrate. Und selbst die höchste Intelligenz wird immer noch Experimente in der realen Welt erfordern. Es wird also eine Beschleunigung und kein schneller Start sein, danke, dass Sie meinen Ausbruch gelesen haben.
339,89K