Künstliche Superintelligenz fühlt sich wie eine Technologie an, die wir in 200-300 Jahren freischalten sollen. Als Spezies sind wir absolut nicht bereit dafür. Das fühlt sich an, als würde man einem mittelalterlichen Bauern Zugang zu waffenfähigem Uran geben. Die Mathematik und Algorithmen hinter dem Reinforcement Learning sind nicht unglaublich schwer zu verstehen, was bedeutet, dass jede Zivilisation, die Matrizenalgebra, Wahrscheinlichkeitstheorie und Analysis entdeckt hat, dies mit Rechenleistung erreichen könnte. Was wir gelernt haben, ist, dass das, was wir Intelligenz nennen, substratunabhängig ist und mit Rechenleistung dramatisch skaliert werden kann. Die oberen Grenzen davon weiß absolut niemand. Ich denke, George Hotz war auf dem richtigen Weg, als er sagte, dass es ein ganz neues Feld der wissenschaftlichen Untersuchung braucht, das Vorhersagekraft über die Fähigkeiten von Modellen und Vorhersagen über mögliche obere Grenzen dessen, was wir Intelligenz nennen, hat, falls sie überhaupt existieren. ASI wird alle Vorstellungen, die wir von der aktuellen modernen Gesellschaft haben, zerstören. Unsere Welt im Jahr 2100 wird uns ansehen, als wären wir primitive Menschen. Exponentielle Kurven bedeuten, dass der Fortschritt jedes Jahr komprimiert wird und man in einem Jahr das erreicht, wofür man 10-100 Jahre gebraucht hätte. Das menschliche Gehirn ist nicht dafür gebaut, mit dieser Umgebung umzugehen.
5,52K