BREAKING: Apple hat gerade bewiesen, dass KI-"Reasoning"-Modelle wie Claude, DeepSeek-R1 und o3-mini überhaupt nicht argumentieren. Sie merken sich Muster einfach sehr gut. Hier ist, was Apple entdeckt hat: (Hinweis: Wir sind nicht so nah an AGI, wie der Hype vermuten lässt)
Apple entdeckte, dass diese Modelle überhaupt nicht argumentieren, sondern stattdessen einen ausgeklügelten Musterabgleich durchführen, der hervorragend funktioniert, bis die Muster zu komplex werden. Dann fallen sie auseinander wie ein Kartenhaus.
Wenn diese Modelle wirklich "logisch" wären, müssten sie mit mehr Rechenleistung und klareren Anweisungen besser werden. Stattdessen stoßen sie gegen harte Wände und fangen an, aufzugeben. Stößt diese Intelligenz oder das Auswendiglernen an ihre Grenzen?
Während KI-Unternehmen ihre Modelle als "denkend" feiern, sagte Apple im Grunde: "Jeder feiert falsches Denken." Die Branche ist auf der Jagd nach Kennzahlen, die die tatsächliche Intelligenz nicht messen.
Was denkst du? Kommt Apple nur damit zurecht, weil sie in den letzten zwei Jahren bei der KI-Entwicklung überholt wurden? Oder hat Apple recht? Kommentieren Sie unten und ich werde auf alle antworten.
14,73M