Sapient heeft hun Hiërarchisch Redeneringsmodel (HRM) uitgebracht en de resultaten zijn behoorlijk interessant. Dit is een model met 27 miljoen parameters dat beter presteert dan Claude 3.5 en o3-mini op redeneringsbenchmarks zoals ARC-AGI-2, complexe Sudoku-puzzels en padvinding in grote doolhoven. Wat dit opmerkelijk maakt: Het efficiëntieaspect is opvallend. HRM is getraind op ongeveer 1000 voorbeelden zonder voortraining of Chain-of-Thought prompting, en toch kan het complexe redeneringstaken aan die doorgaans veel grotere modellen vereisen. Dit maakt het praktisch voor implementatie op edge-apparaten en toegankelijk voor teams zonder enorme rekenbudgetten. De hersen-geïnspireerde architectuur is meer dan alleen terminologie. HRM gebruikt een duale systeemontwerp met twee modules: één voor hoog-niveau abstracte planning en een andere voor snelle gedetailleerde uitvoering, die op verschillende tijdschalen opereert. Dit weerspiegelt hoe menselijke cognitie werkt met zowel snelle intuïtieve verwerking als langzamere weloverwogen redenering. De lage hulpbronnenvereiste verandert de toegankelijkheidsvergelijking. Terwijl de meeste geavanceerde AI aanzienlijke infrastructuur vereist, kan HRM draaien op reguliere hardware, waardoor geavanceerde redeneringscapaciteiten toegankelijk worden voor startups en onderzoekers die zich geen grootschalige rekenkracht kunnen veroorloven. Technische benadering: In plaats van tokens sequentieel te verwerken zoals Transformers, gebruikt HRM hiërarchische terugkerende lussen die opereren in continue ruimte in plaats van discrete tokens. Het model lost taken direct op zonder zijn denkproces te verwoorden via expliciete stap-voor-stap ketens. De parameter efficiëntie komt voort uit het leren van redeneringspatronen die generaliseren vanuit minimale voorbeelden in plaats van het onthouden van enorme hoeveelheden trainingsdata. De training maakt gebruik van enkele stappen gradientbenadering om het geheugengebruik constant te houden, waardoor het praktisch is op standaardhardware. HRM past ook zijn berekeningen aan - het besteedt meer cycli aan moeilijkere problemen en minder aan eenvoudigere, met behulp van versterkend leren om te bepalen wanneer te stoppen met redeneren. Het redeneringsproces is interpreteerbaar, vooral bij visuele taken waar je kunt observeren hoe het problemen stap voor stap oplost. Dit suggereert dat geavanceerd redeneren misschien meer te maken heeft met architectonisch ontwerp dan met schaal, wat zou kunnen verschuiven hoe we denken over het bouwen van capabele AI-systemen.
60,5K