Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Trissy
Een laatste bull run
Protocollen en teams moeten stoppen met het betalen van KOLs voor content.
De enige keer dat teams tokens zouden moeten uitdelen, is aan KOLs of communityleden die hoge waarde creëren voor hun project en resultaten teruggeven.
Je product of verhaal moet interessant genoeg zijn zodat invloedrijke mensen automatisch willen kopen en er natuurlijk over willen schrijven.
Dit zijn de mensen aan wie je tokens zou moeten toekennen, niet door 3 betaalde threads te doen voor ambassadeurs die hun volgers botten.
"Wat als ik niemand geïnteresseerd kan krijgen in mijn product om te tweeten?" Blijf dan bouwen, je hebt duidelijk de juiste niche niet gevonden of niet genoeg genetworked als je geen paar kernondersteuners kunt opbouwen.
Mijn boodschap aan de bouwers: bouw iets cools genoeg zodat mensen van nature willen kopen en erover willen schrijven, geef tokens aan de grootste supporters die aansluiten bij jouw visie. Aangezien:
1. Ze zullen veel waarschijnlijker overuren werken en verder gaan om je te helpen slagen, omdat je sterk moreel gedrag hebt getoond (een zeldzaamheid in deze ruimte)
2. Degenen die je betaalt voor een bepaald aantal berichten zullen afhaken zodra hun deal voorbij is en de tokens dumpen.
Ik doe geen betaalde promoties van welke aard dan ook, maar ik ga duidelijk geen gratis tokens voor een project dat ik extreem bullish op ben met geen voorwaarden afslaan. De beste schrijvers kunnen niet gekocht worden en zullen worden afgewezen als je het probeert.
Speel het lange spel en neem geen shortcuts, het zal zich weerspiegelen in je acties in elke verticale van het bedrijf en slimme traders kunnen het van een mijl afstand ruiken.
KOL-campagnes zijn dood, 99,9% van de marketingbureaus zijn een verspilling van geld en zullen -ev voor je bedrijf zijn.
De enige manier om deze markt te penetreren is door crypto-native teamleden te hebben die bereid zijn om hun handen vuil te maken.
3,03K
OpenAI heeft vandaag mijn noordelijke sterthese voor AI bevestigd door hun operatoragent vrij te geven.
Dit was niet alleen mijn leidende these voor $CODEC, maar ook voor elke andere AI-investering die ik heb gedaan, inclusief die van eerder dit jaar tijdens de AI-manie.
Er is veel discussie geweest met Codec met betrekking tot Robotica, terwijl die verticale binnenkort zijn eigen verhaal zal hebben, is de onderliggende reden waarom ik vanaf dag 1 zo optimistisch was over Codec, vanwege hoe de architectuur operatoragents aanstuurt.
Mensen onderschatten nog steeds hoeveel marktaandeel op het spel staat door software te bouwen die autonoom draait, menselijke werknemers overtreft zonder de noodzaak voor constante aansturing of toezicht.
Ik heb veel vergelijkingen gezien met $NUIT. Ten eerste wil ik zeggen dat ik een grote fan ben van wat Nuit aan het bouwen is en wens niets dan succes voor hen. Als je "nuit" in mijn telegram typt, zie je dat ik in april zei dat als ik één munt meerdere maanden moest vasthouden, het Nuit zou zijn vanwege mijn operatorthese.
Nuit was het meest veelbelovende operatorproject op papier, maar na uitgebreid onderzoek ontdekte ik dat hun architectuur de diepgang miste die nodig was om een grote investering te rechtvaardigen of mijn reputatie erachter te zetten.
Met dit in gedachten was ik me al bewust van de architecturale hiaten in bestaande operatoragentteams en actief op zoek naar een project dat deze aanpakte. Kort nadat Codec verscheen (dank aan @0xdetweiler die aandrong dat ik dieper naar hen keek) en dit is het verschil tussen de twee:
$CODEC vs $NUIT
De architectuur van Codec is opgebouwd uit drie lagen; Machine, Systeem en Intelligentie, die infrastructuur, omgevingsinterface en AI-logica scheiden. Elke operatoragent in Codec draait in zijn eigen geïsoleerde VM of container, wat bijna native prestaties en foutisolatie mogelijk maakt. Dit gelaagde ontwerp betekent dat componenten onafhankelijk kunnen schalen of evolueren zonder het systeem te breken.
De architectuur van Nuit volgt een andere weg door meer monolithisch te zijn. Hun stack draait om een gespecialiseerde webbrowseragent die parseren, AI-redenering en actie combineert. Dit betekent dat ze webpagina's diepgaand parseren in gestructureerde gegevens voor de AI om te consumeren en afhankelijk zijn van cloudverwerking voor zware AI-taken.
De aanpak van Codec om een lichtgewicht Vision-Language-Action (VLA) model binnen elke agent in te bedden, betekent dat het volledig lokaal kan draaien. Dit vereist geen constante terugkoppeling naar de cloud voor instructies, waardoor latentie wordt verminderd en afhankelijkheid van uptime en bandbreedte wordt vermeden.
De agent van Nuit verwerkt taken door eerst webpagina's om te zetten in een semantisch formaat en vervolgens een LLM-brein te gebruiken om te bepalen wat te doen, wat in de loop van de tijd verbetert met versterkend leren. Hoewel effectief voor webautomatisering, hangt deze stroom af van zware cloudzijde AI-verwerking en vooraf gedefinieerde paginstructuren. De lokale apparaatintelligentie van Codec betekent dat beslissingen dichter bij de gegevens plaatsvinden, waardoor overhead wordt verminderd en het systeem stabieler wordt voor onverwachte veranderingen (geen fragiele scripts of DOM-aannames).
De operators van Codec volgen een continue perceive–think–act-lus. De machinelayer streamt de omgeving (bijv. een live-app of robotfeed) naar de intelligentielaag via de geoptimaliseerde kanalen van de systeemlaag, waardoor de AI "ogen" krijgt op de huidige staat. Het VLA-model van de agent interpreteert vervolgens de visuals en instructies samen om een actie te bepalen, die de systeemlaag uitvoert via toetsenbord/muisgebeurtenissen of robotbesturing. Deze geïntegreerde lus betekent dat het zich aanpast aan live-evenementen, zelfs als de UI verschuift, je zult de stroom niet onderbreken.
Om dit alles in een eenvoudigere analogie te plaatsen, denk aan de operators van Codec als een zelfvoorzienende werknemer die zich aanpast aan verrassingen op de werkvloer. De agent van Nuit is als een werknemer die moet pauzeren, de situatie aan een supervisor aan de telefoon moet beschrijven en op instructies moet wachten.
Zonder te veel in een technische konijnenhol te duiken, zou dit je een hoog niveau idee moeten geven over waarom ik Codec heb gekozen als mijn primaire inzet op Operators.
Ja, Nuit heeft steun van YC, een sterk team en S-tier github. Hoewel de architectuur van Codec is gebouwd met horizontale schaalbaarheid in gedachten, wat betekent dat je duizenden agents parallel kunt inzetten zonder gedeeld geheugen of uitvoeringscontext tussen agents. Het team van Codec is ook geen gemiddelde ontwikkelaars.
Hun VLA-architectuur opent een veelvoud aan gebruikscases die niet mogelijk waren met eerdere agentmodellen vanwege het zien door pixels, niet door screenshots.
Ik zou verder kunnen gaan, maar ik bewaar dat voor toekomstige berichten.
15,78K
Het ding is, als je echt wilt slagen in deze ruimte, zal iedereen om je heen denken dat er iets mis met je is.
Om echt de 0,001% te zijn, is het leven buiten de loopgraven bijna niet-bestaand.
Geen meisjes, geen hobby's, geen sociale uitjes, geen Netflix of iets dat je wegneemt van de grind.
Het is een soort mindset die extreem moeilijk te relateren is, zelfs voor professionele atleten, omdat er geen reden is waarom je niet 24/7 online kunt zijn.
We zitten vast in onze eigen paradox van vrijheid.
Iedereen wil de magische mogelijkheid om op knoppen te klikken voor geld, totdat het tijd is om nee te zeggen tegen 95% van de geneugten.
Vrienden en familie zullen constant hints geven die suggereren dat je een vorm van een mentale ziekte hebt en zullen de visie nooit echt begrijpen.
Jaloezie stijgt wanneer stukjes succes naar boven komen, als je mensen nauwlettend in de gaten houdt, onthullen ze altijd hun ware bedoelingen, zelfs als ze dat niet bedoelden.
De kleinste hints zullen hen verraden, meestal door spontane emotionele reacties in het moment waar je alleen maar een paar woorden hoeft te horen, meestal is dat alles wat nodig is.
Naarmate je succesvoller wordt, leer dan stil te blijven. Er is geen reden om je vooruitgang te vermelden, hoe geweldig het ook zou zijn om met iedereen te delen en te genieten van de vruchten van je arbeid, het zal alleen maar hebzucht van anderen aantrekken.
De meesten falen hierin omdat ze de "crypto guy" of "investeerder" hun hele persona maken. Zelfs als je 16 uur per dag online bent, moet je nog steeds interesses en ambities buiten deze industrie hebben.
Vrienden zouden met je willen omgaan om de kwaliteit van je aanwezigheid en de stemming die je daar maakt, niet om hoeveel cijfers je op een scherm hebt gemaakt.
Een privé, afgezonderd leven leiden met een kleine kring van kwaliteitsindividuen is de grootste levenshack voor gemoedsrust.
Als je aanwezigheid mensen niets laat voelen zonder over geld te praten, ben je al verloren.
5,73K
Wat is $CODEC
Robotica, Operators, Gaming?
Alles hierboven en meer.
Codec’s vision-language-action (VLA) is een framework-agnostisch model, dat tientallen gebruikscases mogelijk maakt dankzij de unieke mogelijkheid om fouten te visualiseren in vergelijking met LLM's.
In de afgelopen 12 maanden hebben we gezien dat LLM's voornamelijk functioneren als lusmechanismen, aangedreven door vooraf gedefinieerde gegevens en responspatronen.
Omdat ze zijn gebouwd op spraak en tekst, hebben LLM's een beperkte mogelijkheid om zich verder te ontwikkelen dan het venster van linguïstische context waarop ze zijn getraind. Ze kunnen geen sensorische input interpreteren, zoals gezichtsuitdrukkingen of realtime emotionele signalen, omdat hun redenering gebonden is aan taal, niet aan perceptie.
De meeste agenten van vandaag combineren transformer-gebaseerde LLM's met visuele encoders. Ze "zien" de interface via screenshots, interpreteren wat op het scherm staat en genereren reeksen van acties, klikken, toetsaanslagen, scrollen om instructies te volgen en taken te voltooien.
Dit is waarom AI nog niet grote categorieën banen heeft vervangen: LLM's zien screenshots, geen pixels. Ze begrijpen de dynamische visuele semantiek van de omgeving niet, alleen wat leesbaar is door statische frames.
Hun typische workflow is repetitief: maak een screenshot, redeneer over de volgende actie, voer deze uit, maak dan een ander frame en herhaal. Deze perceive-think loop gaat door totdat de taak is voltooid of de agent faalt.
Om echt te generaliseren, moet AI zijn omgeving waarnemen, redeneren over zijn toestand en passend handelen om doelen te bereiken, niet alleen snapshots interpreteren.
We hebben al macro's, RPA-bots en automatiseringsscripts, maar ze zijn zwak en onstabiel. Een kleine pixelverschuiving of lay-outwijziging breekt de flow en vereist handmatige patching. Ze kunnen zich niet aanpassen wanneer er iets verandert in de workflow. Dat is de bottleneck.
Vision-Language-Action (VLA)
Codec’s VLA-agenten draaien op een intuïtieve maar krachtige lus: waarnemen, denken, handelen. In plaats van alleen tekst uit te spugen zoals de meeste LLM's, zien deze agenten hun omgeving, beslissen wat te doen en voeren het dan uit. Het is allemaal verpakt in één uniforme pijplijn, die je kunt visualiseren in drie kernlagen:
Visie
De agent waarneemt eerst zijn omgeving door middel van visie. Voor een desktop Operator-agent betekent dit het vastleggen van een screenshot of visuele input van de huidige staat (bijv. een app-venster of tekstvak). De visiecomponent van het VLA-model interpreteert deze input, leest de tekst op het scherm en herkent interface-elementen of objecten. Ook wel de ogen van de agent genoemd.
Taal
Dan komt het denken. Gegeven de visuele context (en eventuele instructies of doelen), analyseert het model welke actie vereist is. In wezen "denkt" de AI na over de juiste reactie, net zoals een persoon zou doen. De VLA-architectuur voegt visie en taal intern samen, zodat de agent bijvoorbeeld kan begrijpen dat een pop-updialoog een ja/nee-vraag stelt. Het zal dan beslissen over de juiste actie (bijv. klik op "OK") op basis van het doel of de prompt. Dit fungeert als de hersenen van de agent, die waargenomen inputs aan een actie koppelt.
Actie
Ten slotte handelt de agent door een controlecommando naar de omgeving uit te voeren. In plaats van tekst genereert het VLA-model een actie (zoals een muisklik, toetsaanslag of API-aanroep) die direct met het systeem interageert. In het dialoogvoorbeeld zou de agent de klik op de "OK"-knop uitvoeren. Dit sluit de lus: na het handelen kan de agent visueel het resultaat controleren en de perceive–think–act-cyclus voortzetten. Acties zijn de belangrijkste scheiding die hen van chatboxen naar echte operators verandert.
Gebruikscases
Zoals ik al zei, is Codec door de architectuur narratief agnostisch. Net zoals LLM's niet beperkt zijn tot de tekstuele outputs die ze kunnen produceren, zijn VLA's niet beperkt tot de taken die ze kunnen voltooien.
Robotica
In plaats van te vertrouwen op oude scripts of imperfecte automatisering, nemen VLA-agenten visuele input (camera-feed of sensoren) op, geven deze door aan een taalmachine voor planning en geven vervolgens daadwerkelijke controlecommando's uit om te bewegen of met de wereld te interageren.
In wezen ziet de robot wat er voor hem staat, verwerkt instructies zoals "verplaats het Pepsi-blikje naast de sinaasappel," bepaalt waar alles is, hoe te bewegen zonder iets om te stoten, en doet dit zonder hardcoding.
Dit is dezelfde klasse van systeem als Google’s RT-2 of PaLM-E. Grote modellen die visie en taal combineren om echte wereldacties te creëren. CogAct’s VLA-werk is een goed voorbeeld, de robot scant een rommelige tafel, krijgt een natuurlijke prompt en doorloopt een volledige lus: object-ID, padplanning, bewegingsuitvoering.
Operators
In de desktop- en webomgeving functioneren VLA-agenten in wezen als digitale werknemers. Ze "zien" het scherm via een screenshot of live-feed, draaien dat door een redeneelaag die is gebouwd op een taalmachine om zowel de UI als de taakprompt te begrijpen, en voeren vervolgens de acties uit met echte muis- en toetsenbordbediening, zoals een mens zou doen.
Deze volledige lus, waarnemen, denken, handelen, draait continu. Dus de agent reageert niet alleen één keer, hij navigeert actief door de interface, behandelt meerdere stappenflows zonder dat er hardcoded scripts nodig zijn. De architectuur is een mix van OCR-stijl visie om tekst/knoppen/iconen te lezen, semantische redenering om te beslissen wat te doen, en een controlelaag die kan klikken, scrollen, typen, enz.
Waar dit echt interessant wordt, is in foutafhandeling. Deze agenten kunnen reflecteren na acties en opnieuw plannen als iets niet gaat zoals verwacht. In tegenstelling tot RPA-scripts die breken als een UI iets verandert, zoals een knop die van positie verschuift of een label dat wordt hernoemd, kan een VLA-agent zich aanpassen aan de nieuwe lay-out met behulp van visuele aanwijzingen en taalbegrip. Dit maakt het veel veerkrachtiger voor automatisering in de echte wereld waar interfaces voortdurend veranderen.
Iets waar ik persoonlijk mee heb geworsteld bij het coderen van mijn eigen onderzoeksbots via tools zoals playwright.
Gaming
Gaming is een van de duidelijkste gebruikscases waar VLA-agenten kunnen uitblinken, beschouw ze minder als bots en meer als meeslepende AI-spelers. De hele flow is hetzelfde, de agent ziet het spelscherm (frames, menu's, tekstprompts), redeneert over wat hij moet doen en speelt vervolgens met muis-, toetsenbord- of controllerinvoer.
Het is niet gericht op brute kracht, dit is AI die leert hoe te gamen zoals een mens zou doen. Waarneming + denken + controle, allemaal met elkaar verbonden. DeepMind’s SIMA-project heeft dit ontgrendeld door een visie-taalmodel te combineren met een voorspellende laag en dit in games zoals No Man’s Sky en Minecraft te plaatsen. Door alleen het scherm te bekijken en instructies te volgen, kon de agent abstracte taken voltooien zoals "bouw een kampvuur" door de juiste stappen aan elkaar te koppelen, hout te verzamelen, lucifers te vinden en de inventaris te gebruiken. En het was niet beperkt tot slechts één spel. Het droeg die kennis over tussen verschillende omgevingen.
VLA-gamingagenten zijn niet vastgelegd in één regelsysteem. Dezelfde agent kan zich aanpassen aan volledig verschillende mechanics, alleen al op basis van visie en taalgronding. En omdat het is gebouwd op LLM-infrastructuur, kan het uitleggen wat het doet, natuurlijke taal-instructies volgen tijdens het spel, of samenwerken met spelers in realtime.
We zijn niet ver verwijderd van het hebben van AI-teamgenoten die zich aanpassen aan jouw speelstijl en personalisaties, allemaal dankzij Codec.

9,24K
Het succes van ICM is niet afhankelijk van Launchcoin of een enkel platform.
Het is een regimeverandering in hoe we utility-projecten onchain bekijken.
We zijn gegaan van multi-miljard dollar lanceringen naar pumpfun door insane mismatches in prijs en fundamenten.
Nu verschuiven we van vaporware naar projecten met echte gebruikers, volume en omzet.
De meerderheid zal opgeven net op het moment dat we de hoek van echte adoptie omdraaien.
6,6K
Een mismatch in prijs en fundamenten.
$KNET ($8 miljoen) vs $ALCH ($120 miljoen)
@Kingnet_AI
Beheert alles van 2D/3D-modellering tot volledige karakter rigs, animaties en zelfs codegeneratie, rechtstreeks vanuit natuurlijke taal prompts. Geen code UI betekent dat iedereen van idee naar speelbare Web3-game demo kan gaan zonder een regel code aan te raken. Versnelt builds, verlaagt kosten en verlaagt de drempel enorm.
Het is gericht op Web3-native game-ontwikkelaars, indie-bouwers en kleine studio's. Sterke nadruk op assetgeneratie + end-to-end prototyping. Het verandert game-ontwikkeling in een visuele AI-werkstroom, gericht op het sneller produceren van meer content, zelfs als je niet technisch bent.
KNET voedt alles, betalingen, AI-query's en uiteindelijk de marktplaats voor gegenereerde assets. Heeft ook governance hooks. Verbonden met KingNet (grote beursgenoteerde gamingbedrijf) en al aangesloten op Solana, BNB, TON. Ziet vroege tractie + hackathon-overwinningen.
Kingnet AI wordt ondersteund door Kingnet Network Co. Ltd, een beursgenoteerde Chinese gaminggigant opgericht in 2008. Met een staat van dienst van hit-titels zoals Happy Tower, Shushan Legend, MU Miracle en World of Warships Blitz, is het bedrijf een van de meest gerenommeerde incubators in mobiele gaming. Kingnet AI is gebouwd door SmileCobra Studio (Singapore) in exclusieve samenwerking met de Hongkongse tak van Kingnet. Het moederbedrijf heeft een waarde van meer dan $5 miljard met $1 miljard op de balans.
@alchemistAIapp
Een bredere no-code platform dat gebruikersprompts omzet in volledig functionele apps of games.
Het gebruikt een multi-agent AI-engine (meerdere gespecialiseerde modellen) om gebruikersprompts te parseren, code te genereren, visuals te creëren en volledige applicaties in real-time samen te stellen. Richt zich op een brede gebruikersbasis, van hobbyisten tot Web3-bouwers, die snel tools, games of websites willen prototypen.
De UX is zeer gestroomlijnd, bijvoorbeeld je voert "een slangen spel met een bruine houten achtergrond" in, en Alchemist’s Sacred Laboratory-interface organiseert AI-agenten om front-end code, game-logica en zelfs aangepaste graphics te produceren.
ALCH wordt gebruikt in de Arcane Forge-marktplaats en om toegang te krijgen tot de AI-diensten van Alchemist. Gebruikers kunnen ALCH verdienen door nuttige applicaties of games te verkopen, de marktplaats heeft fooi- en ontdekfuncties om populaire apps te belonen.
Alchemist is opgericht in 2024 door een team in Vietnam, geleid door Thien Phung Van (oprichter/CFO), Trong Pham Van (mede-oprichter) en Duc Loc “Louis” Nguyen (CTO). Met achtergronden in software en ondernemerschap (Thien was eerder CEO/CFO bij Vistia), lanceerde het kleine team Alchemist als een ongefundeerde startup.
TLDR; Kingnet AI is gespecialiseerd, met een focus op het automatiseren van end-to-end gamecreatie voor Web3, ondersteund door bewezen gaminginfrastructuur. Alchemist AI is breder van opzet, biedt een snelle, LLM-interface voor het bouwen van unieke tools en games met retail aantrekkingskracht. Kingnet is diepgaand in gaming, terwijl Alchemist breed is over verschillende gebruiksgevallen.
Op basis hiervan is het vrij duidelijk dat Kingnet ernstig ondergewaardeerd is in vergelijking. Kingnet is veel eerder in hun productlevenscyclus en heeft hun UX en interfaces nog niet volledig uitgewerkt, hoewel de kwaliteit van het team, ervaring en ondersteuning aanzienlijk zwaarder weegt dan het platform van Alchemist terwijl het 15x lager is in marktkapitalisatie.
27,79K
Mensen blijven me feliciteren met $CODEC, waarvoor?
Tot nu toe hebben we zelfs niet gezien:
- Token nut
- Incentives
- Roadmap
- Demos
- Nieuwe website
- Marketplace
- Toekomstige partnerschappen
- Gebruikscases
+ meer
Wat we tot nu toe hebben gezien, zijn een paar partnerschappen en de release van hun resource aggregator (Fabric).
Ik heb geen meerdere threads geschreven, geen meerdere telegramberichten gepost, niet bijna dagelijks met het team gesproken, niet geadviseerd over de marketing, branding, positionering om een mcap van 6 miljoen te vieren.
Een chatgpt-wrapper van een anime-meisje met roze haar was genoeg voor een mcap van 6 miljoen tijdens de AI-periode.
Projecten gingen naar 9 cijfers van de ene op de andere dag voor het winnen van een hackathon of het in de schijnwerpers komen van grote KOLs/onderzoekers.
Iedereen is vergeten wat er gebeurt als de lichten aangaan en mensen weer geloven.
De reden dat ik deze afgelopen week zo bullish ben geworden voor onchain is dat het geloof op een historisch laag niveau is. De afgelopen maand heeft enkele van de grootste vooruitgangen opgeleverd die we in deze industrie hebben gemaakt, samen met een positieve macro-achtergrond.
Vergeet dat gevoel van geld dat uit de lucht valt niet? Het kan niet lang duren voordat we het weer kunnen ervaren.

9,4K
Boven
Positie
Favorieten
Populair op onchain
Populair op X
Recente topfinanciering
Belangrijkste