Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Trissy
En sista tjurrusning
Protokoll och team bör sluta betala KOL:er för innehåll.
Den enda gången team bör dela ut tokens är till KOL:er eller communitymedlemmar som skapar högt värde för sitt projekt och ger resultat.
Din produkt eller berättelse ska vara tillräckligt intressant för att personer med inflytande automatiskt ska vilja köpa och skriva om den på ett naturligt sätt.
Det är dessa du bör allokera tokens till, inte göra 3 betalda trådar för ambassadörer som botar sina följare.
"Vad händer om jag inte kan få någon som är intresserad av min produkt att twittra?" Fortsätt sedan att bygga, du har uppenbarligen inte hittat rätt nisch eller nätverkat tillräckligt om du inte kan bygga några kärnsupportrar.
Mitt budskap till byggarna: bygg något coolt nog att folk naturligtvis vill köpa och skriva om, ge tokens till de största supportrarna som stämmer överens med din vision. Sedan:
1. De kommer att vara mycket mer benägna att arbeta övertid och göra allt för att hjälpa dig att lyckas eftersom du visade ett starkt moraliskt beteende (en sällsynthet i det här utrymmet)
2. De du betalar för ett visst antal inlägg kommer att flagna så snart deras affär är uppe och dumpa tokens
Jag gör inte betalda kampanjer av något slag, men jag kommer uppenbarligen inte att tacka nej till gratis tokens för ett projekt som jag är extremt hausse på utan några förbehåll. De bästa författarna kan inte köpas och kommer att avvisas om du försöker.
Spela det långa spelet och ta inga genvägar, det kommer att återspeglas i dina handlingar i varje vertikal av verksamheten och smarta handlare kan känna lukten av det på en mils avstånd.
KOL-kampanjer är döda, 99,9 % av marknadsföringsbyråerna är ett slöseri med pengar och kommer att vara det för ditt företag.
Det enda sättet att penetrera denna marknad är att ha teammedlemmar med krypto som är villiga att smutsa ner händerna.
3,03K
OpenAI bekräftade precis min Northern Star tes för AI idag genom att släppa sin operatörsagent.
Detta var inte bara min vägledande tes för $CODEC, utan alla andra AI-investeringar jag gjorde, inklusive de från tidigare i år under AI-manin.
Det har varit en hel del diskussioner med Codec när det gäller robotik, även om den vertikalen kommer att ha sin egen berättelse mycket snart, är den underliggande anledningen till att jag var så hausse på Codec från dag 1 på grund av hur dess arkitektur driver operatörsagenter.
Människor underskattar fortfarande hur mycket marknadsandelar som står på spel genom att bygga programvara som körs autonomt och överträffar mänskliga arbetare utan behov av ständiga uppmaningar eller tillsyn.
Jag har sett många jämförelser med $NUIT. Först och främst vill jag säga att jag är ett stort av vad Nuit bygger och önskar inget annat än deras framgång. Om du skriver "nuit" i mitt telegram kommer du att se att jag redan i april sa att om jag var tvungen att hålla ett mynt i flera månader skulle det ha varit Nuit på grund av min operatörstes.
Nuit var det mest lovande operatörsprojektet på pappret, men efter omfattande efterforskningar fann jag att deras arkitektur saknade det djup som behövdes för att motivera en stor investering eller sätta mitt rykte bakom den.
Med detta i åtanke var jag redan medveten om de arkitektoniska luckorna i de befintliga operatörsagentteamen och letade aktivt efter ett projekt som löste dem. Kort därefter dök Codec upp (tack vare att @0xdetweiler insisterade på att jag skulle titta djupare in i dem) och det här är skillnaden mellan de två:
$CODEC jämfört med $NUIT
Codecs arkitektur är uppbyggd i tre lager; Maskin, system och intelligens, som separerar infrastruktur, miljögränssnitt och AI-logik. Varje operatörsagent i Codec körs i en egen isolerad virtuell dator eller container, vilket möjliggör nästan inbyggd prestanda och felisolering. Den här skiktade designen innebär att komponenter kan skalas eller utvecklas oberoende av varandra utan att systemet bryts.
Nuits arkitektur tar en annan väg genom att vara mer monolitisk. Deras stack kretsar kring en specialiserad webbläsaragent som kombinerar parsning, AI-resonemang och åtgärd. Det innebär att de analyserar webbsidor på djupet till strukturerad data som AI kan konsumera och förlitar sig på molnbearbetning för tunga AI-uppgifter.
Codecs metod att bädda in en enkel VLA-modell (Vision-Language-Action) i varje agent innebär att den kan köras helt lokalt. Vilket inte kräver att du ständigt pingar tillbaka till molnet för instruktioner, vilket minskar latensen och undviker beroende av drifttid och bandbredd.
Nuits agent bearbetar uppgifter genom att först konvertera webbsidor till ett semantiskt format och sedan använda en LLM-hjärna för att ta reda på vad de ska göra, vilket förbättras med tiden med förstärkningsinlärning. Även om det här flödet är effektivt för webbautomatisering är det beroende av tung AI-bearbetning på molnsidan och fördefinierade sidstrukturer. Codecs lokala enhetsintelligens innebär att beslut fattas närmare data, vilket minskar omkostnaderna och gör systemet mer stabilt för oväntade förändringar (inga bräckliga skript eller DOM-antaganden).
Codecs operatörer följer en kontinuerlig loop, uppfattning, tänk och agera. Maskinlagret strömmar miljön (t.ex. en live-app eller robotflöde) till intelligenslagret via systemlagrets optimerade kanaler, vilket ger AI:n "ögon" på det aktuella tillståndet. Agentens VLA-modell tolkar sedan det visuella objektet och instruktionerna tillsammans för att besluta om en åtgärd, som systemlagret utför genom tangentbords-/mushändelser eller robotkontroll. Den här integrerade loopen innebär att den anpassar sig till livehändelser, även om användargränssnittet ändras kommer du inte att bryta flödet.
För att sätta allt detta i en enklare analogi, tänk på Codecs operatörer som en självförsörjande anställd som anpassar sig till överraskningar på jobbet. Nuits agent är som en anställd som behöver pausa, beskriva situationen för en chef över telefon och vänta på instruktioner.
Utan att gå ner för mycket av ett tekniskt kaninhål, bör detta ge dig en hög uppfattning om varför jag valde Codec som mitt primära spel på operatörer.
Ja, Nuit har stöd från YC, ett staplat team och S tier github. Även om Codecs arkitektur har byggts med horisontell skalning i åtanke, vilket innebär att du kan distribuera tusentals agenter parallellt utan delat minne eller körningskontext mellan agenter. Codecs team är inte heller vanliga utvecklare.
Deras VLA-arkitektur öppnar en mängd användningsfall som inte var möjliga med tidigare agentmodeller på grund av att de ser genom pixlar, inte skärmdumpar.
Jag skulle kunna fortsätta men jag sparar det till framtida inlägg.
15,77K
Saken är den att om du verkligen vill lyckas i det här utrymmet kommer alla runt omkring dig att tro att det är något fel på dig.
För att verkligen vara 0,001% är livet utanför skyttegravarna nästan obefintligt.
Inga tjejer, inga hobbies, inga sociala utflykter, inget netflix eller något som tar dig bort från slitet.
Det är en typ av tankesätt som är extremt orelaterat till även professionella idrottare eftersom det inte finns någon anledning till att du inte kan vara online 24/7.
Vi har fastnat i vår egen paradox av frihet.
Alla vill ha den magiska förmågan att klicka på knappar för pengar, tills det är dags att säga nej till 95% av nöjena.
Vänner och familj kommer ständigt att ge antydningar om att du har en form av psykisk sjukdom och kommer aldrig att se visionen på riktigt.
Avundsjukan stiger när bitar av framgång smyger sig igenom, om du tittar på människor tillräckligt noga avslöjar de alltid sina verkliga avsikter, även om de inte menade det.
De minsta ledtrådarna kommer att avslöja dem, vanligtvis från spontana känslomässiga reaktioner i stunden där du bara behöver höra några få ord glida ut, för det mesta är det allt som krävs.
När du blir mer framgångsrik, lär dig att vara tyst. Det finns ingen anledning att nämna dina framsteg, hur bra det än skulle vara att dela med alla och njuta av frukterna av ditt arbete, kommer det bara att locka till sig girighet från andra.
De flesta misslyckas med detta eftersom de gör det till hela sin personlighet att vara "kryptokillen" eller "investeraren". Även om du är online 16 timmar om dagen måste du fortfarande ha intressen och ambitioner utanför den här branschen.
Vänner ska vilja umgås med dig på grund av kvaliteten på din närvaro och den humörskillnad du gör när du är där, inte hur många nummer du har gjort på en skärm.
Att leva ett privat, avskilt liv med en liten krets av kvalitetsindivider är det bästa livshacket för sinnesfrid.
Om din närvaro inte får människor att känna något utan att prata om pengar har du redan förlorat.
5,73K
Vad är $CODEC
Robotik, operatörer, spel?
Allt ovanstående och mer.
Codecs vision-language-action (VLA) är en ramverksagnostisk modell som möjliggör dussintals användningsfall på grund av dess unika förmåga att visualisera fel i jämförelse med LLM:s.
Under de senaste 12 månaderna har vi sett att LLM:er främst fungerar som loopmekanismer, drivna av fördefinierade data och svarsmönster.
Eftersom de bygger på tal och text har LLM:er en begränsad förmåga att utvecklas bortom det språkliga sammanhang de är utbildade på. De kan inte tolka sensoriska intryck, som ansiktsuttryck eller känslomässiga signaler i realtid, eftersom deras resonemang är bundet till språket, inte uppfattningen.
De flesta agenter kombinerar idag transformatorbaserade LLM:er med visuella kodare. De "ser" gränssnittet genom skärmdumpar, tolkar vad som visas på skärmen och genererar sekvenser av åtgärder, klick, tangenttryckningar, rullningar för att följa instruktioner och slutföra uppgifter.
Det är därför AI inte har ersatt stora kategorier av jobb ännu: LLM:er ser skärmdumpar, inte pixlar. De förstår inte den dynamiska visuella semantiken i miljön, bara det som kan läsas genom statiska ramar.
Deras typiska arbetsflöde är repetitivt: ta en skärmdump, resonera om nästa åtgärd, utför den och ta sedan en annan bildruta och upprepa. Den här loopen av uppfattande-tänkande fortsätter tills uppgiften har slutförts eller agenten misslyckas.
För att verkligen generalisera måste AI uppfatta sin omgivning, resonera om sitt tillstånd och agera på lämpligt sätt för att uppnå mål, inte bara tolka ögonblicksbilder.
Vi har redan makron, RPA-botar och automatiseringsskript, men de är svaga och instabila. En liten pixelförskjutning eller layoutändring bryter flödet och kräver manuell korrigering. De kan inte anpassa sig när något ändras i arbetsflödet. Det är flaskhalsen.
Vision-Språk-Handling (VLA)
Codecs VLA-agenter körs i en intuitiv men kraftfull loop: uppfatta, tänka, agera. Istället för att bara spotta ut text som de flesta LLM:er, ser dessa agenter dess miljö, bestämmer vad de ska göra och sedan kör. Allt är paketerat i en enhetlig pipeline, som du kan visualisera i tre kärnlager:
Vision
Agenten uppfattar först sin omgivning genom visionen. För en skrivbordsoperatörsagent innebär detta att ta en skärmdump eller visuella indata av det aktuella tillståndet (t.ex. ett appfönster eller en textruta). VLA-modellens visionskomponent tolkar denna indata, läser text på skärmen och känner igen gränssnittselement eller objekt. Aka agentens ögon.
Språk
Sedan kommer tänkandet. Med tanke på den visuella kontexten (och eventuella instruktioner eller mål) analyserar modellen vilken åtgärd som krävs. I grund och botten "tänker" AI:n på det lämpliga svaret ungefär som en person skulle göra. VLA-arkitekturen sammanfogar vision och språk internt, så att agenten till exempel kan förstå att en popup-dialogruta ställer en ja/nej-fråga. Den kommer sedan att besluta om rätt åtgärd (t.ex. klicka på "OK") baserat på målet eller uppmaningen. Fungerar som agentens hjärna och kartlägger upplevda indata till en handling.
Handling
Slutligen agerar agenten genom att mata ut ett kontrollkommando till miljön. I stället för text genererar VLA-modellen en åtgärd (till exempel ett musklick, en tangenttryckning eller ett API-anrop) som interagerar direkt med systemet. I dialogruteexemplet skulle agenten köra klicket på knappen "OK". Detta sluter cirkeln: efter att ha agerat kan agenten visuellt kontrollera resultatet och fortsätta cykeln uppfatta, tänka och agera. Åtgärder är nyckelavgränsaren som förvandlar dem från chattrutor till faktiska operatörer.
Användningsfall
Som jag nämnde, på grund av arkitekturen, är Codec narrativ agnostisk. Precis som LLM inte är begränsade av vilka textutdata de kan producera, är VLA:er inte begränsade av vilka uppgifter de kan slutföra.
Robotteknik
I stället för att förlita sig på gamla skript eller ofullständig automatisering tar VLA-agenter in visuell input (kameraflöde eller sensorer), skickar den genom en språkmodell för planering och skickar sedan ut faktiska kontrollkommandon för att röra sig eller interagera med världen.
I grund och botten ser roboten vad som finns framför den, bearbetar instruktioner som "flytta Pepsi-burken bredvid apelsinen", räknar ut var allt finns, hur den ska röra sig utan att välta något och gör det utan att det krävs någon hårdkodning.
Detta är samma klass av system som Googles RT-2 eller PaLM-E. Stora modeller som kombinerar vision och språk för att skapa verkliga handlingar. CogActs VLA-arbete är ett bra exempel, roboten skannar en rörig tabell, får en naturlig uppmaning och kör en hel loop: objekt-ID, vägplanering, rörelseutförande.
Operatörer
I skrivbords- och webbmiljön fungerar VLA-agenter i princip som digitala arbetare. De "ser" skärmen genom en skärmdump eller liveflöde, kör det genom ett resonemangslager som bygger på en språkmodell för att förstå både användargränssnittet och uppgiftsprompten, och utför sedan åtgärderna med riktig mus- och tangentbordskontroll, som en människa skulle göra.
Denna fullständiga loop, förnimma, tänka, agera pågår kontinuerligt. Agenten reagerar alltså inte bara en gång, utan navigerar aktivt i gränssnittet och hanterar flera stegflöden utan att behöva några hårdkodade skript. Arkitekturen är en blandning av OCR-stil för att läsa text/knappar/ikoner, semantiskt resonemang för att bestämma vad som ska göras och ett kontrolllager som kan klicka, rulla, skriva etc.
Där detta blir riktigt intressant är i felhanteringen. Dessa handläggare kan reflektera efter åtgärder och planera om något inte går som förväntat. Till skillnad från RPA-skript som bryts om ett användargränssnitt ändras något, till exempel om en knapp byter position eller en etikett byter namn, kan en VLA-agent anpassa sig till den nya layouten med hjälp av visuella ledtrådar och språkförståelse. Gör den mycket mer motståndskraftig för automatisering i den verkliga världen där gränssnitten ständigt förändras.
Något som jag personligen har kämpat med när jag kodat mina egna forskningsrobotar genom verktyg som playwright.
Spel
Spel är ett av de tydligaste användningsområdena där VLA-agenter kan glänsa, tänka på dem mindre som bots och mer som uppslukande AI-spelare. Hela flödet är detsamma, agenten ser spelskärmen (ramar, menyer, textmeddelanden), resonerar om vad den ska göra och spelar sedan med hjälp av mus, tangentbord eller kontrollinmatningar.
Det är inte fokuserat på brute force, det här är AI som lär sig att spela som en människa skulle göra. Perception + tänkande + kontroll, allt sammanhängande. DeepMinds SIMA-projekt har låst upp detta genom att kombinera en visionsspråkmodell med ett prediktivt lager och släppt det i spel som No Man's Sky och Minecraft. Från att bara titta på skärmen och följa instruktionerna kunde agenten utföra abstrakta uppgifter som att "bygga en lägereld" genom att kedja ihop rätt steg, samla ved, hitta tändstickor och använda inventarier. Och det var inte heller begränsat till bara ett spel. Den kunskapen överfördes mellan olika miljöer.
VLA-spelagenter är inte låsta till en regeluppsättning. Samma agent kan anpassa sig till helt olika mekaniker, bara utifrån syn och språklig grund. Och eftersom den är byggd på LLM-infrastruktur kan den förklara vad den gör, följa instruktioner på naturligt språk mitt i spelet eller samarbeta med spelare i realtid.
Vi är inte långt ifrån att ha AI-lagkamrater som anpassar sig till din spelstil och dina anpassningar, allt tack vare Codec.

9,24K
ICM:s framgång är inte beroende av Launchcoin eller någon enskild plattform.
Det är ett regimskifte från hur vi ser på allmännyttiga projekt på kedjan.
Vi gick från lanseringar på flera miljarder dollar till pumpfun på grund av vansinniga missmatchningar i pris och fundamenta.
Nu skiftar vi från vaporware till projekt med riktiga användare, volym och intäkter.
Majoriteten kommer att ge upp precis när vi vänder på hörnet mot verklig adoption.
6,59K
En obalans mellan pris och fundamenta.
$KNET (8 miljoner dollar) jämfört med $ALCH (120 miljoner dollar)
@Kingnet_AI
Hanterar allt från 2D/3D-modellering till fullständiga karaktärsriggar, animationer och till och med kodgenerering, direkt från anvisningar på naturligt språk. UI utan kod innebär att vem som helst kan gå från idé till spelbar Web3-speldemo utan att röra en kodrad. Påskyndar byggen, sänker kostnaderna och sänker barriären enormt.
Det är positionerat mot Web3-inhemska spelutvecklare, indiebyggare och små studior. Stor tonvikt på tillgångsgenerering + prototyper från början till slut. I grund och botten förvandlar spelutveckling till ett visuellt AI-arbetsflöde, som syftar till att få ut mer innehåll snabbare, även om du inte är teknisk.
KNET driver allt, betalningar, AI-frågor och så småningom marknadsplatsen för genererade tillgångar. Har även styrningskrokar. Knuten till KingNet (stort offentligt spelföretag) och redan ansluten till Solana, BNB, TON. Att se tidig dragkraft + hackathon-vinster.
Kingnet AI stöds av Kingnet Network Co. Ltd, en börsnoterad kinesisk speljätte som grundades 2008. Med en meritlista av hittitlar som Happy Tower, Shushan Legend, MU Miracle och World of Warships Blitz är företaget en av de mest kända inkubatorerna inom mobilspel. Kingnet AI är byggt av SmileCobra Studio (Singapore) i exklusivt samarbete med Kingnets Hong Kong-gren. Moderbolaget värderas till över 5 miljarder dollar med 1 miljard dollar i balansräkningen.
@alchemistAIapp
En bredare plattform utan kod som omvandlar användaruppmaningar till fullt fungerande appar eller spel.
Den använder en AI-motor med flera agenter (flera specialiserade modeller) för att analysera användaruppmaningar, generera kod, skapa visuella bilder och sätta ihop fullständiga applikationer i realtid. Riktar sig till en bred användarbas, från hobbyister till Web3-byggare, som snabbt vill skapa prototyper av verktyg, spel eller webbplatser.
UX är mycket strömlinjeformad, till exempel går du in i "ett ormspel med en brun träbakgrund", och Alchemists Sacred Laboratory-gränssnitt organiserar AI-agenter för att producera frontend-kod, spellogik och till och med anpassad grafik på
ALCH används på Arcane Forge-marknaden och för att få tillgång till Alchemists AI-tjänster. Användare kan tjäna ALCH genom att sälja användbara applikationer eller spel, marknadsplatsen har tips- och upptäcktsfunktioner för att belöna populära appar.
Alchemist grundades 2024 av ett team i Vietnam, leds av Thien Phung Van (grundare/CFO), Trong Pham Van (medgrundare) och Duc Loc "Louis" Nguyen (CTO). Med bakgrund inom mjukvara och entreprenörskap (Thien var tidigare VD/CFO på Vistia) lanserade det lilla teamet Alchemist som en ofinansierad startup.
TLDR; Kingnet AI är specialiserad, med fokus på att automatisera skapandet av spel från början till slut för Web3, med stöd av beprövad spelinfrastruktur. Alchemist AI är bredare i omfattning och erbjuder ett snabbt LLM-gränssnitt för att bygga unika verktyg och spel med detaljhandelsattraktion. Kingnet är domändjupt inom spel, medan Alchemist är domänbrett över flera användningsområden.
Baserat på detta är det ganska tydligt att Kingnet är kraftigt undervärderat i jämförelse. Kingnet är mycket tidigare i sin produktlivscykel och har inte fullt ut utvecklat sin UX och gränssnitt, även om kvaliteten på teamet, erfarenheten och uppbackningen avsevärt uppväger Alchemists plattform samtidigt som den är 15 gånger lägre i mcap.
27,79K
Folk fortsätter att gratulera mig till $CODEC, varför då?
Än så länge har vi inte ens sett:
- Verktyg för token
-Incitament
- Färdplan
-Demos
- Ny hemsida
-Marknad
- Framtida partnerskap
- Användningsfall
+ mer
Allt vi har sett är några partnerskap och lanseringen av deras resursaggregator (Fabric).
Jag skrev inte flera trådar, flera telegraminlägg, pratade med teamet nästan dagligen, gav råd om marknadsföring, varumärke, positionering för att fira en 6 mil mcap.
En chatgpt-omslag av en animeflicka med rosa hår räckte för en 6 mil mcap tillbaka i AI szn.
Projekt skickades till 9-siffriga belopp över en natt för att vinna ett hackathon eller bli uppmärksammade från stora KOLs/forskare.
Alla har glömt vad som händer när lamporna tänds och folk tror igen.
Anledningen till att jag har bytt så hausse den senaste veckan för onchain är att tron är på rekordlåga nivåer. Den senaste månaden har varit några av de största framstegen vi har gjort i den här branschen tillsammans med en positiv makrobakgrund.
Kommer du ihåg känslan av pengar som faller från himlen? Kanske inte dröjer allt för länge innan vi får uppleva det igen.

9,4K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda