Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Professor Jo 🐙
Baserat på sin karriär inom förvärvsfinansiering är han en "DeFi-bonde Joseon" som springer mot en större dröm inom DeFi. @0xundefined_
<Nu är det inte modellen, utan datan som är konkurrenskraftig>
Kärnan i AI-branschen är inte längre datorer eller modeller, utan "data av hög kvalitet". Precis som den mänskliga civilisationen utvecklades genom olja i det förflutna, behöver AI också ett nytt "bränsle" för att gå framåt. Precis som olja användes som energikälla och material före och efter andra världskriget, vilket ledde till snabb industrialisering, kommer det sätt på vilket data säkras och bearbetas att avgöra ledarskapet i AI-eran.
Elon Musk nämnde också detta tidigare i år. "Vi har uttömt den kumulativa summan av mänsklig kunskap inom AI-lärande." Det är sant att modeller som GPT har vuxit snabbt genom att skrapa offentliga data från webbplatser, böcker, kod och bilder. Men nu behöver vi nya former av data som antingen är upphovsrättsskyddade eller inte existerar alls.
Inom områden som autonoma fordon och robotik behöver vi till exempel komplexa data baserade på integration med flera sensorer, såsom kameror, radar och lidar, samt falldata som samlats in i verkliga miljöer, vilket inte finns på webben.
Det större problemet är "hur man kombinerar dem på ett bra sätt" snarare än själva tekniken. Tusentals människor behöver samla in, märka och uppdatera data samtidigt som de är utspridda, och de centraliserade metoder som hittills använts kämpar för att hantera denna mångfald och skala. Därför konvergerar AI-branschen alltmer kring idén att ett decentraliserat tillvägagångssätt är lösningen.
Det är här "Poseidon (@psdnai)" kommer in i bilden. Poseidon är inte bara ett datalager; Det är en infrastruktur som tar emot, verifierar och förfinar verkliga data för att skapa träningsdatauppsättningar som kan användas utan upphovsrättsliga problem.
För att uttrycka det metaforiskt är Poseidon ett "oljeraffinaderi". Den tar rådata och förädlar den till bränsle som AI kan använda för lärande. Hela denna process fungerar på @StoryProtocol. Den registrerar transparent i kedjan vem som tillhandahöll data, under vilka förhållanden och vem som använde den. De som tillhandahåller data får rättvis ersättning, och AI-utvecklare kan använda den med sinnesro.
Poseidon, som kommer att uppnå innovation i datalagret snarare än genom GPU:er eller modeller, kan vara det bästa exemplet på att tillämpa web3-teknik på web2-industrier.


Chris Dixon23 juli 00:18
Vi är glada att kunna meddela att vi leder en såddrunda på 15 miljoner dollar i Poseidon, som inkuberades av @StoryProtocol och bygger ett decentraliserat datalager för att samordna tillgång och efterfrågan på AI-träningsdata.
Den första generationen av AI-grundmodeller tränades på data som verkade vara en i praktiken obegränsad resurs. Idag har de mest tillgängliga resurserna som böcker och webbplatser för det mesta uttömts, och data har blivit en begränsande faktor för AI-framsteg.
Mycket av den data som finns kvar nu är antingen av lägre kvalitet eller förbjuden på grund av IP-skydd. För några av de mest lovande AI-tillämpningarna – inom robotik, autonoma fordon och rumslig intelligens – finns data inte ens ännu. Nu behöver dessa system helt nya typer av information: multisensorisk, rik på gränsfall, fångad i naturen. Var kommer alla dessa data från den fysiska världen att komma ifrån?
Utmaningen är inte bara teknisk – det är ett samordningsproblem. Tusentals deltagare måste arbeta tillsammans på ett distribuerat sätt för att hämta, märka och underhålla de fysiska data som nästa generations AI behöver. Vi tror inte att någon centraliserad metod effektivt kan orkestrera den dataskapande och kurering som behövs på den nivå av skala och mångfald som krävs. Ett decentraliserat tillvägagångssätt kan lösa detta.
@psdnai gör det möjligt för leverantörer att samla in den data som AI-företag behöver, samtidigt som IP-säkerheten säkerställs via Storys programmerbara IP-licens. Detta syftar till att skapa en ny ekonomisk grund för internet, där dataskapare får rättvis ersättning för att hjälpa AI-företag att driva nästa generations intelligenta system.
Poseidons team, som leds av Chief Scientist och medgrundare @SPChinchali, bidrar med djup expertis inom AI-infrastruktur. Sandeep är professor vid UT Austin med inriktning på AI, robotik och distribuerade system, med en doktorsexamen från Stanford inom AI och distribuerade system. Produktchef och medgrundare @sarickshah tillbringat ett decennium som maskininlärningsingenjör och skalat AI-produkter för stora företag inom finansiella tjänster, telekom och hälso- och sjukvård.
Vi är glada över att stödja Poseidon i deras arbete med att lösa en av de mest kritiska flaskhalsarna inom AI-utveckling.

2,1K
<Varför kom Sonic till Korea?>
Tidigare i år @SonicLabs upphetsade DeFi-degenererarnas hjärtan. På en snabbt förnyad kedja gjorde nostalgiska DeFi-produkter comeback. Vid den tiden sades det att cirka 200 miljoner $S tokens skulle distribueras baserat på poäng, vilket stod för cirka 6 % av det totala utbudet, vilket skapade en betydande hype.
Men eftersom det globala intresset för DeFi-specialiserade kedjor har avtagit, vet Sonic troligen att det inte finns många användare utomlands som kommer att ta sig an denna volym.
I slutändan tror jag att den enda marknaden där en reaktion kan förväntas är "Korea", vilket är anledningen till att detta evenemang var planerat. Men koreanska investerare är nu utbildade, och det kommer inte att bli lika lätt som tidigare.
De flesta av dem som samlats vid evenemanget är airdrop-bönder, och deltagarna ses ur projektets perspektiv som en "belastning".
I slutändan, om de inte konkurrerar med äkta produkter som förkroppsligar DeFi-andan som tidigare, tror jag att det kommer att bli svårt att återfå uppmärksamheten. Personligen tycker jag att det är olyckligt att se Sonic, som jag brukade gilla, knuffas ut ur rampljuset som Vera.

seg.sonic17 juli 18:28
IRL airdrop @SonicLabs Korea 🔥🔥
1,02K
<Story, att få ny fart>
En ny figur har anslutit sig till @StoryProtocol, som omformar innehållsindustrin genom IP-tokenisering.
Han är Sandeep Chinchali, professor vid UT Austin och expert på AI, robotik och distribuerade system.
Sandeep Chinchali, en före detta NASA-forskare, studerade generativ AI och molnrobotik vid Stanford och är för närvarande professor vid UT Austin, där han arbetar med autonom körning och distribuerade maskininlärningsmodeller.
Under sin forskning installerade han svarta lådor direkt i fordon för att samla in data från den verkliga världen och analysera sällsynta scener som kallas "long-tail"-händelser. Han insåg djupt vikten av datakvalitet och knapphet genom att märka dessa data och träna lätta AI-modeller på TPU-hårdvara för djupinlärning.
I samma veva ställde han en fråga till sig själv.
– För att AI ska fungera korrekt i verkligheten behöver den data av hög kvalitet, inte bara modeller. Och för att samla in den informationen frivilligt är det nödvändigt med en effektiv incitamentsstruktur.
Han hittade svaret på Story.
@StoryProtocol definierar data inte bara som en resurs utan som IP och bygger ett belöningssystem i kedjan.
Insamling av sällsynta data → Märkning → syntes → registrering på kedjan → royaltydistribution
Varje steg spåras transparent i kedjan. Professor Sandeep förklarar det på följande sätt.
"Jag registrerar en sällsynt körscen som fångats av min dashcam på Story, och en vän märker den. Baserat på detta skapar AI syntetisk data, genererar ansluten IP vid varje steg, och royalties distribueras automatiskt till alla bidragsgivare."
Som Chief AI Officer för Story kommer professor Sandeep Chinchali att leda den övergripande AI-strategin, infrastrukturen för inlärningsdata på kedjan och utformningen av ett distribuerat databelöningssystem. Han definierar värdet av data på följande sätt.
"Data är den nya IP-adressen."

Story17 juli 23:01
Vi presenterar Storys nya Chief AI Officer, @SPChinchali.
Sandeep är professor vid UT Austin med fokus på GenAI, robotik och distribuerade system. Han är en före detta NASA-forskare, tidig ingenjör för ett nystartat företag som förvärvades av VMware och har en Stanford-doktorsexamen i AI och distribuerade system.
Som Chief AI Officer kommer Sandeep att leda Storys AI-strategi, driva viktiga inkubationer och ge råd till det bredare ekosystemet om hur man kan fånga de enorma AI-möjligheter som väntar.
Sandeeps arbete har länge fokuserat på hur robotar, sensorer och ML-modeller kan lära sig av den röriga fysiska världen. Nu tar han med sig sin expertis till web3 och Story.
Det beror på att AI:s nästa steg inte handlar om fler GPU:er. Det handlar om att låsa upp den mest värdefulla (och underbetjänade) kategorin av IP: verkliga data.
Sandeeps utnämning är ett viktigt steg mot att uppnå Storys vision Chapter 2. Nästa vecka kommer denna vision att förverkligas på ett stort sätt.
Håll ögonen öppna.

8,91K
<Intervju med RedStone>
RedStone är ett modulärt blockchain-orakelprojekt som levererar säkra, snabba och kostnadseffektiva dataflöden för över 1 250 tillgångar i mer än 70 kedjor.
Dess arkitektur separerar datainsamling utanför kedjan från leverans på kedjan, med stöd för både pull- och push-mekanismer. Den här designen ger utvecklare flexibiliteten att optimera mellan gaskostnader och realtidsprestanda.
Ikväll klockan 10 KST kommer vi att få sällskap av grundaren av RedStone för att höra om deras vision och strategier för de snabbt växande stablecoin- och RWA-marknaderna.
👉

5,22K
<Är innehållet som skapas av AI verkligt?>
Verifiera efter @Mira_Network är infrastrukturen som besvarar den här frågan. Den utvärderar varje påstående genom tre specialiserade verifieringsmodeller och klassificerar resultaten som "sanna", "falska" eller "ingen konsensus".
Om alla modeller når samma slutsats anses det vara ett tillförlitligt resultat; Om de skiljer sig åt väcker det en flagga av misstänksamhet. Det handlar inte bara om att hitta det rätta svaret, utan om att tillhandahålla "osäkerhet" i sig som data.
Verify är inte bara en enkel demo; Det är en "förtroendeinfrastruktur". Den erbjuder en backend via API, vilket gör det möjligt för företag att upptäcka äktheten hos AI-genererat innehåll, automatiskt filtrera bort felaktig information och ansluta för mänsklig granskning vid behov.

Mira (3/3)16 juli 20:01
Internet har ett sanningsproblem.
Så vi skapade Mira Verify, som använder konsensus med flera modeller för att identifiera hallucinationer och felaktig information.
Mira är sanningens mångehandla.
2,23K
<Tankar om att titta på SharpLink Gaming>
Det känns som att ConsenSys leder vägen, vilket gör "Ethereums finansiella strategi" till en betydande trend. SharpLink Gaming ackumulerar stadigt Ethereum genom att samla in cirka 500 miljarder won genom PIPE, och skillnaden från Bitcoins finansiella strategi är att Ethereum kan generera vinster genom tillgångsförvaltning utöver enkelt innehav.
Det jag är nyfiken på är hur de kommer att hantera det Ethereum de har samlat ihop. Om man tittar på fallet med @SharpLinkGaming kan det bekräftas att de förvaltar tillgångar baserat på LST eller LRT genom Figment.
Figment är en av de främsta validerarna på Ethereum och driver ett dedikerat valv för institutionella investerare, vilket ger stabil insatsavkastning. Projekt som @Obol_Collective hjälpa stora operatörer att validera mer stabilt och effektivt, liknande Figment.
I takt med att fler institutioner antar Ethereum-strategier tror jag att utbudet av Ethereum oundvikligen kommer att koncentreras på dessa institutionsspecifika validerare. Särskilt eftersom riskhantering är nyckeln för institutioner, tenderar de att driva noder mycket konservativt för att minimera risker som driftstopp eller nedskärningar.
Till exempel, om en naturkatastrof inträffar när man kör en nod med en enda valideringsnyckel, kan det leda till att man förlorar inte bara framtida belöningar utan också det insatta huvudbeloppet. För att minska sådana risker förväntas efterfrågan på infrastruktur som distribuerar valideringsnycklar över flera noder, nämligen DVT (DVT: Distributed Validator Technology), att fortsätta att växa.
Den avgörande infrastrukturskillnaden mellan Ethereum och Solana är dess decentraliserade datorstruktur. Den är utformad för att undvika enskilda felpunkter genom minst 5-6 klienter, även om världen skulle gå under. För att institutioner ska kunna rida på denna Ethereum-berättelse på rätt sätt måste de lägga upp en strategi för att minska enskilda felpunkter i valideringslagret, med projekt som @Obol_Collective i centrum för det arbetet.
I slutändan, när fler företag väljer Ethereums finansiella strategi, kommer efterfrågan på projekt som kan hjälpa dem att validera bättre eller förenkla tillgångsförvaltningen naturligtvis att öka.


Lido6 juli 17:27
DVV All Time High + Limit Ökning
Det decentraliserade valideringsvalvet har nått en rekordnivå på 14 344 wstETH (~44 miljoner dollar).
Utöver detta har insättningsgränsen höjts till 20 000 wstETH, vilket driver på DVT-antagandet genom Lido, Obol och SSV.
Högre gränser. Mer decentralisering.

7,25K
<Investeringsgrammatiken för globala riskkapitalister har förändrats>
Nuförtiden investerar globala riskkapitalister i företag som vill införliva digitala tillgångar som strategiska tillgångar. Pantera skapade nyligen en DAT-fond (Digital Asset Treasury) och investerade i företag som Cantor Equity Partners (CEP), och det sägs att den tjänar till en premie på 1,5 till 10 gånger sitt substansvärde (NAV).
Till slut skapades en ny meta med fokus på företag och private equity-fonder. Det vi kan tänka på här är att i förväg ta reda på vilka mynt dessa företag kommer att inkludera som strategiska tillgångar i framtiden.
Till exempel verkar det som att projekt som @StoryProtocol kan ingå i AI-fonden som förvaltas av Grayscale, och om VC:er som menar allvar med AI som @DCGco skapar en separat AI ETF, finns det en möjlighet att AI-mynt som $IP, $TAO och $Flock kan inkluderas strategiskt.
Om du tittar på det aktuella Pantera-fallet kan du se stora mynt som Bitcoin, Ethereum, Ripple, Avalanche, Hyperliquid och Sui.
Därför tror jag att det skulle vara mer realistiskt att leta efter kandidater som företag och fonder kan inkludera som strategiska tillgångar bland mid/small caps.

Grayscale27 juni 2025
Vi har uppdaterat Grayscale Research Top 20. Topp 20 representerar en diversifierad uppsättning tillgångar inom kryptosektorer som, enligt vår uppfattning, har hög potential under det kommande kvartalet. Kvartalets nya tillgångar är Avalanche $AVAX och Morpho $MORPHO. Alla tillgångar i vår topp 20-lista har hög prisvolatilitet och bör betraktas som hög risk.
Läs hela rapporten:

9,26K
"CLOBs on Blobs" markerar en enorm intäktsmöjlighet för Celestia. Högpresterande handelsplatser går mot modulära arkitekturer, och Celestia håller på att växa fram som det bästa DA-lagret för CLOB-baserade börser.
Jag kommer att vara värd för @nickwh8te från @celestia på min YouTube-podcast ikväll kl. 23.00 KST för att dyka in i vad detta skifte verkligen innebär.

12,27K
Den koreanska marknaden är fortfarande entusiastisk över nya mynt, men mynt som har ridit ut stormar under lång tid kan vara det bättre valet. @maplefinance


Professor Jo 🐙10 juni 2025
Korea håller på att växa fram som en stor marknad som tar riskvägda tillgångar på allvar. Maple Finance har nyligen breddat sitt fokus – inte bara på privata krediter, utan också på avkastningsbärande stablecoins genom sina utlåningstjänster. Jag kommer att vara värd för @syrupsid från Maple Finance (@maplefinance) på min YouTube-podcast ikväll kl. 10 KST.

202
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda