<Nu är det inte modellen, utan datan som är konkurrenskraftig> Kärnan i AI-branschen är inte längre datorer eller modeller, utan "data av hög kvalitet". Precis som den mänskliga civilisationen utvecklades genom olja i det förflutna, behöver AI också ett nytt "bränsle" för att gå framåt. Precis som olja användes som energikälla och material före och efter andra världskriget, vilket ledde till snabb industrialisering, kommer det sätt på vilket data säkras och bearbetas att avgöra ledarskapet i AI-eran. Elon Musk nämnde också detta tidigare i år. "Vi har uttömt den kumulativa summan av mänsklig kunskap inom AI-lärande." Det är sant att modeller som GPT har vuxit snabbt genom att skrapa offentliga data från webbplatser, böcker, kod och bilder. Men nu behöver vi nya former av data som antingen är upphovsrättsskyddade eller inte existerar alls. Inom områden som autonoma fordon och robotik behöver vi till exempel komplexa data baserade på integration med flera sensorer, såsom kameror, radar och lidar, samt falldata som samlats in i verkliga miljöer, vilket inte finns på webben. Det större problemet är "hur man kombinerar dem på ett bra sätt" snarare än själva tekniken. Tusentals människor behöver samla in, märka och uppdatera data samtidigt som de är utspridda, och de centraliserade metoder som hittills använts kämpar för att hantera denna mångfald och skala. Därför konvergerar AI-branschen alltmer kring idén att ett decentraliserat tillvägagångssätt är lösningen. Det är här "Poseidon (@psdnai)" kommer in i bilden. Poseidon är inte bara ett datalager; Det är en infrastruktur som tar emot, verifierar och förfinar verkliga data för att skapa träningsdatauppsättningar som kan användas utan upphovsrättsliga problem. För att uttrycka det metaforiskt är Poseidon ett "oljeraffinaderi". Den tar rådata och förädlar den till bränsle som AI kan använda för lärande. Hela denna process fungerar på @StoryProtocol. Den registrerar transparent i kedjan vem som tillhandahöll data, under vilka förhållanden och vem som använde den. De som tillhandahåller data får rättvis ersättning, och AI-utvecklare kan använda den med sinnesro. Poseidon, som kommer att uppnå innovation i datalagret snarare än genom GPU:er eller modeller, kan vara det bästa exemplet på att tillämpa web3-teknik på web2-industrier.
Chris Dixon
Chris Dixon23 juli 00:18
Vi är glada att kunna meddela att vi leder en såddrunda på 15 miljoner dollar i Poseidon, som inkuberades av @StoryProtocol och bygger ett decentraliserat datalager för att samordna tillgång och efterfrågan på AI-träningsdata. Den första generationen av AI-grundmodeller tränades på data som verkade vara en i praktiken obegränsad resurs. Idag har de mest tillgängliga resurserna som böcker och webbplatser för det mesta uttömts, och data har blivit en begränsande faktor för AI-framsteg. Mycket av den data som finns kvar nu är antingen av lägre kvalitet eller förbjuden på grund av IP-skydd. För några av de mest lovande AI-tillämpningarna – inom robotik, autonoma fordon och rumslig intelligens – finns data inte ens ännu. Nu behöver dessa system helt nya typer av information: multisensorisk, rik på gränsfall, fångad i naturen. Var kommer alla dessa data från den fysiska världen att komma ifrån? Utmaningen är inte bara teknisk – det är ett samordningsproblem. Tusentals deltagare måste arbeta tillsammans på ett distribuerat sätt för att hämta, märka och underhålla de fysiska data som nästa generations AI behöver. Vi tror inte att någon centraliserad metod effektivt kan orkestrera den dataskapande och kurering som behövs på den nivå av skala och mångfald som krävs. Ett decentraliserat tillvägagångssätt kan lösa detta. @psdnai gör det möjligt för leverantörer att samla in den data som AI-företag behöver, samtidigt som IP-säkerheten säkerställs via Storys programmerbara IP-licens. Detta syftar till att skapa en ny ekonomisk grund för internet, där dataskapare får rättvis ersättning för att hjälpa AI-företag att driva nästa generations intelligenta system. Poseidons team, som leds av Chief Scientist och medgrundare @SPChinchali, bidrar med djup expertis inom AI-infrastruktur. Sandeep är professor vid UT Austin med inriktning på AI, robotik och distribuerade system, med en doktorsexamen från Stanford inom AI och distribuerade system. Produktchef och medgrundare @sarickshah tillbringat ett decennium som maskininlärningsingenjör och skalat AI-produkter för stora företag inom finansiella tjänster, telekom och hälso- och sjukvård. Vi är glada över att stödja Poseidon i deras arbete med att lösa en av de mest kritiska flaskhalsarna inom AI-utveckling.
2,42K