<Nu is het niet het model, maar de data die concurrerend is> De kern van de AI-industrie is niet langer computing of modellen, maar 'hoogwaardige data.' Net zoals de menselijke beschaving in het verleden vooruitging door olie, heeft AI ook een nieuwe 'brandstof' nodig om vooruit te komen. Net zoals olie vóór en na de Tweede Wereldoorlog werd gebruikt als energiebron en materiaal, wat leidde tot een snelle industrialisatie, zal de manier waarop data wordt beveiligd en verwerkt de leiderschap in het AI-tijdperk bepalen. Elon Musk noemde dit eerder dit jaar ook. "We hebben de cumulatieve som van menselijke kennis in AI-leren uitgeput." Het is waar dat modellen zoals GPT snel zijn gegroeid door publieke data van websites, boeken, code en afbeeldingen te verzamelen. Maar nu hebben we nieuwe vormen van data nodig die ofwel auteursrechtelijk beschermd zijn of helemaal niet bestaan. Bijvoorbeeld, in velden zoals autonome voertuigen en robotica, hebben we complexe data nodig op basis van multi-sensorintegratie, zoals camera's, radar en lidar, evenals gevaldata die in echte omgevingen zijn verzameld, die niet op het web bestaan. Het grotere probleem is 'hoe we ze goed kunnen combineren' in plaats van de technologie zelf. Duizenden mensen moeten data verzamelen, labelen en bijwerken terwijl ze verspreid zijn, en de gecentraliseerde methoden die tot nu toe zijn gebruikt, hebben moeite om deze diversiteit en schaal aan te kunnen. Daarom convergeert de AI-industrie steeds meer op het idee dat een gedecentraliseerde aanpak de oplossing is. Hier komt 'Poseidon (@psdnai)' in beeld. Poseidon is niet alleen een datawarehouse; het is een infrastructuur die echte werelddata ontvangt, verifieert en verfijnt om trainingsdatasets te creëren die zonder auteursrechtelijke zorgen kunnen worden gebruikt. Met een metafoor gezegd, Poseidon is een 'olieraffinaderij.' Het neemt ruwe data en verfijnt deze tot brandstof die AI kan gebruiken voor leren. Dit hele proces opereert op @StoryProtocol. Het registreert transparant on-chain wie de data heeft geleverd, onder welke voorwaarden, en wie het heeft gebruikt. Degenen die data leveren, ontvangen een eerlijke compensatie, en AI-ontwikkelaars kunnen het met een gerust hart gebruiken. Poseidon, dat innovatie zal bereiken op het datalaag in plaats van via GPU's of modellen, zou het beste voorbeeld kunnen zijn van het toepassen van web3-technologie op web2-industrieën.
Chris Dixon
Chris Dixon23 jul, 00:18
We zijn enthousiast om aan te kondigen dat we een seedronde van $15M leiden in Poseidon, dat is geïncubeerd door @StoryProtocol en een gedecentraliseerde datalaag bouwt om vraag en aanbod voor AI-trainingsdata te coördineren. De eerste generatie AI-fundamentmodellen werd getraind op data die leek op een effectief onbeperkte bron. Tegenwoordig zijn de meest toegankelijke bronnen zoals boeken en websites grotendeels uitgeput, en is data een beperkende factor geworden in de vooruitgang van AI. Veel van de data die nu overblijft is ofwel van lagere kwaliteit of niet toegankelijk vanwege IP-bescherming. Voor sommige van de meest veelbelovende AI-toepassingen — in robotica, autonome voertuigen en ruimtelijke intelligentie — bestaat de data zelfs nog niet. Nu hebben deze systemen volledig nieuwe soorten informatie nodig: multi-zintuiglijk, rijk aan randgevallen, vastgelegd in de natuur. Waar zal al deze fysieke werelddata vandaan komen? De uitdaging is niet alleen technisch — het is een coördinatieprobleem. Duizenden bijdragers moeten samenwerken op een gedistribueerde manier om de fysieke data te verzamelen, labelen en onderhouden die de volgende generatie AI nodig heeft. Wij geloven dat geen enkele gecentraliseerde aanpak de datacreatie en -curatie die nodig is op het vereiste niveau van schaal en diversiteit efficiënt kan orkestreren. Een gedecentraliseerde aanpak kan dit oplossen. @psdnai stelt leveranciers in staat om de data te verzamelen die AI-bedrijven nodig hebben, terwijl de IP-veiligheid wordt gewaarborgd via Story's programmeerbare IP-licentie. Dit heeft als doel een nieuwe economische basis voor het internet te vestigen, waar datacreators eerlijk worden gecompenseerd voor het helpen van AI-bedrijven om de volgende generatie intelligente systemen aan te drijven. Het team van Poseidon, geleid door Chief Scientist en Cofounder @SPChinchali, brengt diepgaande expertise in AI-infrastructuur. Sandeep is professor aan UT Austin, gespecialiseerd in AI, robotica en gedistribueerde systemen, met een PhD van Stanford in AI en gedistribueerde systemen. Hoofd Product en Cofounder @sarickshah heeft een decennium als machine learning engineer gewerkt, waarbij hij AI-producten opschaalde voor grote ondernemingen in de financiële dienstverlening, telecom en gezondheidszorg. We zijn enthousiast om Poseidon te ondersteunen in zijn werk om een van de meest kritieke knelpunten in de ontwikkeling van AI op te lossen.
2,27K