Krypto som et verifiserbart substrat for AI har eksistert lenge. Den har tatt på seg mange diff-former. Hot take, men her er grunnen til at jeg fortsatt er bearish (dessverre): Forretningsmodellene til etablerte AI-selskaper er strukturelt feiljustert med etterprøvbarhet OpenAI, Anthropic, Meta AI, Xai, Perplexity, etc. tjener på kontroll over disse black box-systemene, unngåelse av ansvarlighet og masseadopsjon av deres produkter/utganger. verifiserbarhet truer alle disse tingene argumenter (og mine motargumenter) "Vi skal bare bygge verifiserbare AI-systemer" >ja 100%, men la oss være litt mer pragmatiske her... Verifisering handler ikke bare om tekniske standarder, det er hvem som kontrollerer infraen. I dag har vi selskaper som Prime Intellect som satser på at den eneste måten å nærme seg dette på er å gjenoppbygge hele stabelen (trening, slutning, distribusjon) for å få meningsfull verifisering. Å bolte på verifisering på eksisterende sentraliserte systemer vil aldri fungere BC Monopolister ville aldri frivillig redusere sin markedsmakt. Når det er sagt, er det tekniske gapet enormt der disse desentraliserte AI-infraselskapene kjemper en tofrontskrig. De må matche eksisterende modellkvalitet samtidig som de løser verifiseringsproblemet. Mange av disse prosjektene er fortsatt bevis på konsepter som fungerer med modeller i mindre skala (titalls milliarder maks i stedet for mange hundre milliarder) som ikke kan håndtere skala i den virkelige verden «Virksomheter ønsker verifisering» >etablerte aktører kan møte disse kravene med sine egne kontrollerte, private attester og krever ikke offentlige blokkjeder med mer overhead. enterprise rev er uansett liten i forhold til massemarkedets forbruker-AI "Forbrukerne vil bry seg om tillit og herkomst" >Historisk sett betaler folk aldri for tillit med mindre det er katastrofal fiasko. Selv da kan det hende at folk fortsatt ikke bryr seg. Feilinformasjonens viralitet utkonkurrerer sannhetens pris. Vi har blitt hjernevasket til å tenke på denne måten siden starten av internett. Når de tenker på det, vil de fleste brukere ikke engang vite hva ekte tillit og herkomst betyr. hvis det er et proprietært merke til en utgang som "verifisert av OpenAI", forsterker dette plattformlåsing ikke sluttbrukerbyrå. tillit vil bare bli tjent penger på plattformer, ikke som offentlig infrastruktur «Regulering vil tvinge deres hånd» >sannsynligvis det mest realistiske scenariet, men bare hvis håndhevelsen er globalt konsistent (LOL no shot). Og la oss være ærlige, lobbypress fra disse etablerte vil resultere i svake standarder. Igjen vil vi få en verden der det vil være lukkede implementeringer som krysser av i en boks for regulatorer Så alt dette er å si at enhetene som er i stand til å implementere verifisering i stor skala ikke har noe insentiv til å gjøre det, og enhetene som utfordrer dem mangler ressurser til å konkurrere på kort sikt
a16z
a16z29. juli, 03:26
.@balajis sier at AI utvider verifiseringsgapet. Et enormt antall arbeidsplasser vil være nødvendig for å stenge den. Oppfordring oversvømmer verden med forfalskninger. Krypto bringer tilbake bevis. "Du kommer til å trenge kryptografisk hashede innlegg og krypto-ID-er ... å vite at dataene ikke ble tuklet med.» I AI-æraen må tillit konstrueres.
2,79K