Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
la crypto come substrato verificabile per l'IA esiste da molto tempo. Ha assunto molte forme diverse. Ecco un'opinione impopolare, ma ecco perché sono ancora ribassista (sfortunatamente):
i modelli di business delle aziende di IA consolidate sono strutturalmente disallineati con la verificabilità.
OpenAI, Anthropic, Meta AI, XAI, Perplexity, ecc. traggono profitto dal controllo su questi sistemi a scatola nera, dall'evitare la responsabilità e dall'adozione di massa dei loro prodotti / output. La verificabilità minaccia tutte queste cose.
Argomenti (e le mie controargomentazioni)
"Costruiremo semplicemente sistemi di IA verificabili"
> Sì, 100%, ma cerchiamo di essere un po' più pragmatici qui... la verifica non riguarda solo gli standard tecnici, ma chi controlla l'infrastruttura. Oggi abbiamo aziende come Prime Intellect che scommettono che l'unico modo per affrontare questo sia ricostruire l'intero stack (addestramento, inferenza, distribuzione) per ottenere una verifica significativa. Aggiungere la verifica a sistemi centralizzati esistenti non funzionerà mai perché i monopolisti non ridurrebbero mai volontariamente il loro potere di mercato. Detto ciò, il divario tecnico è enorme, dove queste aziende di infrastruttura IA decentralizzata stanno combattendo una guerra su due fronti. Devono eguagliare la qualità del modello consolidato mentre risolvono anche il problema della verifica. Molti di questi progetti rimangono prove di concetto che funzionano con modelli di scala più piccola (massimo decine di miliardi invece di molti centinaia di miliardi) che non possono gestire la scala del mondo reale.
"Le imprese vogliono la verifica"
> I consolidati possono soddisfare queste richieste con le loro attestazioni controllate e private e non richiedono blockchain pubbliche con maggiori oneri. I ricavi delle imprese sono piccoli rispetto all'IA per il mercato di massa comunque.
"I consumatori si preoccuperanno di fiducia e provenienza"
> Storicamente, le persone non pagano mai per la fiducia a meno che non ci sia un fallimento catastrofico. Anche allora, le persone potrebbero comunque non preoccuparsi. La viralità della disinformazione supera il costo della verità. Siamo stati indottrinati a pensare in questo modo sin dall'inizio di Internet. A pensarci bene, la maggior parte degli utenti non saprà nemmeno cosa significhi realmente fiducia e provenienza. Se c'è un badge proprietario su un output come "verificato da OpenAI", questo rafforza il lock-in della piattaforma e non l'agenzia dell'utente finale. La fiducia sarà semplicemente monetizzata all'interno delle piattaforme, non come infrastruttura pubblica.
"La regolamentazione costringerà la loro mano"
> Probabilmente lo scenario più realistico, ma solo se l'applicazione è globalmente coerente (LOL nessuna possibilità). E diciamolo chiaramente, la pressione di lobbying da parte di questi consolidati porterà a standard deboli. Ancora una volta, avremo un mondo in cui ci saranno implementazioni chiuse che spuntano una casella per i regolatori.
Quindi tutto questo per dire che le entità in grado di implementare la verifica su larga scala non hanno alcun incentivo a farlo e le entità che le sfidano mancano delle risorse per competere nel breve termine.

29 lug, 03:26
.@balajis afferma che l'IA sta ampliando il divario di verifica. Saranno necessari un numero enorme di posti di lavoro per colmarlo.
Il prompt inonda il mondo di falsi. La crypto riporta la prova.
“Avrai bisogno di post crittograficamente hashati e ID crypto ... per sapere che i dati non sono stati manomessi.”
Nell'era dell'IA, la fiducia deve essere ingegnerizzata.
2,97K
Principali
Ranking
Preferiti