.@balajis afferma che l'IA sta ampliando il divario di verifica. Saranno necessari un numero enorme di posti di lavoro per colmarlo. Il prompt inonda il mondo di falsi. La crypto riporta la prova. “Avrai bisogno di post crittograficamente hashati e ID crypto ... per sapere che i dati non sono stati manomessi.” Nell'era dell'IA, la fiducia deve essere ingegnerizzata.
Andrej Karpathy
Andrej Karpathy5 giu 2025
Buon post da @balajis sul "divario di verifica". Si potrebbe vedere come se ci fossero due modalità nella creazione. Prendendo in prestito la terminologia GAN: 1) generazione e 2) discriminazione. Ad esempio, dipingere: fai una pennellata (1) e poi guardi per un po' per vedere se hai migliorato la pittura (2). Queste due fasi sono intervallate praticamente in tutto il lavoro creativo. Secondo punto. La discriminazione può essere molto difficile dal punto di vista computazionale. - Le immagini sono di gran lunga le più facili. Ad esempio, i team di generatori di immagini possono creare griglie giganti di risultati per decidere se un'immagine è migliore dell'altra. grazie alla GPU gigante nel tuo cervello costruita per elaborare le immagini molto velocemente. - Il testo è molto più difficile. È scremabile, ma devi leggere, è semantico, discreto e preciso, quindi devi anche ragionare (specialmente ad esempio nel codice). - L'audio è forse ancora più difficile, perché forza un asse del tempo quindi non è nemmeno scremabile. Si è costretti a spendere il calcolo seriale e non è possibile parallelizzarlo affatto. Si potrebbe dire che nella codifica gli LLM sono collassati (1) a ~instant, ma hanno fatto molto poco per affrontare (2). Una persona deve ancora fissare i risultati e discriminare se sono buoni. Questa è la mia principale critica alla codifica LLM in quanto sputano casualmente fuori *molto* troppo codice per query a complessità arbitraria, fingendo che non ci sia una fase 2. Ottenere così tanto codice è brutto e spaventoso. Invece, l'LLM deve lavorare attivamente con te per suddividere i problemi in piccoli passaggi incrementali, ciascuno più facilmente verificabile. Deve anticipare il lavoro computazionale di (2) e ridurlo il più possibile. Deve preoccuparsi davvero. Questo mi porta probabilmente al più grande malinteso che i non programmatori hanno riguardo alla programmazione. Pensano che la codifica riguardi la scrittura del codice (1). Non lo è. Si tratta di fissare il codice (2). Caricando tutto nella tua memoria di lavoro. Camminare avanti e indietro. Riflettendo su tutti i casi limite. Se mi sorprendi in un punto casuale mentre sto "programmando", probabilmente sto solo fissando lo schermo e, se interrotto, mi sto davvero arrabbiando perché è così faticoso dal punto di vista computazionale. Se otteniamo solo molto più veloce 1, ma non riduciamo anche 2 (che è la maggior parte delle volte!), allora chiaramente la velocità complessiva della codifica non migliorerà (vedi la legge di Amdahl).
465,98K