Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Buon post da @balajis sul "divario di verifica".
Si potrebbe vedere come se ci fossero due modalità nella creazione. Prendendo in prestito la terminologia GAN:
1) generazione e
2) discriminazione.
Ad esempio, dipingere: fai una pennellata (1) e poi guardi per un po' per vedere se hai migliorato la pittura (2). Queste due fasi sono intervallate praticamente in tutto il lavoro creativo.
Secondo punto. La discriminazione può essere molto difficile dal punto di vista computazionale.
- Le immagini sono di gran lunga le più facili. Ad esempio, i team di generatori di immagini possono creare griglie giganti di risultati per decidere se un'immagine è migliore dell'altra. grazie alla GPU gigante nel tuo cervello costruita per elaborare le immagini molto velocemente.
- Il testo è molto più difficile. È scremabile, ma devi leggere, è semantico, discreto e preciso, quindi devi anche ragionare (specialmente ad esempio nel codice).
- L'audio è forse ancora più difficile, perché forza un asse del tempo quindi non è nemmeno scremabile. Si è costretti a spendere il calcolo seriale e non è possibile parallelizzarlo affatto.
Si potrebbe dire che nella codifica gli LLM sono collassati (1) a ~instant, ma hanno fatto molto poco per affrontare (2). Una persona deve ancora fissare i risultati e discriminare se sono buoni. Questa è la mia principale critica alla codifica LLM in quanto sputano casualmente fuori *molto* troppo codice per query a complessità arbitraria, fingendo che non ci sia una fase 2. Ottenere così tanto codice è brutto e spaventoso. Invece, l'LLM deve lavorare attivamente con te per suddividere i problemi in piccoli passaggi incrementali, ciascuno più facilmente verificabile. Deve anticipare il lavoro computazionale di (2) e ridurlo il più possibile. Deve preoccuparsi davvero.
Questo mi porta probabilmente al più grande malinteso che i non programmatori hanno riguardo alla programmazione. Pensano che la codifica riguardi la scrittura del codice (1). Non lo è. Si tratta di fissare il codice (2). Caricando tutto nella tua memoria di lavoro. Camminare avanti e indietro. Riflettendo su tutti i casi limite. Se mi sorprendi in un punto casuale mentre sto "programmando", probabilmente sto solo fissando lo schermo e, se interrotto, mi sto davvero arrabbiando perché è così faticoso dal punto di vista computazionale. Se otteniamo solo molto più veloce 1, ma non riduciamo anche 2 (che è la maggior parte delle volte!), allora chiaramente la velocità complessiva della codifica non migliorerà (vedi la legge di Amdahl).

4 giu 2025
AI PROMPTING → VERIFICA AI
Il prompt dell'intelligenza artificiale è scalabile, perché il prompt è solo digitazione.
Ma la verifica dell'intelligenza artificiale non è scalabile, perché la verifica dell'output dell'intelligenza artificiale comporta molto di più della semplice digitazione.
A volte è possibile verificare a occhio, motivo per cui l'intelligenza artificiale è ottima per frontend, immagini e video. Ma per qualsiasi cosa sottile, è necessario leggere profondamente il codice o il testo, e questo significa conoscere l'argomento abbastanza bene da correggere l'intelligenza artificiale.
I ricercatori ne sono ben consapevoli, ed è per questo che c'è così tanto lavoro sulle valutazioni e sulle allucinazioni.
Tuttavia, il concetto di verifica come collo di bottiglia per gli utenti di IA è poco discusso. Sì, puoi provare la verifica formale, o modelli critici in cui un'intelligenza artificiale ne controlla un'altra, o altre tecniche. Ma anche solo essere consapevoli del problema come un problema di prima classe è metà della battaglia.
Per gli utenti: la verifica dell'intelligenza artificiale è importante quanto la richiesta dell'intelligenza artificiale.
449,31K
Principali
Ranking
Preferiti