Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Nathan Lambert
Capire i @allen_ai AI, i modelli aperti, RLHF, la messa a punto, ecc.
Contatto via e-mail.
Scrive @interconnectsai
Ha scritto il libro RLHF
Corridore di montagna
Cosa manca: investimenti in modelli open source e altre cose per supportare l'ecosistema di ricerca a lungo termine che renderà gli Stati Uniti la casa a lungo termine dell'innovazione nell'IA. Qualcosa che il nostro paese sta attualmente mancando ma che è risolvibile.

Anthropic7 ore fa
Nuovo rapporto di Anthropic: Costruire l'IA in America.
Delineiamo cosa sarà necessario per garantire che l'America abbia l'energia e le infrastrutture di cui ha bisogno per mantenere la sua leadership nell'IA.

402
Scrivere ogni settimana come ricercatore mi dà:
1. Un migliore senso di quali progetti scegliere
2. Una migliore capacità di orientare i progetti verso un impatto maggiore
3. Libertà di dedicare del tempo mentale a pensare a qualcos'altro, anche se il progetto è bloccato
Consiglio vivamente.

Derek Thompson21 lug, 09:34
Sì.
Scrivere non è una cosa secondaria che avviene dopo aver pensato. L'atto di scrivere è un atto di pensiero. Scrivere *è* pensare.
Gli studenti, gli accademici e chiunque altro esternalizzi la propria scrittura a LLM troverà i propri schermi pieni di parole e le proprie menti svuotate di pensiero.

17,03K
per il tuo intrattenimento :)

AI Engineer20 lug, 05:31
🆕 Rilasciamo l'intero nostro percorso RL + Reasoning!
con:
• @willccbb, Prime Intellect
• @GregKamradt, Arc Prize
• @natolambert, AI2/Interconnects
• @corbtt, OpenPipe
• @achowdhery, Reflection
• @ryanmart3n, Bespoke
• @ChrSzegedy, Morph
con un workshop speciale di 3 ore da:
@danielhanchen di Unsloth!
inizia qui:
Buon weekend di visione! e grazie a @OpenPipeAI per il supporto e l'hosting di questo percorso!

8,87K
Aggiungere un modo interessante per visualizzare l'obiettivo PPO al libro rlhf. Il nucleo per il policy-gradient è L~ R*A (R=rapporto di policy, A = vantaggio).
Rendere le buone azioni più probabili fino a un certo punto.
Rendere le cattive azioni meno probabili fino a un certo punto.
Il min(...), e il segno di adv determinano quale linea.

9,38K
Lo scopo di questo è evitare le psyops, non sminuire un evidente e grande traguardo tecnico, dai fam, non sono un hater dell'IA.
ci sono così tanti haters nelle risposte.

Nathan Lambert19 lug, 21:23
Non cadere nell'hype vago di OpenAI riguardo al nuovo modello IMO gold con "RL a scopo generale" e qualsiasi altra "scoperta". Anche Google ha ottenuto IMO gold (più difficile da padroneggiare rispetto all'AIME), ma ricorda, le idee semplici scalano meglio.
11,84K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari