Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Simon Willison
Vedo un sacco di post che incolpano quella terribile fuga di dati dell'app Tea sul coding di vibe.
Non penso che il coding di vibe sia stato coinvolto affatto: la dichiarazione di Tea dice che la fuga ha coinvolto "un sistema di archiviazione dati legacy" di febbraio 2024 - il coding di vibe non stava davvero accadendo in quel periodo.

88,91K
Qualcuno ha successo nell'eseguire un ciclo di codifica agentico in stile Claude Code contro un modello locale?
Questo sembra essere la sfida definitiva per la chiamata di strumenti locali in questo momento, poiché richiede potenzialmente dozzine di chiamate in un ciclo e buone prestazioni su un contesto più lungo.
71,07K
Anthropic ha appena aumentato di 10 volte il limite di velocità per il livello 2 e oltre
Il livello 2 è quello che ottieni quando hai acquistato almeno 40 dollari di crediti - il limite di velocità precedente per Sonnet 4 era di 40.000 token al minuto, il nuovo limite è di 450.000 token al minuto!
(Il numero di richieste al minuto per il livello 2 è rimasto a 1.000)
27,75K
GitHub ha rilasciato Spark ieri, la loro piattaforma estremamente ben progettata per passare da un prompt a un'app per creare e iterare su app React con autenticazione utente e archiviazione persistente.
Mi piace molto! L'ho ingegnerizzato a ritroso con Spark stesso, i dettagli sono affascinanti.
155,26K
Qual è il miglior modello locale che sei riuscito a far funzionare su macOS per l'uso degli strumenti, e come lo hai eseguito?
Non ho avuto grandi risultati con quelli che ho provato su Ollama - anche per cose molto basilari (chiamate singole) sembrano spesso dimenticare di chiamarle o dimenticare di rispondere in base al risultato.
127,65K
La cosa più notevole di questo risultato è che questo modello di ragionamento sperimentale senza nome ha raggiunto questo punteggio senza alcun utilizzo di strumenti - sembra essere solo un altro classico LLM che predice il prossimo token con un sacco di apprendimento per rinforzo sovrapposto.
41,11K
75 centesimi al secondo per la generazione di video Veo 3 tramite la nuova API (o 50 centesimi al secondo senza audio) - sono $45/minuto (o $30/minuto in silenzio) e $2,700 (o $1,800) all'ora

Logan Kilpatrick18 lug, 01:13
Veo 3 is now live in the Gemini API 📽️!!
Veo 3 is state of the art, can natively generative audio in the videos, comes with rate limits for scaled production use, and is priced at $0.75 per second w/ audio and $0.50 w/o audio. More in 🧵
48,66K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari