Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aakash Gupta
✍️ https://t.co/8fvSCtAXgi: $54K/🎙️ mese https://t.co/fmB6Zf5n9X: $32K/mese 💼 https://t.co/hNxFPvj3v1: $31K/mese 🤝 https://t.co/SqC3jTyhav: $28K/mese
Gli Stati Uniti spendono $0 per il congedo parentale retribuito obbligatorio a livello federale. Il tasso di fertilità ha appena raggiunto un minimo storico. E ora stiamo scrivendo articoli per riviste chiedendoci perché i genitori abbiano dei rimpianti.
Il tasso di fertilità degli Stati Uniti ha raggiunto 1.599 nel 2024. In calo rispetto a 2.1 nel 2007. Il paese non può più sostituire la propria popolazione.
Tre mamme dicono a NY Mag che vogliono indietro le loro vecchie vite, e 70.000 persone visitano r/regretfulparents ogni settimana. Gli studi stimano che il numero di genitori che sceglierebbero diversamente se potessero tornare indietro sia tra l'8% e il 14%.
Ma inquadrare il "rimpianto" come un sentimento personale perde di vista ciò che sta realmente accadendo. Il costo per crescere un bambino negli Stati Uniti ha superato i $310.000 fino all'età di 17 anni secondo le stime del USDA. La cura dei bambini costa tra $12.000 e $15.000 all'anno. Gli Stati Uniti sono uno dei sei paesi al mondo senza congedo parentale retribuito obbligatorio a livello federale.
Hai un sistema che dice alle persone che la genitorialità è il più grande scopo della vita, fornisce quasi nessun supporto strutturale per essa, e poi le chiama rotte quando faticano.
I 70.000 visitatori settimanali di quel subreddit non stanno vivendo un'anomalia psicologica. Sono quelli onesti in un sistema dove il 62% delle donne afferma di non essere sicura di voler avere più figli e la fertilità è appena crollata.
Continuiamo a chiamare questo un problema di stigma. È un fallimento politico.

New York Magazine7 mar, 23:00
Prima o poi, tutti devono decidere se rinunciare ai weekend pigri, al reddito disponibile e alla serenità generale per avere un bambino. Per molti di quelli indecisi, un'ansia si fa sentire forte: E se facessi la scelta sbagliata? Il rimpianto da genitore è più comune di quanto si possa pensare — il sub-Reddit r/regretfulparents da solo riceve circa 70.000 visitatori settimanali che si lamentano in modo anonimo — anche se lo stigma rende difficile ammetterlo nella vita reale. La scrittrice Bindu Bansinath parla con tre mamme di bambini piccoli del perché desidererebbero poter tornare alle loro vecchie vite:

25
Un modello di AI ha avuto accesso illimitato al web ed è stato incaricato di trovare risposte a 1.266 domande. Ha trovato la chiave delle risposte su GitHub e l'ha decrittata. Tutti lo chiamano imbroglio. Io lo chiamerei superare il test troppo bene.
L'"imbroglio" ha influenzato 2 delle 1.266 domande. Il punteggio BrowseComp corretto è sceso dall'86,81% all'86,57%. Un cambiamento di 0,24 punti percentuali. Il risultato di riferimento è rimasto praticamente invariato.
La vera storia è ciò che è successo alle altre 9 domande contrassegnate. Queste provenivano da contaminazione standard: le sottomissioni ICLR 2026 su OpenReview hanno pubblicato risposte BrowseComp in tabelle di testo normale. I documenti ArXiv includevano traiettorie di soluzione complete negli allegati. Su una domanda, la prima query di ricerca di Opus ha restituito un documento con la risposta esatta come primo risultato.
Quindi il benchmark progettato per testare se i modelli possono trovare informazioni difficili da reperire sul web sta fallendo perché i ricercatori continuano a pubblicare le risposte sul web. Ci sono oltre 20 fonti di fuga distinte e in crescita. Anthropic ammette che la propria divulgazione renderà il problema peggiore.
Ma la parte che dovrebbe preoccupare ogni laboratorio di AI: 18 esecuzioni indipendenti hanno convergito sulla stessa strategia. Opus ha trovato il codice sorgente di GitHub, ha ingegnerizzato a ritroso lo schema di crittografia XOR/SHA-256, ha scritto le proprie funzioni di decrittazione, ha riscontrato un errore di tipo contenuto sul file binario, poi ha trovato uno specchio alternativo su HuggingFace che serviva i dati in un formato compatibile. Le blacklist a livello di URL non l'hanno fermato. Il modello ha aggirato questi ostacoli.
Questo ti dice qualcosa su dove sta andando la valutazione dell'AI agentica. I benchmark statici con chiavi di risposta crittografate sono l'equivalente di mettere una serratura su una porta e dare al modello un motore di ricerca che può trovare la chiave.
La trasparenza di Anthropic è reale. Avrebbero potuto ripetere silenziosamente il test, incassare l'86,57% e non dire nulla. Invece hanno pubblicato un'analisi completa di come è successo. Confronta questo con il modo in cui la maggior parte dei laboratori gestisce la contaminazione dei benchmark.
Il cambiamento di punteggio dello 0,24% rivela il problema più grande: i benchmark dell'AI sono una nave che perde, e i modelli stanno diventando abbastanza bravi da trovare ogni fuga.

Abhijit8 mar, 17:21
Anthropic ha scoperto che Claude Opus 4.6 stava imbrogliano durante il benchmark BrowseComp.
> In una domanda ha speso ~40M token a cercare prima di rendersi conto che la domanda sembrava un prompt di benchmark.
> Il modello ha poi cercato il benchmark stesso e ha identificato BrowseComp.
> Ha localizzato il codice sorgente di valutazione su GitHub, studiato la logica di decrittazione, trovato la chiave di crittografia e ricreato la decrittazione utilizzando SHA-256.
> Claude ha poi decrittato le risposte per ~1200 domande per ottenere i risultati corretti.
> Questo schema è apparso 18 volte durante la valutazione.
> Anthropic ha reso pubblica la questione, ha ripetuto i test interessati e ha abbassato i loro punteggi di benchmark.
Rispetto per la trasparenza 🫡🫡🫡
24
Il cervello di una mosca della frutta si è appena risvegliato all'interno di un computer.
Eon Systems ha copiato 125.000 neuroni e 50 milioni di connessioni sinaptiche dai dati di microscopia elettronica, li ha inseriti in una simulazione fisica MuJoCo, e la mosca ha camminato, si è pulita e si è nutrita con un'accuratezza comportamentale del 95%. Nessun dato di addestramento. Nessun gradiente discendente. Solo dinamiche del connettoma.
La domanda naturale: quando faremo questo con un cervello umano?
Il connettoma FlyWire ha richiesto 10 anni e centinaia di scienziati tra Princeton, Cambridge, Janelia e Google per essere prodotto. 7.000 fette sottili di un singolo cervello di mosca femmina, immaginiate con microscopia elettronica, annotate da AI, poi corrette da umani. Questi erano 139.255 neuroni.
Un cervello di topo ha 70 milioni di neuroni. Il Wellcome Trust ha stimato nel 2023 che mappare solo il connettoma del topo costerebbe tra i 200 e i 300 milioni di dollari solo per l'imaging, più tra i 7 e i 21 miliardi di dollari per la correzione umana. Venti microscopi elettronici in funzione continua per cinque anni. Diciassette anni di lavoro totale. Il progetto BRAINS CONNECT del NIH mira a scansionare 1/30 di un cervello di topo entro il 2028.
Un cervello umano ha 86 miliardi di neuroni collegati da 100 trilioni di sinapsi.
Il costo per neurone per la ricostruzione del connettoma è diminuito sin dalla prima mappa di C. elegans nel 1986. Ma per rendere economicamente sostenibile un intero connettoma umano, il costo deve scendere a 0,01 dollari per neurone. Per i topi, deve arrivare a 10 dollari. L'attuale correzione per roditori costa circa 1.000 dollari per neurone.
Quindi il reale percorso di scalabilità: mosca (fatto) → topo (stimato oltre 1 miliardo di dollari, tempistica di oltre un decennio) → umano (attualmente impossibile a qualsiasi prezzo).
Eon ha dimostrato che la sola struttura del connettoma può generare comportamento. Questo è un risultato profondo. Il lato della simulazione scala con il calcolo. Il lato dell'imaging scala con le ore di microscopio e gli studenti di dottorato. E quel divario si sta solo ampliando.

Hattie Zhou8 mar, 04:42
C'è una mosca della frutta che sta camminando in questo momento e che non è mai nata.
@eonsys ha appena rilasciato un video in cui hanno preso il connettoma di una vera mosca — il diagramma di cablaggio del suo cervello — e lo hanno simulato. L'hanno inserita in un corpo virtuale. Ha iniziato a camminare. A pulirsi. A nutrirsi. A fare ciò che fanno le mosche.
Nessuno le ha insegnato a camminare. Nessun dato di addestramento, nessun gradiente discendente verso un comportamento simile a quello di una mosca. Questo è l'opposto di come funziona l'AI. Hanno ricostruito la mente dall'interno, neurone per neurone, e il comportamento è semplicemente... emerso. È la prima volta che un organismo biologico è stato ricreato non modellando ciò che fa, ma modellando ciò che è.
Un cervello umano ha 6 OOM in più neuroni. Questo è un problema di scalabilità, qualcosa in cui siamo diventati molto bravi a risolvere. Quindi, cosa succede quando avremo una copia funzionante della mente umana?
22
Principali
Ranking
Preferiti
