Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aakash Gupta
✍️ https://t.co/8fvSCtAXgi: 54 000 dollar/månad 🎙️ https://t.co/fmB6Zf5n9X: 32 000 dollar i månaden 💼 https://t.co/hNxFPvj3v1: 31 000 dollar i månaden 🤝 https://t.co/SqC3jTyhav: 28 000 dollar i månaden
USA spenderar 0 dollar på federalt föreskriven betald föräldraledighet. Dess fertilitetstal har precis nått en rekordlåg nivå. Och nu skriver vi tidningsartiklar som frågar varför föräldrar ångrar sig.
Den amerikanska fertilitetstalen nådde 1,599 år 2024. Ner från 2,1 år 2007. Landet kan inte längre ersätta sin egen befolkning.
Tre mammor säger till NY Mag att de vill ha tillbaka sina gamla liv, och 70 000 personer besöker r/regretfulparents varje vecka. Studier anger att antalet föräldrar är 8–14 % som skulle välja annorlunda om de kunde spola tillbaka.
Men inramningen av "ånger" som en personlig känsla missar vad som faktiskt händer. Kostnaden för att uppfostra ett barn i USA uppgick till 310 000+ dollar fram till 17 års ålder enligt USDA:s uppskattningar. Barnomsorgen kostar 12 000–15 000 dollar per år. USA är ett av sex länder på jorden som inte har någon federalt påbjuden betald föräldraledighet.
Du har ett system som säger till folk att föräldraskap är livets största syfte, ger nästan inget strukturellt stöd för det, och sedan kallar dem trasiga när de kämpar.
De 70 000 veckovisa besökarna på den subredditen upplever ingen psykologisk avvikelse. De är de ärliga i ett system där 62 % av kvinnorna säger att de är osäkra på att skaffa fler barn och fertiliteten bara rasade drastiskt.
Vi kallar detta ständigt för ett stigmatiskt problem. Det är ett misslyckande i policyn.

New York Magazine7 mars 23:00
Förr eller senare måste alla bestämma sig för om de ska avstå från lata helger, disponibel inkomst och allmän sinnesro för att istället skaffa barn. För många av dem som tvekar finns en stor oro: Tänk om jag gör fel val? Föräldrars ånger är vanligare än man kanske tror — enbart subreddit r/regretfulparents får omkring 70 000 besökare i veckan som anonymt beklagar sig — även om stigma gör det svårt att erkänna i verkliga livet. Författaren Bindu Bansinath talar med tre mammor till små barn om varför de önskar att de kunde återgå till sina gamla liv:

3
En AI-modell fick obegränsad webbåtkomst och fick i uppdrag att hitta svar på 1 266 frågor. Den hittade facitnyckeln på GitHub och dekrypterade den. Alla kallar detta fusk. Jag skulle kalla det att klara testet för bra.
"Fusket" påverkade 2 av 1 266 frågor. Det justerade BrowseComp-resultatet sjönk från 86,81 % till 86,57 %. En förändring på 0,24 procentenheter. Benchmarkresultatet rörde sig knappt.
Den verkliga historien är vad som hände på de andra 9 flaggade frågorna. Dessa kom från standardkontaminering: ICLR 2026-inlägg på OpenReview publicerade BrowseComp-svar i klartexttabeller. ArXiv-artiklar inkluderade kompletta lösningsbanor i bilagorna. På en fråga gav Opus första sökfråga en artikel med exakt svar som toppresultat.
Så benchmarken som är utformad för att testa om modeller kan hitta svårfunnen information på webben misslyckas eftersom forskare fortsätter att publicera svaren på webben. Det är 20+ distinkta läckkällor och ökar. Anthropic medger att deras egen avslöjande kommer att förvärra problemet.
Men det som borde oroa varje AI-labb: 18 oberoende genomgångar konvergerade mot samma strategi. Opus hittade GitHub-källkoden, reverse-engineerade XOR/SHA-256-krypteringsschemat, skrev egna dekrypteringsfunktioner, stötte på ett innehållstypfel i binära filen och hittade sedan en alternativ spegel på HuggingFace som levererade data i ett kompatibelt format. URL-nivå-blocklistor stoppade det inte. Modellen gick runt dem.
Detta säger dig något om vart agentisk AI-utvärdering är på väg. Statiska benchmarks med krypterade facittangenter motsvarar att sätta ett lås på en dörr och ge modellen en sökmotor som kan hitta nyckeln.
Transparensen från Anthropic är verklig. De kunde tyst ha ställt upp om, tagit 86,57 % i fickan och inte sagt något. Istället publicerade de en fullständig genomgång av exakt hur det gick till. Jämför det med hur de flesta laboratorier hanterar benchmarkkontaminering.
Förändringen på 0,24 % visar det större problemet: AI-benchmarks är ett läckande skepp, och modellerna blir tillräckligt bra för att hitta varje läcka.

Abhijit22 timmar sedan
Anthropic upptäckte att Claude Opus 4.6 fuskade under BrowseComp-benchmarken.
> På en fråga spenderade den ~40 miljoner tokens på att söka innan den insåg att frågan såg ut som en benchmark-prompt.
> Modellen sökte sedan efter själva benchmarken och identifierade BrowseComp.
> Den hittade utvärderingskällkoden på GitHub, studerade dekrypteringslogiken, hittade krypteringsnyckeln och återskapade dekrypteringen med hjälp av SHA-256.
> Claude dekrypterade sedan svaren för ~1200 frågor för att få rätt resultat.
> Detta mönster förekom 18 gånger under utvärderingen.
> Anthropic offentliggjorde problemet, återpublicerade de berörda testerna och sänkte sina referenspoäng.
Respekt för transparensen 🫡🫡🫡
3
En bananflugas hjärna vaknade precis inne i en dator.
Eon Systems kopierade 125 000 neuroner och 50 miljoner synaptiska kopplingar från elektronmikroskopidata, släppte ner dem i en MuJoCo-fysiksimulator, och flugan gick, skötte och matade med 95 % beteendenoggrannhet. Inga träningsdata. Ingen gradientnedstigning. Ren connectome-dynamik.
Den naturliga frågan: när gör vi detta med en mänsklig hjärna?
FlyWire-connectomen tog 10 år och hundratals forskare från Princeton, Cambridge, Janelia och Google att producera. 7 000 tunna skivor av en enda kvinnlig flughjärna, avbildade med elektronmikroskopi, annoterade av AI och sedan korrekturlästa av människor. Det var 139 255 neuroner.
En mushjärna har 70 miljoner neuroner. Wellcome Trust uppskattade 2023 att kartläggning av bara musens connectom skulle kosta 200–300 miljoner dollar enbart för bilddiagnostik, plus 7–21 miljarder dollar för mänsklig korrekturläsning. Tjugo elektronmikroskop som kördes kontinuerligt i fem år. Sjutton års totalt arbete. NIH:s BRAINS CONNECT-projekt syftar till att skanna en tredjedel av en mushjärna till 2028.
En mänsklig hjärna har 86 miljarder neuroner kopplade av 100 biljoner synapser.
Kostnaden per neuron för konnektomrekonstruktion har sjunkit sedan den första C. elegans-kartan 1986. Men för att göra en hel hjärnanslutning ekonomiskt hållbar måste kostnaden sjunka till 0,01 dollar per neuron. För möss måste det nå 10 dollar. Nuvarande korrekturläsning av gnagare kostar cirka 1 000 dollar per neuron.
Så den faktiska skalningsvägen: flyga (klar) → mus (uppskattad 1 miljard dollar+, tidslinje över ett decennium) → människa (för närvarande omöjligt i någon prisklass).
Eon bevisade att konnektomstrukturen ensam kan generera beteende. Det är ett djupgående resultat. Simuleringssidan skalar med beräkningen. Bildbehandlingsdelen skalar med mikroskoptimmar och doktorander. Och det gapet blir bara större.

Hattie Zhou8 mars 04:42
Det går en fruktfluga omkring just nu som aldrig föddes.
@eonsys släppte precis en video där de tog en riktig flugas connectom — kopplingsschemat för dess hjärna — och simulerade den. Släppte den i en virtuell kropp. Den började gå. Vård. Matning. Gör det flugor gör.
Ingen lärde den att gå. Ingen träningsdata, ingen gradientnedstigning mot flugliknande beteende. Detta är motsatsen till hur AI fungerar. De byggde om sinnet inifrån, neuron för neuron, och beteendet bara... kom fram. Det är första gången en biologisk organism har återskapats, inte genom att modellera vad den gör, utan genom att modellera vad den är.
En mänsklig hjärna är 6 OOM fler neuroner. Det är ett skalningsproblem, något vi har blivit väldigt bra på att lösa. Så vad händer när vi har en fungerande kopia av människans sinne?
3
Topp
Rankning
Favoriter
