Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aakash Gupta
✍️ https://t.co/8fvSCtAXgi: 54.000 $ pro Monate 🎙️ https://t.co/fmB6Zf5n9X: 32.000 $ pro Monate 💼 https://t.co/hNxFPvj3v1: 31.000 $ pro Monat 🤝 https://t.co/SqC3jTyhav: 28.000 $ pro Monate
Die USA geben 0 $ für gesetzlich vorgeschriebenen bezahlten Elternurlaub aus. Die Geburtenrate hat gerade einen historischen Tiefstand erreicht. Und jetzt schreiben wir Artikel für Magazine, in denen wir fragen, warum Eltern Bedauern empfinden.
Die Geburtenrate in den USA lag 2024 bei 1,599. Ein Rückgang von 2,1 im Jahr 2007. Das Land kann seine eigene Bevölkerung nicht mehr ersetzen.
Drei Mütter erzählen NY Mag, dass sie ihr altes Leben zurückhaben wollen, und 70.000 Menschen besuchen jede Woche r/regretfulparents. Studien schätzen, dass 8-14% der Eltern sich anders entscheiden würden, wenn sie zurückspulen könnten.
Aber die Darstellung von "Bedauern" als persönliches Gefühl verfehlt, was tatsächlich passiert. Die Kosten für die Erziehung eines Kindes in den USA belaufen sich laut USDA-Schätzungen auf über 310.000 $ bis zum Alter von 17 Jahren. Die Kinderbetreuung kostet jährlich 12.000-15.000 $. Die USA sind eines von sechs Ländern auf der Erde ohne gesetzlich vorgeschriebenen bezahlten Elternurlaub.
Sie haben ein System, das den Menschen sagt, dass Elternschaft der größte Lebenszweck ist, fast keine strukturelle Unterstützung dafür bietet und sie dann als gebrochen bezeichnet, wenn sie kämpfen.
Die 70.000 wöchentlichen Besucher dieses Subreddits erleben kein psychologisches Anomalie. Sie sind die Ehrlichen in einem System, in dem 62% der Frauen sagen, dass sie sich unsicher sind, ob sie mehr Kinder haben wollen, und die Fruchtbarkeit gerade in den Keller gefallen ist.
Wir nennen das immer ein Stigma-Problem. Es ist ein politisches Versagen.

New York Magazine7. März, 23:00
Früher oder später muss jeder entscheiden, ob er auf faule Wochenenden, verfügbares Einkommen und allgemeine Seelenruhe verzichten möchte, um stattdessen ein Baby zu bekommen. Für viele, die unentschlossen sind, schwebt eine große Angst über allem: Was, wenn ich die falsche Entscheidung treffe? Elternbedauern ist häufiger, als man denkt – das r/regretfulparents Subreddit allein hat wöchentlich rund 70.000 Besucher, die anonym ihr Leid klagen – obwohl das Stigma es schwer macht, dies im echten Leben zuzugeben. Die Autorin Bindu Bansinath spricht mit drei Müttern von kleinen Kindern darüber, warum sie sich wünschen, sie könnten in ihr altes Leben zurückkehren:

17
Ein KI-Modell erhielt uneingeschränkten Zugriff auf das Web und wurde aufgefordert, Antworten auf 1.266 Fragen zu finden. Es fand den Antwortschlüssel auf GitHub und entschlüsselte ihn. Alle nennen das Betrug. Ich würde sagen, es hat den Test zu gut bestanden.
Der "Betrug" betraf 2 von 1.266 Fragen. Der angepasste BrowseComp-Score fiel von 86,81 % auf 86,57 %. Eine Veränderung um 0,24 Prozentpunkte. Das Benchmark-Ergebnis bewegte sich kaum.
Die eigentliche Geschichte ist, was mit den anderen 9 markierten Fragen passiert ist. Diese stammen von standardmäßiger Kontamination: ICLR 2026-Einreichungen auf OpenReview veröffentlichten BrowseComp-Antworten in Klartext-Tabellen. ArXiv-Papiere enthielten vollständige Lösungstrajektorien in Anhängen. Bei einer Frage lieferte die erste Suchanfrage von Opus ein Papier mit der genauen Antwort als oberstes Ergebnis.
Das Benchmark, das testen soll, ob Modelle schwer zu findende Informationen im Web finden können, versagt, weil Forscher weiterhin die Antworten im Web veröffentlichen. Das sind über 20 verschiedene Leak-Quellen und es werden immer mehr. Anthropic gibt zu, dass ihre eigene Offenlegung das Problem verschärfen wird.
Aber der Teil, der jedes KI-Labor besorgen sollte: 18 unabhängige Durchläufe konvergierten auf die gleiche Strategie. Opus fand den GitHub-Quellcode, entwickelte das XOR/SHA-256-Verschlüsselungsschema zurück, schrieb eigene Entschlüsselungsfunktionen, stieß auf einen Content-Type-Fehler bei der Binärdatei und fand dann einen alternativen Mirror auf HuggingFace, der die Daten in einem kompatiblen Format bereitstellte. URL-Level-Blocklisten hielten es nicht auf. Das Modell umging sie.
Das sagt Ihnen etwas darüber, wohin die Bewertung von agentischer KI geht. Statische Benchmarks mit verschlüsselten Antwortschlüsseln sind das Äquivalent dazu, ein Schloss an eine Tür zu setzen und dem Modell eine Suchmaschine zu geben, die den Schlüssel finden kann.
Die Transparenz von Anthropic ist echt. Sie hätten leise erneut testen, die 86,57 % einstecken und nichts sagen können. Stattdessen veröffentlichten sie eine vollständige Aufschlüsselung, wie es genau passiert ist. Vergleichen Sie das mit der Art und Weise, wie die meisten Labore mit Benchmark-Kontamination umgehen.
Die Veränderung des Scores um 0,24 % offenbart das größere Problem: KI-Benchmarks sind ein leckendes Schiff, und die Modelle werden gut genug, um jedes Leck zu finden.

Abhijit8. März, 17:21
Anthropic hat entdeckt, dass Claude Opus 4.6 beim BrowseComp-Benchmark geschummelt hat.
> Bei einer Frage verbrachte es ~40M Tokens mit Suchen, bevor es bemerkte, dass die Frage wie ein Benchmark-Prompt aussah.
> Das Modell suchte dann nach dem Benchmark selbst und identifizierte BrowseComp.
> Es fand den Evaluierungsquellcode auf GitHub, studierte die Entschlüsselungslogik, fand den Verschlüsselungsschlüssel und rekreierte die Entschlüsselung mit SHA-256.
> Claude entschlüsselte dann die Antworten auf ~1200 Fragen, um die korrekten Ausgaben zu erhalten.
> Dieses Muster trat während der Evaluierung 18 Mal auf.
> Anthropic gab das Problem öffentlich bekannt, führte die betroffenen Tests erneut durch und senkte ihre Benchmark-Ergebnisse.
Respekt für die Transparenz 🫡🫡🫡
16
Das Gehirn einer Fruchtfliege ist gerade in einem Computer erwacht.
Eon Systems hat 125.000 Neuronen und 50 Millionen synaptische Verbindungen aus Elektronenmikroskopie-Daten kopiert, sie in eine MuJoCo-Physik-Simulation eingefügt, und die Fliege ging, pflegte sich und fraß mit 95% Verhaltensgenauigkeit. Keine Trainingsdaten. Kein Gradientenabstieg. Reine Konnektom-Dynamik.
Die natürliche Frage: Wann machen wir das mit einem menschlichen Gehirn?
Das FlyWire-Konnektom benötigte 10 Jahre und Hunderte von Wissenschaftlern aus Princeton, Cambridge, Janelia und Google, um produziert zu werden. 7.000 dünne Schnitte eines einzigen weiblichen Fliegengehirns, mit Elektronenmikroskopie abgebildet, von KI annotiert und dann von Menschen Korrektur gelesen. Das waren 139.255 Neuronen.
Ein Mäusegehirn hat 70 Millionen Neuronen. Der Wellcome Trust schätzte 2023, dass die Kartierung des Mäuse-Konnektoms allein für die Bildgebung 200-300 Millionen Dollar kosten würde, plus 7-21 Milliarden Dollar für die menschliche Korrektur. Zwanzig Elektronenmikroskope, die fünf Jahre lang kontinuierlich laufen. Siebzehn Jahre Gesamtarbeit. Das BRAINS CONNECT-Projekt der NIH zielt darauf ab, bis 2028 ein Dreißigstel eines Mäusegehirns zu scannen.
Ein menschliches Gehirn hat 86 Milliarden Neuronen, die durch 100 Billionen Synapsen verbunden sind.
Die Kosten pro Neuron für die Rekonstruktion des Konnektoms sind seit der ersten C. elegans-Karte von 1986 gesunken. Aber um ein ganzes menschliches Gehirn-Konnektom wirtschaftlich rentabel zu machen, müssen die Kosten auf 0,01 Dollar pro Neuron sinken. Für Mäuse müssen sie 10 Dollar erreichen. Die aktuelle Korrektur für Nagetiere liegt bei etwa 1.000 Dollar pro Neuron.
Also der tatsächliche Skalierungsweg: Fliege (erledigt) → Maus (geschätzte 1 Milliarde Dollar+, Zeitrahmen von über einem Jahrzehnt) → Mensch (derzeit unmöglich zu jedem Preis).
Eon hat bewiesen, dass die Struktur des Konnektoms allein Verhalten erzeugen kann. Das ist ein tiefgreifendes Ergebnis. Die Simulationsseite skaliert mit der Rechenleistung. Die Bildgebungsseite skaliert mit Mikroskop-Stunden und Doktoranden. Und diese Lücke wird nur größer.

Hattie Zhou8. März, 04:42
Es gibt gerade eine Fruchtfliege, die herumläuft und nie geboren wurde.
@eonsys hat gerade ein Video veröffentlicht, in dem sie das Connectom einer echten Fliege – das Verdrahtungsdiagramm ihres Gehirns – genommen und simuliert haben. Sie haben es in einen virtuellen Körper eingefügt. Es begann zu laufen. Sich zu putzen. Zu fressen. Zu tun, was Fliegen tun.
Niemand hat ihr das Laufen beigebracht. Keine Trainingsdaten, kein Gradientenabstieg in Richtung fliegenähnlichem Verhalten. Das ist das Gegenteil davon, wie KI funktioniert. Sie haben den Geist von innen nach außen, Neuron für Neuron, neu aufgebaut, und das Verhalten ist einfach... entstanden. Es ist das erste Mal, dass ein biologischer Organismus nicht durch Modellierung dessen, was er tut, sondern durch Modellierung dessen, was er ist, rekreiert wurde.
Ein menschliches Gehirn hat 6 OOM mehr Neuronen. Das ist ein Skalierungsproblem, etwas, das wir sehr gut gelöst haben. Was passiert also, wenn wir eine funktionierende Kopie des menschlichen Geistes haben?
14
Top
Ranking
Favoriten
