Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Marc Andreessen 🇺🇸
Ich möchte die KI-Sache mit den Computern machen.
Tun Sie dies unter keinen Umständen. 😆

Matt Shumer12. Juli, 00:51
Frage o3 Pro: „Basierend auf allem, was du über mich weißt, begründe und sage voraus, wie die nächsten 50 Jahre meines Lebens aussehen werden.“
490
„Der Begriff „ChatGPT Wrapper“ ist müde und wirklich, wirklich falsch.“

Andrej Karpathy25. Juni 2025
+1 für "Kontext-Engineering" gegenüber "Prompt-Engineering".
Die Leute assoziieren Prompts mit kurzen Aufgabenbeschreibungen, die man einem LLM im täglichen Gebrauch geben würde. In jeder industrietauglichen LLM-Anwendung ist Kontext-Engineering jedoch die feine Kunst und Wissenschaft, das Kontextfenster mit genau den richtigen Informationen für den nächsten Schritt zu füllen. Wissenschaft, weil es richtig zu machen, Aufgabenbeschreibungen und Erklärungen, wenige Beispielanfragen, RAG, verwandte (möglicherweise multimodale) Daten, Werkzeuge, Zustand und Geschichte, Komprimierung... erfordert. Zu wenig oder in der falschen Form und das LLM hat nicht den richtigen Kontext für optimale Leistung. Zu viel oder zu irrelevant und die Kosten des LLM könnten steigen und die Leistung könnte sinken. Das gut zu machen, ist äußerst anspruchsvoll. Und Kunst, wegen der leitenden Intuition rund um die Psychologie von LLMs und den Geistern der Menschen.
Neben dem Kontext-Engineering selbst muss eine LLM-Anwendung:
- Probleme genau richtig in Kontrollflüsse aufteilen
- die Kontextfenster genau richtig packen
- Anrufe an LLMs der richtigen Art und Fähigkeit dispatchen
- Generierung-Verifizierung UIUX-Flüsse handhaben
- viel mehr - Sicherheitsvorkehrungen, Sicherheit, Bewertungen, Parallelität, Vorababruf, ...
Kontext-Engineering ist also nur ein kleines Stück eines sich entwickelnden dicken Schicht von anspruchsvoller Software, die individuelle LLM-Anrufe (und viel mehr) in vollständige LLM-Anwendungen koordiniert. Der Begriff "ChatGPT-Wrapper" ist müde und wirklich, wirklich falsch.
292,52K
~60% der börsennotierten Unternehmen vernichten Wert. Höhere Verlustquote als bei erstklassigen Risikokapitalgebern? 👀


Marc Andreessen 🇺🇸23. Juni 2025
"Nur 2% der [öffentlichen] Unternehmen [im letzten Jahrhundert] waren für mehr als 90% der gesamten Nettovermögensschöpfung verantwortlich." Langfristige Investitionen in öffentliche Märkte = Investitionen in Risikokapital, ob es dir gefällt oder nicht! HT @mjmauboussin

554,29K
Marc Andreessen 🇺🇸 erneut gepostet
Ich freue mich, unsere Episode mit Adam Neumann, @pmarca und @bhorowitz zu veröffentlichen.
Ich bin inspiriert, dass Adam dreifach auf Flow setzt, indem er Hunderte Millionen Dollar seines eigenen Geldes in das Unternehmen investiert, zusammen mit uns. Das ist Überzeugung.
260,97K
Uff.

Podcast Notes 🗒️8. Juni 2025
3/ DARM HACK: Fermentierte Lebensmittel schlagen alles
Stanford-Studie: Fermentierte Lebensmittel zerstörten ballaststoffreiche Diäten für:
- Reduzierung von Entzündungen
- Verbesserung der Konzentration
- Besserer Schlaf
- Stärkere Immunität
Täglich fermentierte Lebensmittel = tägliches Gehirn-Upgrade.
153,29K
Marc Andreessen 🇺🇸 erneut gepostet
Wir stellen vor: Eleven v3 (alpha) - das ausdrucksstärkste Text-to-Speech-Modell aller Zeiten.
Unterstützt 70+ Sprachen, Dialoge mit mehreren Sprechern und Audio-Tags wie [aufgeregt], [seufzt], [lachen] und [flüstern].
Jetzt in der öffentlichen Alpha-Phase und 80% Rabatt im Juni.
1,41M
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten