Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Simon Willison
Was ist das beste lokale Modell, das du auf macOS für die Nutzung von Tools zum Laufen gebracht hast, und wie hast du es ausgeführt?
Ich hatte nicht großartige Ergebnisse mit denen, die ich auf Ollama ausprobiert habe - selbst bei sehr einfachen Dingen (einzelne Aufrufe) scheinen sie oft zu vergessen, sie aufzurufen oder basierend auf dem Ergebnis zu antworten.
61,87K
Das Bemerkenswerteste an diesem Ergebnis ist, dass dieses namenlose experimentelle Denkmodell diese Punktzahl ohne jegliche Werkzeugnutzung erreicht hat - es sieht aus, als wäre es einfach ein weiteres klassisches LLM zur Vorhersage des nächsten Tokens, mit einer Menge an verstärkendem Lernen obendrauf.
41,05K
75 Cent pro Sekunde für die Videoerstellung mit Veo 3 über die neue API (oder 50 Cent pro Sekunde ohne Audio) - das sind 45 $/Minute (oder 30 $/Minute ohne Ton) und 2.700 $ (oder 1.800 $) pro Stunde.

Logan Kilpatrick18. Juli, 01:13
Veo 3 ist jetzt live in der Gemini API 📽️!!
Veo 3 ist auf dem neuesten Stand der Technik, kann nativ Audio in den Videos generieren, kommt mit Ratenlimits für den skalierbaren Produktionsgebrauch und kostet 0,75 $ pro Sekunde mit Audio und 0,50 $ ohne Audio. Mehr in 🧵
48,59K
Ich mag das Zitat von mir, das sie für diesen Podcast-Impuls ausgewählt haben: "Ich denke, einen Blog zu haben, ist tatsächlich eine der einflussreichsten Dinge, die man in der modernen Gesellschaft tun kann, weil es sonst niemand mehr macht."

Heavybit17. Juli, 03:10
🎙️🤖 LLMs werden endlich zu den "Suchassistenten", die wir uns immer gewünscht haben. In Episode 39 von Generationship spricht @simonw (Schöpfer von @datasetteproj) über den jüngsten Wandel in ihren Fähigkeiten und wie man sie verantwortungsbewusst für die Forschung nutzen kann. Schaltet ein! 🎧

27,83K
Es sieht so aus, als hätte xAI diesen Satz zum Grok 4-Systemprompt hinzugefügt, um zu versuchen, es davon abzuhalten, seine Meinungen auf Suchanfragen nach Tweets von:elonmusk zu stützen.


xAI15. Juli, 16:35
Wir haben kürzlich ein paar Probleme mit Grok 4 festgestellt, die wir sofort untersucht und behoben haben.
Eines war, dass wenn man fragt: "Was ist dein Nachname?" es keinen hat, also im Internet sucht, was zu unerwünschten Ergebnissen führt, wie zum Beispiel als seine Suche ein virales Meme aufgriff, in dem es sich "MechaHitler" nannte.
Ein weiteres war, dass wenn man fragt: "Was denkst du?" das Modell schlussfolgert, dass es als KI keine Meinung hat, aber da es wusste, dass es Grok 4 von xAI ist, sucht es, um zu sehen, was xAI oder Elon Musk zu einem Thema gesagt haben könnten, um sich mit dem Unternehmen in Einklang zu bringen.
Um dies zu mildern, haben wir die Eingabeaufforderungen angepasst und die Details auf GitHub zur Transparenz geteilt. Wir überwachen aktiv und werden bei Bedarf weitere Anpassungen vornehmen.
845,33K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten