Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dhravya Shah
20. @supermemory Hauptbauer, Sologründer
Ich baue jetzt seit Jahren in diesem Bereich und habe Nishkarsh ebenfalls seit Jahren verfolgt - Glückwunsch zum Launch!
Da dies im gleichen Bereich ist, in dem wir tätig sind, habe ich mich intensiv damit beschäftigt und habe Gedanken dazu.
Der Launch selbst ist sehr hype-orientiert und soll Rage-Bait auslösen.
1. Es wird als Datenbank positioniert, ist aber fast ein @supermemory-ähnliches System.
2. Ihr Beispiel von "Vektor-Datenbanken", die dies nicht können, ist wirklich eine Frage der "Embedding-Modelle". Und Embedding-Modelle haben Überlagerungen, sie sind günstig und können Unterschiede zwischen ihnen leicht ableiten. Es ist nicht schwer, Claude zu bitten, ein Mini-Experiment durchzuführen, um dies zu beweisen (siehe unten angehängt).
Was wichtig ist: Kann es verfolgen, wie Wissen sich entwickelt? Vergeht die Zeit?
Das hat mich neugierig gemacht, also habe ich ihr Papier gelesen.
3. Ihr Forschungsbericht ist Hardcoding und spielt mit dem Benchmark durch unterschiedliche Eingabeaufforderungen für jede Kategorie!!! (siehe Bild unten). Wenn ihr Benchmarking festgelegt ist, wird Supermemory der SOTA bleiben.
4. Sie haben das Papier zur kontextuellen Abrufung von Anthropic aus 2024 neu erfunden und es "das verwaiste Pronomen-Paradoxon" genannt.
5. Sie erwähnen, dass sie einen benutzerdefinierten "In-Memory-Vektor-Speicher" verwenden = bei etwa 500 GB müssen Sie mehr als 10.000 $ nur für den RAM bezahlen.
6. Die Inferenz wird zu oft in der Pipeline ausgeführt - was bedeutet, dass Sie für jedes LLM-Token, das Sie aufnehmen, 5x mehr als die Token-Kosten für das Graphen + die Kontextualisierung + den Speicher bezahlen werden.
7. Latenz- und Kostenwerte wurden nie berichtet. Mein Bauchgefühl ist, dass die Latenz aufgrund der Architektur im großen Maßstab Schwierigkeiten haben wird. Aber ich kann es nicht sagen - ihr Produkt ist hinter einem Demogate.
8. Der Benchmarking-Code ist nicht OSS (soweit ich das beurteilen kann). Nicht reproduzierbar + wer weiß, wie viel Kontext sie in das Modell injizieren? Was ist das K?
9. Anorganische, nicht offengelegte Werbung (lesen Sie einfach die Zitat-Tweets). Influencer-Konten mit über 400.000 Followern sagen alle dasselbe. Die Leute kommen damit durch @nikitabier lol.
Ich bin ganz für gesunden Wettbewerb und Fortschritt in diesen Bereichen, freue mich, gute Arbeit von anderen zu sehen.
Aber es ist einfach, nur Dinge zu sagen. "Niemand wird nachprüfen." Das Spiel auf die richtige Weise zu spielen, ist schwer, und jeder sagt einfach, was er kann, um die Leute zu beeindrucken.
TLDR ist: Sie sollten dies verwenden, wenn Sie 2-5x mehr ausgeben möchten, ohne wirkliche marginale Verbesserungen zu erzielen, und ungesunde Forschungs- und Geschäftspraktiken genießen möchten.
Angehängt:
1. Experiment, um die Hypothese zu widerlegen, dass Vektor-Datenbanken Grau gegen Grau nicht verstehen.
2. Eine ihrer Eingabeaufforderungen, die einfach sagt: "Sag, ich weiß es nicht". Sie haben 100% erzielt :)



Nishkarsh12. März, 22:16
Wir haben 6,5 Millionen Dollar gesammelt, um Vektordatenbanken zu eliminieren.
Jedes System heute ruft den Kontext auf die gleiche Weise ab: Vektorsuche, die alles als flache Einbettungen speichert und zurückgibt, was sich "am nächsten" anfühlt.
Ähnlich, sicher. Relevant? Fast nie.
Einbettungen können eine Q3-Verlängerungsklausel nicht von einer Q1-Kündigungsmitteilung unterscheiden, wenn die Sprache nah genug ist.
Ein Freund von mir hat letzte Woche seine KI nach einem Vertrag gefragt, und sie gab eine detaillierte, perfekt formulierte Antwort zurück, die aus einer völlig anderen Kundendatei entnommen wurde.
Sobald man es mit über 10 Millionen Dokumenten zu tun hat, passieren solche Verwechslungen ständig.
Die Genauigkeit von VectorDB geht den Bach runter.
Wir haben @hydra_db genau dafür entwickelt.
HydraDB erstellt ein ontologie-basiertes Kontextdiagramm über Ihre Daten, kartiert Beziehungen zwischen Entitäten, versteht das 'Warum' hinter Dokumenten und verfolgt, wie sich Informationen im Laufe der Zeit entwickeln.
Wenn Sie also nach 'Apple' fragen, weiß es, dass Sie das Unternehmen meinen, das Sie als Kunde bedienen. Nicht die Frucht.
Selbst wenn der Ähnlichkeitswert einer Vektordatenbank 0,94 sagt.
Mehr unten ⬇️
179
wow. @solofounding Podcast ist hier
(UND ICH BIN IM VIDEO)

weisser3. März, 05:37
Ankündigung des Solo Founders Podcasts.
Gespräche mit Gründern, die die ehrgeizigsten Unternehmen ohne Mitgründer aufbauen.
Die erste Episode erscheint morgen.
218
Claude hat gerade unser Produkt validiert (getötet) :)
Der Start des Claude-Code-Plugins von @supermemory hatte diese genauen Worte (lernt Debugging-Muster, bevorzugte Ansätze, Projektkontext).
Es ist großartig zu sehen, dass die großen Labore das Gedächtnis übernehmen!


Thariq27. Feb. 2026
Wir haben eine neue Auto-Speicherfunktion eingeführt.
Claude erinnert sich jetzt an das, was es über Sitzungen hinweg lernt – deinen Projektkontext, Debugging-Muster, bevorzugte Ansätze – und ruft es später ab, ohne dass du etwas aufschreiben musst.
215
Top
Ranking
Favoriten
