je construis dans cet espace depuis des années maintenant, et j'ai suivi nishkarsh pendant des années aussi - félicitations pour le lancement ! puisque cela se situe dans le même domaine que celui dans lequel nous construisons, j'ai plongé profondément dedans et j'ai des réflexions. le lancement lui-même est très hype-y, et est censé déclencher du rage bait. 1. il est positionné comme une base de données, mais c'est presque un système semblable à @supermemory. 2. leur exemple de "vector dbs" qui ne peuvent pas faire cela, est vraiment une question de "modèles d'embedding". et les modèles d'embedding ont des superpositions, ils sont bon marché et capables d'inférer facilement des différences entre eux. il n'est pas difficile de demander à claude de faire une mini expérience pour prouver cela (ci-joint ci-dessous). Ce qui compte, c'est : est-ce capable de suivre comment la connaissance évolue ? le temps passe ? cela m'a rendu curieux alors j'ai lu leur article. 3. leur article de recherche est en train de coder en dur et de jouer avec le benchmark par des prompts différents pour chaque catégorie !!! (voir l'image ci-dessous). Si leur benchmarking est fixe, supermemory restera le SOTA. 4. ils ont réinventé l'article sur la récupération contextuelle d'Anthropic de 2024 et l'ont appelé "le paradoxe du pronom orphelin". 5. ils mentionnent qu'ils utilisent un "magasin de vecteurs en mémoire" personnalisé = à environ 500 Go, vous devrez payer plus de 10 000 $ juste pour la RAM. 6. l'inférence est exécutée trop de fois dans le pipeline - ce qui signifie que pour chaque token LLM que vous ingérez, vous finirez par payer 5x plus que le coût du token pour le graphe + la contextualisation + le stockage. 7. les chiffres de latence et de coût n'ont jamais été rapportés. Mon intuition est qu'à cause de l'architecture, la latence aura du mal à l'échelle. mais je ne peux pas dire - leur produit est derrière une porte de démonstration. 8. le code de benchmarking n'est pas OSS (d'après ce que je peux dire). pas réplicable + qui sait combien de contexte ils injectent dans le modèle ? quel est le K ? 9. publicités inorganiques et non divulguées (il suffit de lire les tweets cités). des comptes d'influenceurs avec plus de 400k abonnés disant tous la même chose. les gens continuent à s'en tirer avec ça @nikitabier lol en ce qui me concerne, je suis tout pour une concurrence saine et des progrès dans ce domaine, j'aime voir du bon travail fait par d'autres. mais il est facile de dire des choses. "personne ne vérifiera." jouer le jeu de la bonne manière est difficile, et tout le monde dit juste ce qu'il peut pour impressionner les gens....