Récemment, l'un des projets que je trouve assez confortable et que je soutiens est celui-ci, Codec. À l'époque, il était évalué à environ 7 millions, et son point culminant (ATH) a presque doublé. Je continue à croire en VLA et dans le domaine des robots. Il y a quelque temps, Google a annoncé une collaboration avec la startup Web2 Apptronik, qui développe des robots humanoïdes (Apollo) et intègre le modèle VLA de Google DeepMind. Cette entreprise a levé plus de 403 millions de dollars lors de son tour de financement de série A, avec une valorisation atteignant 1,5 milliard, prouvant ainsi que le marché est extrêmement optimiste quant à cette technologie. En regardant un peu plus haut, des entreprises comme Symbotic, qui se spécialisent dans l'automatisation logistique des robots, bien qu'elles n'utilisent pas le modèle VLA, ont également atteint une capitalisation boursière de 30 milliards de dollars. L'ensemble du secteur Robot + Automatisation sera sans aucun doute le prochain point d'explosion du marché. Codec développe la plateforme du modèle VLA lui-même, qui est le "cerveau central" de l'agent intelligent et l'un des rares à travailler dans ce domaine sur web3.
0xFunky
0xFunky13 juil., 20:47
La vente publique de PUMP est terminée. Au départ, j'avais également investi une grosse somme sur Bybit, en ne laissant qu'1/2 sur la chaîne, et finalement, seule la transaction sur la chaîne a réussi. Heureusement, je n'ai pas fait de couverture prématurée... Cela dit, récemment, beaucoup de gens dans la communauté AI discutent de VLA (Vision-Language-Action). J'ai particulièrement étudié s'il y avait des projets sur la chaîne liés à VLA et j'ai vu ce projet CodecFlow @Codecopenflow, j'en ai acheté un peu. == Que fait le projet CodecFlow == Pour faire simple, VLA est une architecture de modèle qui permet à l'IA non seulement de « parler », mais aussi de « faire ». Les LLM traditionnels (comme GPT) ne peuvent que comprendre le langage et fournir des suggestions, mais ils ne peuvent pas agir, cliquer sur des écrans ou saisir des objets. Le modèle VLA signifie qu'il intègre trois grandes capacités : 1. Vision : comprendre les images, les captures d'écran, les entrées de caméra ou les données des capteurs. 2. Langage : comprendre les instructions en langage naturel des humains. 3. Action : générer des instructions exécutables, comme des clics de souris, des saisies au clavier, ou contrôler un bras robotique. CodecFlow travaille sur le VLA sur la chaîne, tous les processus opérationnels peuvent également être enregistrés sur la chaîne, audités, vérifiés et réglés. En résumé, c'est l'infrastructure de base pour un "robot IA". == Pourquoi je fais particulièrement attention à ce projet ? == J'ai découvert que leurs développeurs sont des contributeurs clés du projet open source LeRobot, qui est le projet open source le plus en vogue dans le domaine du VLA ! LeRobot est la base de premier plan pour construire des modèles VLA dans le monde open source, y compris SmolVLA, qui peut fonctionner sur un ordinateur portable. Cela signifie que cette équipe comprend vraiment l'architecture VLA et les robots. Je vois qu'ils continuent à construire, et le prix du jeton augmente de manière stable. Je suis très optimiste sur le secteur VLA, et d'un point de vue global, VLA et les robots représentent vraiment l'avenir sur le marché. • Les géants du Web2 (Google, Meta, Tesla) se sont actuellement pleinement engagés dans la formation VLA et robotique ; • Il y a très peu de projets Web3 capables d'exécuter des applications VLA, ce qui est encore très rare. • VLA a la possibilité de créer une immense valeur dans des scénarios tels que DePIN, l'automatisation Web, et l'exécution d'agents AI sur la chaîne. CA : 69LjZUUzxj3Cb3Fxeo1X4QpYEQTboApkhXTysPpbpump Faites toujours vos propres recherches (DYOR).
J'ai oublié de dire qu'ils ont ouvert l'accès anticipé. Vous pouvez postuler sur ce site :
8,94K