Récemment, l'un des projets que je trouve assez confortable et que je soutiens est celui-ci, Codec. À l'époque, il était évalué à environ 7 millions, et son point culminant (ATH) a presque doublé. Je continue à croire en VLA et dans le domaine des robots. Il y a quelque temps, Google a annoncé une collaboration avec la startup Web2 Apptronik, qui développe des robots humanoïdes (Apollo) et intègre le modèle VLA de Google DeepMind. Cette entreprise a levé plus de 403 millions de dollars lors de son tour de financement de série A, avec une valorisation atteignant 1,5 milliard, prouvant ainsi que le marché est extrêmement optimiste quant à cette technologie. En regardant un peu plus haut, des entreprises comme Symbotic, qui se spécialisent dans l'automatisation logistique des robots, bien qu'elles n'utilisent pas le modèle VLA, ont également atteint une capitalisation boursière de 30 milliards de dollars. L'ensemble du secteur Robot + Automatisation sera sans aucun doute le prochain point d'explosion du marché. Codec développe la plateforme du modèle VLA lui-même, qui est le "cerveau central" de l'agent intelligent et l'un des rares à travailler dans ce domaine sur web3.
0xFunky
0xFunky13 juil. 2025
La vente publique PUMP est terminée, à l’origine j’avais aussi une grosse somme sur Bybit, seulement 1/2 a été placé sur la chaîne, et au final, seule la chaîne a réussi, mais heureusement il n’y a pas eu de couverture à l’avance... En parlant de cela, de nombreuses personnes de la communauté de l’IA ont récemment discuté de VLA (Vision-Language-Action). J’ai spécifiquement cherché à savoir si quelqu’un travaillait sur des projets liés à VLA sur la chaîne, et j’ai vu ce projet CodecFlow @Codecopenflow et j’en ai acheté un peu. == Que fait CodecFlow == Une brève introduction à VLA, VLA est une architecture modèle qui permet à l’IA non seulement de « parler » mais aussi de « faire ». Les LLM traditionnels (comme GPT) ne peuvent que comprendre le langage et fournir des suggestions, mais ils n’effectuent pas d’opérations pratiques, ne cliquent pas sur des écrans ou ne saisissent pas d’objets. Le modèle VLA signifie qu’il intègre trois capacités majeures : 1. Vision : Comprendre les écrans, les captures d’écran, les entrées de caméra ou les données des capteurs 2. Langage : Comprendre les instructions du langage naturel humain 3. Action : Générez des commandes exécutables telles que des clics de souris, des saisies au clavier et contrôlez des bras robotiques CodecFlow effectue VLA sur la chaîne, et tous les processus d’opération peuvent également être téléchargés sur la chaîne, qui peut être auditée, vérifiée et réglée. En termes simples, il s’agit de l’infrastructure des « bots d’IA ». == Pourquoi ai-je accordé une attention particulière à ce projet ? == J’ai constaté que leurs développeurs sont des contributeurs clés de LeRobot, le projet open source le plus en vogue dans l’espace VLA ! LeRobot est la base idéale pour la construction de modèles VLA dans le monde open source, y compris les VLA légers tels que SmolVLA qui peuvent fonctionner sur des ordinateurs portables. Cela signifie que cette équipe comprend vraiment l’architecture VlA et comprend Robot. Je vois qu’ils continuent également à se construire, et le prix de la monnaie augmente également régulièrement, je suis très optimiste quant à la piste VLA, et d’après la tendance générale, VLA et les robots sont en effet l’avenir sur le marché. • Les géants du Web2 (Google, Meta, Tesla) sont actuellement pleinement engagés dans la formation VLA & bot ; • Les projets Web3 ont rarement des applications VLA capables d’effectuer des tâches, et elles sont encore très rares • Les VLA ont la possibilité de jouer un rôle énorme dans des scénarios tels que le DePIN, l’automatisation Web, l’exécution d’un agent d’IA sur la chaîne, etc. CA :69LjZUUzxj3Cb3Fxeo1X4QpYEQTboApkhXTysPpbpump Toujours DYOR。
J'ai oublié de dire qu'ils ont ouvert l'accès anticipé. Vous pouvez postuler sur ce site :
C’est à nouveau ATH, et c’est vraiment confortable de monter lentement sans s’enrouler.
11,1K