Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
La vente publique de PUMP est terminée. Au départ, j'avais également investi une grosse somme sur Bybit, en ne laissant qu'1/2 sur la chaîne, et finalement, seule la transaction sur la chaîne a réussi. Heureusement, je n'ai pas fait de couverture prématurée...
Cela dit, récemment, beaucoup de gens dans la communauté AI discutent de VLA (Vision-Language-Action).
J'ai particulièrement étudié s'il y avait des projets sur la chaîne liés à VLA et j'ai vu ce projet CodecFlow @Codecopenflow, j'en ai acheté un peu.
== Que fait le projet CodecFlow ==
Pour faire simple, VLA est une architecture de modèle qui permet à l'IA non seulement de « parler », mais aussi de « faire ».
Les LLM traditionnels (comme GPT) ne peuvent que comprendre le langage et fournir des suggestions, mais ils ne peuvent pas agir, cliquer sur des écrans ou saisir des objets.
Le modèle VLA signifie qu'il intègre trois grandes capacités :
1. Vision : comprendre les images, les captures d'écran, les entrées de caméra ou les données des capteurs.
2. Langage : comprendre les instructions en langage naturel des humains.
3. Action : générer des instructions exécutables, comme des clics de souris, des saisies au clavier, ou contrôler un bras robotique.
CodecFlow travaille sur le VLA sur la chaîne, tous les processus opérationnels peuvent également être enregistrés sur la chaîne, audités, vérifiés et réglés.
En résumé, c'est l'infrastructure de base pour un "robot IA".
== Pourquoi je fais particulièrement attention à ce projet ? ==
J'ai découvert que leurs développeurs sont des contributeurs clés du projet open source LeRobot, qui est le projet open source le plus en vogue dans le domaine du VLA !
LeRobot est la base de premier plan pour construire des modèles VLA dans le monde open source, y compris SmolVLA, qui peut fonctionner sur un ordinateur portable.
Cela signifie que cette équipe comprend vraiment l'architecture VLA et les robots.
Je vois qu'ils continuent à construire, et le prix du jeton augmente de manière stable. Je suis très optimiste sur le secteur VLA, et d'un point de vue global, VLA et les robots représentent vraiment l'avenir sur le marché.
• Les géants du Web2 (Google, Meta, Tesla) se sont actuellement pleinement engagés dans la formation VLA et robotique ;
• Il y a très peu de projets Web3 capables d'exécuter des applications VLA, ce qui est encore très rare.
• VLA a la possibilité de créer une immense valeur dans des scénarios tels que DePIN, l'automatisation Web, et l'exécution d'agents AI sur la chaîne.
CA : 69LjZUUzxj3Cb3Fxeo1X4QpYEQTboApkhXTysPpbpump
Faites toujours vos propres recherches (DYOR).

26 juin 2025
Qu'est-ce qu'un opérateur $CODEC ?
C'est là que les modèles Vision-Language-Action rendent enfin l'IA utile pour un travail réel.
Un opérateur est un agent logiciel autonome alimenté par des modèles VLA qui effectue des tâches à travers un cycle continu de perception-raisonnement-action.
Les LLM peuvent penser et parler brillamment, mais ils ne peuvent ni pointer, ni cliquer, ni saisir quoi que ce soit. Ce sont des moteurs de raisonnement purs sans ancrage dans le monde physique.
Les VLA combinent la perception visuelle, la compréhension du langage et la sortie d'action structurée en un seul passage. Alors qu'un LLM décrit ce qui devrait se passer, un modèle VLA le fait réellement en émettant des coordonnées, des signaux de contrôle et des commandes exécutables.
Le flux de travail de l'opérateur est :
- Perception : capture des captures d'écran, des flux de caméra ou des données de capteurs.
- Raisonnement : traite les observations avec des instructions en langage naturel en utilisant le modèle VLA.
- Action : exécute des décisions à travers des interactions UI ou le contrôle matériel - le tout dans une boucle continue.
Exemples : LLM vs. Opérateur alimenté par le modèle VLA
Planification d'une réunion
LLM : Fournit une explication détaillée de la gestion de calendrier, décrivant les étapes pour planifier une réunion.
Opérateur avec modèle VLA :
- Capture le bureau de l'utilisateur.
- Identifie l'application de calendrier (par exemple, Outlook, Google Calendar).
- Navigue jusqu'à jeudi, crée une réunion à 14h et ajoute des participants.
- S'adapte automatiquement aux changements de l'interface utilisateur.
Robotique : Tri d'objets
LLM : Génère des instructions écrites précises pour trier des objets, comme identifier et organiser des composants rouges.
Opérateur avec modèle VLA :
- Observe l'espace de travail en temps réel.
- Identifie les composants rouges parmi des objets mélangés.
- Planifie des trajectoires sans collision pour un bras robotique.
- Exécute des opérations de prise et de placement, s'ajustant dynamiquement aux nouvelles positions et orientations.
Les modèles VLA comblent enfin le fossé entre une IA capable de raisonner sur le monde et une IA capable de le changer réellement. Ce sont eux qui transforment l'automatisation d'un suivi de règles fragile en une résolution de problèmes adaptative - des travailleurs intelligents.
"Les scripts traditionnels échouent lorsque l'environnement change, mais les opérateurs utilisent la compréhension visuelle pour s'adapter en temps réel, gérant les exceptions au lieu de s'effondrer."

10,93K
Meilleurs
Classement
Favoris