Récemment, j'ai vu que Vercel a lancé quelque chose d'assez intéressant appelé Workflows, pour être honnête, cela résout beaucoup de points douloureux pour les développeurs backend. En résumé, cela remplace une infrastructure backend complexe en deux lignes de code, l'idée centrale étant de marquer use workflow en haut d'une fonction TypeScript, puis d'utiliser use step dans les sous-fonctions, le reste, comme la planification de la file d'attente, la nouvelle tentative en cas d'échec, la persistance de l'état, est géré automatiquement par le framework.



Je pense que la valeur de ce produit réside dans le fait qu'il change un point douloureux dans le processus de développement. Avant, pour faire passer un agent AI ou une tâche backend du prototype à la production, les développeurs devaient passer beaucoup de temps sur l'infrastructure, comme les files de messages, les tableaux d'état, les mécanismes de réessai, qui étaient dispersés à différents endroits. Maintenant, Vercel intègre tout cela dans le code de l'application, la logique et le code métier sont mélangés, ce qui devrait améliorer considérablement l'expérience de développement.

D'après les données, depuis le début des tests publics en octobre dernier, Workflows a déjà géré plus de 100 millions d'exécutions et 500 millions de steps, plus de 1500 clients l'utilisent, et le nombre de téléchargements npm dépasse 200 000 par semaine. Cette croissance montre qu'il y a vraiment une demande. De plus, le modèle de tarification est aussi intéressant, basé uniquement sur le temps d'exécution réel, sans coûts fixes pour des services d'orchestration en continu.

Pour les scénarios d'agents AI, Vercel met en avant plusieurs capacités. Les flux durables (Durable Streams) permettent de conserver en permanence la sortie de l'agent, même si le navigateur est fermé, et de reprendre à partir du point d'arrêt lors de la reconnexion. Le chiffrement par défaut est aussi un point de vente, toutes les entrées, sorties et données de flux sont automatiquement chiffrées avant de quitter l'environnement de déploiement, le déchiffrement ne se produit que dans l'environnement d'exécution. Il supporte aussi la mise en pause et la reprise, par exemple pour une approbation manuelle ou une pause de plusieurs jours ou mois, sans coût de calcul pendant la pause. La taille maximale d'un step est de 50MB, et l'exécution totale peut aller jusqu'à 2GB, ce qui suffit pour le transfert d'images ou vidéos dans des agents multimodaux.

La nouvelle version de l'AI SDK v7, sortie en même temps, intègre WorkflowAgent, fusionnant profondément l'exécution persistante, l'appel d'outils et la gestion d'état. Le SDK Python est aussi en test public, ce qui montre que Vercel veut pousser ce modèle de programmation auprès de plus de développeurs. Le Workflow SDK open source supporte le déploiement auto-hébergé, la communauté développe déjà des adaptateurs pour MongoDB, Redis, Cloudflare, etc., avec une bonne extensibilité.

La prochaine version, Workflows 5, prévoit d'ajouter un contrôle de concurrence natif et une infrastructure de déploiement global, ainsi qu'utiliser des snapshots d'exécution pour réduire le coût de la réexécution d'événements. En résumé, cette démarche de Vercel cible vraiment les points douloureux des développeurs, en utilisant un modèle de programmation simplifié pour remplacer l'architecture backend traditionnelle et complexe. Pour les équipes qui veulent itérer rapidement sur des agents AI ou des tâches asynchrones, cette solution vaut le coup d'essayer.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler