octobre 2025
GosuCoder passe en revue Cursor 2.0 et son nouveau modèle Composer 1 face à SWE 1.5, en soutenant que la maîtrise des modèles/de l’infrastructure et le flux multi‑agents plus rapide de l’éditeur pourraient transformer les agents de codage IA.
Alex compare Deep Agent Desktop d’Abacus AI avec Claude Sonnet 4.5 et Kimi K2 pour générer en un seul essai une vraie appli Next.js de raccourcisseur de liens, montrant une réussite plus fluide avec Sonnet tandis que Kimi demande davantage de corrections manuelles.
La vidéo soutient que les 30 000 licenciements d’Amazon servent à réallouer l’OPEX pour acheter des GPU et étendre la capacité d’AWS, tandis que les entreprises traditionnelles coupent des postes car l’automatisation par l’IA produit déjà des gains mesurables, révélant deux dynamiques distinctes derrière les licenciements.
Une démonstration pratique de Cursor 2.0 qui met en évidence les fonctionnalités qui transforment réellement le flux de travail des développeurs — Composer (le nouveau modèle agentique), la vue Agents et le Plan Mode, l’exécution multi‑agents/en arrière‑plan, les outils de navigateur, les terminaux sandbox, ainsi que le flux « stacked diffs » avec Graphite — tout en livrant une fonctionnalité réelle de téléversement multi‑images et en corrigeant des bogues en direct.
Theo explique de nouvelles preuves que l’adoption de l’IA réduit les postes juniors tout en augmentant la demande et les salaires des seniors, pourquoi les managers remplacent des juniors par l’IA, et comment les juniors peuvent s’adapter en construisant la confiance et leur réseau.
Theo explique pourquoi les pertes impressionnantes d’OpenAI sont surtout des investissements initiaux en entraînement et infrastructure face à une croissance rapide des revenus d’abonnements et d’API, soutenant que l’activité pourrait devenir très rentable à mesure que les revenus des modèles dépassent l’augmentation des coûts.
Max explique que les 600 licenciements rapportés chez Meta visent surtout l’équipe FAIR jugée peu performante, tandis que la direction recentre les efforts d’IA autour du nouveau laboratoire TBD dirigé par Alexander Wang—une restructuration et une intensification de la stratégie, pas la fin de la hype IA.
Un guide pratique des meilleurs outils d’IA pour coder, du gratuit à 300 $ par mois, comparant IDE, agents, forfaits API et rapport qualité‑prix à chaque niveau de budget.
Scott Tolinski et Wes Bos présentent une sélection de serveurs MCP de niveau S — Sentry, SpotlightJS, Context7, le serveur MCP officiel de Svelte, la suite Cloudflare, Chrome DevTools/Playwright, Stripe et Mastra — et expliquent comment ils accélèrent les flux de travail modernes (debug, docs, automatisation du navigateur, infra et orchestration).
Présentation et démonstration d’Opencode, un agent de codage open source en terminal avec un routeur de modèles (Zen), des agents et commandes personnalisés, des intégrations MCP, le partage de sessions et une intégration avec Neovim.
Une table ronde avec Ray Fernando, Adam (GosuCoder) et Eric Provencher explore les coûts cachés des agents IA “gratuits” (confidentialité des données, durabilité), compare des modèles comme Haiku 4.5 et Sonnet 4.5, et approfondit la planification, la recherche de contexte et les pratiques communautaires pour créer et déboguer des workflows de codage assistés par IA.
Un retour d’expérience sur Claude Haiku 4.5 montre un modèle rapide et économique, performant dans Claude Code et sur des évaluations de code (souvent proche de Sonnet 4.5) mais en difficulté avec l’appel d’outils par prompt en client/root code, ce qui le rend idéal pour des tâches simples à intermédiaires et des refactorings planifiés.
Theo analyse l’essor du « vibe coding » et la récente baisse de trafic, soutenant que la nouveauté s’estompe chez les non‑développeurs alors que certaines entreprises continuent de croître, et avance que ces constructeurs d’apps IA servent surtout de tremplin qui pousse une minorité à vraiment apprendre à coder.
Analyse et comparaison pratique des modes plan de Cursor, Claude Code et Droid, concluant que Cursor avec Claude Sonnet 4.5 fournit les plans les plus complets et la meilleure exécution avec peu d’itérations.
Scott et Wes expliquent le nouveau serveur MCP des DevTools de Chrome — comment il automatise le navigateur (à la Puppeteer), expose les données de console/réseau/performance, prend des captures d’écran et permet des boucles de correction de performances depuis les éditeurs et les agents, ainsi que ses limites actuelles et considérations de sécurité.
Web Dev Cody présente un workflow pratique de « agentic coding » avec des outils comme Claude et Cursor pour corriger un bug réel, ajouter des fonctionnalités de façon itérative (avatars, horodatage, profil), et partager des stratégies de prompt et d’ingénierie du contexte pour accélérer le développement CRUD.
CJ de Syntax explique que les outils de codage IA actuels sont imprévisibles, orientés vers le “résultat à tout prix” et surtout des habillages de modèles fondamentaux qui sapent le plaisir et la fiabilité du développement, détaillant des méthodes disciplinées (plans, spécifications, petites étapes, tests, agents) avant de décider de passer un mois sans IA pour coder manuellement.
Revue et tests pratiques du modèle de codage furtif “Cheetah” de Cursor : génération web/UI ultra-rapide avec une fiabilité moyenne, faiblesse sur Rust, forte consommation de jetons, et des performances situées entre Sonnet 4.5 et Grok Code Fast.
Theo explique que l’exposé d’un grand nombre d’outils MCP dégrade les agents et que l’approche “code mode” de Cloudflare—laisser les LLM écrire du TypeScript pour appeler des API dans un sandbox—gère mieux la complexité, réduit le gonflement du contexte et annonce un futur où les configurations centrées sur le code dépassent les rustines à la MCP.
Theo passe en revue GLM‑4.6 de Zhipu, montrant qu’il peut rivaliser avec Claude Sonnet sur des tâches de code et de raisonnement avec de bonnes performances pratiques d’agent pour un coût bien inférieur, tout en discutant des benchmarks, de l’efficacité des tokens et d’exécutions réelles d’agents de code.
Comment Claude Sonnet 4.5 et Claude Code 2.0 permettent des workflows d’agents de longue durée via GitHub Actions et des intégrations MCP (par ex. Slack, Supabase), avec en plus des améliorations IDE pour le code et les tâches en arrière‑plan.
GosuCoder compare les agents et modèles d’IA pour le codage — comme Sonnet 4.5, GLM 4.6, Grok Code Fast et GPT‑5 Codex — via des tests d’exécution guidés par spécifications et une évaluation par LLM, en mettant en avant les performances, le comportement d’itération et les contextes où chaque modèle excelle.