Le canard et le capitaine
Comment Rémi Prévost utilise Claude Code 🦆
Ton cerveau mouillé de codeur à la mitaine va-t-il encore payer le loyer dans 5 ans?
Pis dans 10?
Y'a 15 ans, Rémi Prévost entrait chez Mirego comme dev.
Aujourd'hui, il manage toutes les pratiques tech de la boîte. Applications web, mobiles, des plateformes numériques… pour des gros clients.
J’ai pris le temps d’enregistrer une convo vidéo 1:1 avec lui sur comment son équipe utilise Claude Code au quotidien.
Pas pour remplacer les devs, mais pour les aider à shipper mieux, plus vite.
La nuance est critique.
Parce qu'entre "générer du code magiquement" et "déléguer stratégiquement à un agent autonome", y'a tout un monde.
Un monde qui ressemble étrangement à... du management humain?
Parlons-en.
(conversation vidéo en intégralité incluant screen-sharing dispo plus bas)
De zero-shot à rubber duck avec des bras
Avant, les outils d'AI pour devs, c'était binaire.
Tu commences à écrire une ligne de code → ça la finit → fin.
Ou ben :
Tu écris un prompt → ça te génère du code → tu copies-colles → fin.
One-shot. Statique. Le modèle attendait tes ordres avant de bouger.
Maintenant? C'est une conversation. Une loop de feedback continue.
Claude Code inspecte ton code base de façon autonome. Il pose des questions. Il cherche de l'information, observe les résultats et corrige.
Rémi compare ça au rubber duck debugging — cette pratique de parler à un petit canard en plastique sur ton bureau pour démêler un problème en l'expliquant à voix haute.
Sauf que là, le canard répond. Pis il peut écrire du code pendant 7 heures si tu lui demandes.

Joëlle se pratique encore avec les images AI-gen 😅
Ownership non-négociable
Rémi pis sa gang ont une règle béton : le ou la dev est owner du code final. Point.
Ça veut dire quoi, concrètement?
Toute modification générée par Claude doit être approuvée manuellement par un humain
Code review nécessaire avant de merge quoi que ce soit en production
Phrase interdite dans l'équipe : "C'est Claude qui a généré ça 🤷♂️"
Si t'es pas satisfait du résultat généré, c'est on you. Pas de la faute à Claude. Y’a déjà le dos assez large, pauvre Claude.
Martin Gagnon, co-founder de Mirego, le résume bien :
Si l'AI te génère du code qui ne te satisfait pas, c'est à toi de lui dire comment itérer jusqu'à temps que tu sois satisfait.
Autrement dit, Claude Code, c’est une lampe à l’huile avec un génie dedans. Mais c’est ta job de gérer le génie. Tu le manages, le guides et tu délègues stratégiquement.
Tests automatiques = filet de sécurité
Le principal guardrail chez du agentic coding → les tests automatiques.
Ta suite de tests doit passer avant de merge. Non-négociable.
Un LLM, ça peut générer une quantité infinie de code. Mais le output reste… probabiliste. Il prédit le prochain token le plus probable, pas le code idéal pour ton use case à 100%.
Les tests, eux, restent une barrière déterministe qui protège l’intégralité de ton code base.
Rémi le dit clairement :
C'est exactement la même problématique qu'en 2015 avec Stack Overflow, mais à plus grande échelle.
Avant, les juniors copiaient-collaient du code de Stack Overflow sans trop comprendre le pourquoi du comment.
Maintenant, c'est pareil. Mais x100. Pis ça va beaucoup plus vite.
D'où l'importance de garder des humains dans ta team qui comprennent pourquoi le code a été écrit comme ça.
Le workflow en action
On rentre dans le croustillant, folks.
Rémi m'a montré un refactoring live : splitter un attribut "name" en "first_name" + "last_name" dans un projet Ruby on Rails open source.
Le flow de Claude Code :
Analyse du contexte : Claude lit le README, les dépendances, la structure du projet
Génération d'un plan technique détaillé : il propose une approche step-by-step
Demande de permissions : avant chaque modification de fichier, il demande l'approbation
Exécution avec feedback visuel : tokens utilisés, commandes bash exécutées, tout est transparent
Tests automatiques : la suite de tests roule pour valider que rien n'a cassé
Commit avec co-author tag : le commit est fait avec Claude marqué comme co-auteur
Temps estimé manuellement : quelques heures.
Temps avec Claude Code : 15 minutes.
Mais attention à la règle 80/20 de Rémi : le premier 80% va vite, mais le 20% final est critique et demande tes vraies compétences de dev.
C'est là que t'as besoin d'expertise humaine pour le refinement, les edge cases, la qualité finale. Feature estimée en 5 jours? Tu peux la faire en 1-2 jours avec Claude. Mais le polissage final peut ramener ça à 4 jours total (des fois).
Les compétences humaines deviennent plus importantes, pas moins. Elles sont juste déployées différemment.
Pas de silver bullet dans l'écosystème
Claude Code, Cursor, OpenAI Codex, OpenCode... ils sont tous "assez bons" pour un usage quotidien selon Rémi.
La course n'est pas tant sur la qualité fondamentale du modèle. C'est sur les features, l'UX, l'intégration.
Pis ça change littéralement chaque semaine… nouvelles capacités, nouveaux outils, nouvelle compétition.
Attention aux benchmarks aussi. SWE-bench, par exemple, est orienté Python. Si tu travailles dans une autre stack, les scores peuvent être moins représentatifs.
Le principe reste : c'est pas l'outil qui va transformer ton dev process. C'est comment tu l'utilises, comment tu le guides et comment tu valides ses outputs.
Bar open
Chez Mirego, ils laissent l'équipe expérimenter. Pas de procédure rigide imposée top-down.
Tu veux essayer Cursor? Go! Claude Code? Parfa! Un autre outil? Vas-y donc!
Les early adopters vont triper. Les réticents vont traîner de la patte.
L'important :
Commencer petit
Aller chercher des gains incrémentaux
Cultiver le bon mindset dans l'équipe
Mettre en place des guardrails déterministes (tests, code review)
Encourager l'expérimentation sans paralyser avec des règles
Pas de révolution du jour au lendemain mais des améliorations quotidiennes qui s'accumulent.
Le mindset à la bonne place
Il faut aborder l’utilisation de ces outils comme si tu délègues de la job à un humain.
Tu dirais pas "mon junior a écrit du code de marde, c'est sa faute", tu dirais "j'ai mal expliqué ce que je voulais, faut que je sois plus clair dans mes instructions".
(ou en tk, je l’espère pour tes juniors)
Même principe avec les agents.
C'est un mindset de management et d'allocation. Tu distribues des tâches. Tu valides les résultats. Tu guides. Tu itères.
Si le output est pas bon, c'est à toi de clarifier le input. Donne plus de contexte. Ajoute des exemples. Dis-lui "what good looks like".
Rémi insiste : cultiver ce mindset dans l'équipe, c'est encore plus important que choisir le bon outil.
Back to the future
L'agentic AI change pas juste ce qu'on peut faire techniquement.
Ça change comment on travaille.
Pour les devs, les CTOs, les fondateurs tech : c'est le temps d'expérimenter. Pas dans 6 mois. Live là.
Parce que pendant que tu te demandes si c'est une mode passagère, y'a des équipes qui sont déjà rendues ailleurs dans le futur. 🛸
Quelque chose à ajouter? Good. Laisse un commentaire ou réponds à ce courriel direct.
Cheers,
Frank 💜
🎥 Claude Code : quand les devs parlent aux agents
Section réservée à nos SaaSpals! Contient vidéo complète de ma session avec Rémi, incluant partage d’écran du workflow avec Claude Code.
On offre notre contenu premium—sessions pratiques non-dispo sur le pod—en primeur aux SaaSpals. Le reste de l’audience aura accès plus tard.
Si tu vois ce qui suit, merci pour le support 🫶
Si tu veux voir ce qui suit, supporte directement SaaSpasse. La vidéo sera dispo en rappel semaine prochaine pour les SaaSpals.
MC professionnel, bonjour 👋

Crédit photo : JD Saint-Martin
J’ai tripé à jouer le rôle de MC pour RevStar mercredi!
Le feedback était bon, et ça a unlock quelques opportunités cool pour SaaSpasse. Hâte d’en parler plus.
Merci à ceux qui étaient sur place, méchante belle crowd!
Et bien sûr, gros shoutout à Vasco, Lightspeed et Boreal Ventures pour une première édition de feu.
Les agents AI — le nouveau Excel? 🤖
Pas besoin d'un post-doc en ML pour automatiser tes processus.
Dans cette capsule avec David Beauchemin(@ Baseline), on jase de trucs concrets:
→ Générer une offre de service complète en 6 minutes post-meeting
→ Suivi CRM automatique avec des drafts d'emails ready to go
→ Veille concurrentielle hebdo pour ~2$/mois
→ Quand automatiser
Ah et, on parle aussi de ce qui marche pas avec les LLMs et pourquoi il faut garder un humain in the loop.
Tu veux réparer ta croissance? 📈
Commence par regarder cette capsule, tu vas capoter.
Charbel Farah (et ses 17 ans d’expérience dans le domaine) nous parle de :
• Focus sur un seul channel
• POAS > ROAS
• Réparer l'attribution avant de brûler du cash en ads+
• Aborder Google Ads avec des attentes réalistes
• Et plus encore...
Encore mieux, lâche un ping à Charbel et son équipe chez Digital Growth Core pour qu’ils t’aident à réparer ce qui fonctionnent pas 👇
Rejoins les SaaSpals 👇
Merci tellement à tous nos SaaSpals. Votre support nous motive BIG TIME.
Partenaires certifiés SaaSpasse 💜HUGE merci à tous nos partenaires certifiés pour cette année : | Sans oublier nos partenaires produits :Check ‘em all out — on est déjà clients, et on leur envoie régulièrement des clients (maintenant) satisfaits. |
Podcast
Voici le dernier épisode du pod :
Pas encore abonné au pod? Let’s go :
Okay bobye!

Reply