Les news du mois de mars 2026

Anton Darius sur Unsplash
Je n'ai pas été aussi productif que j'aurais voulu sur mon blog au mois de mars. Je commence à prendre mes marques dans mon nouveau poste au sein de Teralab : ce fut la dernière ligne droite pour le passage de connaissance avec la personne que je remplace ; elle est partie le 31 mars. Maintenant, j'aurais beaucoup de challenges à relever, et ça tombe bien, c'est ce que j'aime dans ce métier.Mais le mois de mars est aussi synonyme de renouveau, de nature qui reprend ses droits. Malheureusement, l’actualité tech se ressemble de mois en mois. La thématique dominante est encore et toujours : Claude Code et les agents IA qui transforment nos façons de travailler. L’IA générative n’est plus un sujet de hype, c’est maintenant un sujet de REX. Mais l’IA générative est aussi le prétexte pour licencier à tout va mais ça c’est une autre histoire.
Au programme : la fin progressive de Kaniko dans nos pipelines CI/CD, Claude Code qui s’attaque aux blogs et aux vaults Obsidian, et une réflexion de fond sur ce que l’IA change vraiment dans notre productivité de développeur.
Bonne lecture !
Sommaire du mois
- Cloud Native : Buildah prend la relève de Kaniko, automatisation des diagrammes AWS avec Claude Desktop
- Intelligence Artificielle : Claude Code ré-écrit des blogs et réorganise des vaults, BIMAD et MCP Apps dans les podcasts MACI, réflexion de fond sur la productivité IA, JSONata réécrit en une journée, TurboQuant compresse les LLMs en 3 bits
- Programmation : Activer LSP dans Claude Code, la sagesse de John Carmack sur l’architecture prématurée
- Découvertes : Se déGAFAMiser en 2026, est-ce vraiment possible ?
- Coup de cœur : Le Maître du Haut Château
☁️ Cloud Native et Infrastructure
Exit Kaniko — Place à Buildah
Dans mon rôle actuel, je dois, entre autre, moderniser les pipelines de CI/CD. Depuis l’archivage du projet Kaniko (Le fork Chainguard qui a pris le relais n’est disponible en binaire que pour les clients payants), il était temps pour moi de me pencher sur une alternative plus moderne et sans droits root pour sécuriser mes pipelines.
En faisant mes recherches , je suis tombé sur deux articles qui vont dans le même sens : Remplacer Kaniko par le projet Buildah de Red Hat semble la meilleure solution actuellement.
Pourquoi pas Docker ou BuildX ?
Quote
“Les runners tournent souvent en conteneur, et Docker, lui, a besoin d’un daemon, d’un socket, de droits root… bref, tout ce qu’on veut éviter.” — Metal3d
La solution classique — lancer Docker-in-Docker (dind) en mode privileged — est jugée inacceptable niveau sécurité car elle donne un contrôle complet sur l’hôte.
Buildah, le builder sous-jacent de Podman
Buildah est un projet Red Hat qui construit des images OCI sans démon Docker ni Podman. Ce que beaucoup ignorent d’ailleurs : quand vous faites podman build, vous exécutez en réalité buildah build. Podman n’est qu’une interface vers buildah pour être compatible avec les commandes docker.
Ce qui rend Buildah particulièrement intéressant pour la CI/CD : ses modes d’isolation multiples, adaptables selon le niveau de contrôle qu’on a sur les runners.
Les 7 alternatives à Kaniko — et comment choisir
L’article de Codecentric est une mine d’or pour aider à la décision. En résumé :
| Option | Isolation | Complexité | Quand l’utiliser |
|---|---|---|---|
| Kaniko (fork Chainguard) | Faible | Faible | Runners partagés sans droits admin |
| Docker socket monté | Aucune | Très faible | À éviter (contrôle complet de l’hôte) |
| Buildah chroot | Moyenne | Moyenne | Contrôle complet des runners ✅ |
| Buildah rootless | Forte | Élevée | K8s récent et très maîtrisé |
| BuildKit rootless | Forte | Élevée | Alternative à Buildah rootless |
| VMs éphémères | Très forte | Très élevée | Sécurité maximale, gros chantier infra |
| Kata/gVisor/sysbox | Très forte | Élevée | Prometteur, pas encore mature avec GitLab CI |
A savoir, pour configurer Buildah en mode chroot, il y a quelques prérequis à ne pas négliger sur Debian/Ubuntu : mettre à jour les certificats avant installation de l’outil, et configurer un profil seccomp personnalisé pour autoriser les syscalls mount() et unshare() (bloqués par défaut sur ces deux distributions).
Note
L’image quay.io/buildah/stable embarque tout le nécessaire pour démarrer sans configuration manuelle. C’est le point d’entrée le plus simple pour tester en CI.
Au final, j’ai opté pour la solution Buildah en mode chroot sur nos runners dédiés. C’est la Simplicité de mise en œuvre, sa sécurité correcte, et aucune dépendance à des tiers payants qui m’ont convaincus.
Info
Pour les runners partagés où on n’a pas la main sur la configuration, Kaniko reste pour l’instant la seule option réaliste mais il ne faut pas oublier que ce projet n’est plus maintenu.
Lire l’article Exit Kaniko — 7 Ways to Replace Kaniko
Automatiser ses diagrammes AWS avec Claude Desktop
Comme tout architecte, j’aime bien faire un diagramme pour comprendre une infra ou une architecture vue d’oiseau. Généralement, je fais des croquis sur un tableau blanc ou une feuille blanche. Mais la reproduire sur draw.io ou excalidraw pour mettre à jour la documentation peut vite être chronophage et difficile à maintenir. Combien de fois je n’ai pas pris de temps pour mettre à jour un diagramme qui reflète les évolutions soit du code soit de l’infrastructure.
En faisant des recherches pour automatiser ces diagrammes, j’ai lu cet article : Comment générer des fichiers XML Draw.io directement depuis Claude Desktop, via un système de 4 fichiers de référence soigneusement construits.
L’approche est simple mais efficace et pourrait être d’ailleurs l’objet d’un skill pour un agent de code:
aws-icons-reference.md: 150+ services AWS avec couleurs officielles et templates XMLaws-groups-reference.md: VPC, subnets, zones de disponibilité, security groupsaws-connections-reference.md: styles de liens selon le type de fluxkubernetes-icons-reference.md: pods, deployments, services
Quote
“Le résultat : un fichier .drawio complet, immédiatement modifiable, qui respecte les conventions visuelles AWS.”
Au final, ce qui rend cette approche durable, c’est sa maintenabilité : quand AWS sort un nouveau service, il suffit de mettre à jour un fichier de référence. Le diagramme suit. C’est un changement de paradigme simple mais efficace. Pour ma part, j’utilise excalidraw au quotidien pour réaliser mes schémas. J’ai pu expérimenter grâce à un skill dédié la création ou la mise à jour de diagrammes, pour le moment, je ne suis pas encore satisfait du résultat.
🤖 Intelligence Artificielle
MACI — MCP Apps et BIMAD : deux approches pour structurer l’IA
Le podcast MACI (Message à Caractère Informatique) de CleverCloud est toujours pour moi une source de découverte aussi bien sur les entrailles de Linux que de sujets autour de l’IA générative. Ce mois-ci, je recommande les deux épisodes avec Sébastien Prunier qui ont retenu mon attention.
L’épisode 154 aborde MCP Apps : un standard qui permet de déployer la même application web sur différents chats IA (ChatGPT, Mistral, Claude) sans changer le code. L’idée est d’intégrer des composants graphiques — formulaires, tableaux, graphiques — directement dans l’interface de chat, en langage naturel.
Quote
“Même base de code, déployable sur n’importe quel assistant IA. L’interopérabilité enfin concrète.”
L’épisode 155 présente BIMAD, une méthodologie IA pour transformer une page blanche en cahier des charges structuré. L’agent pose des questions d’idéation, joue différents rôles (PM, UX, architecte), et génère des specs Markdown révisables. À voir comment l’utiliser au quotidien au sein d’une équipe déjà constituée.
Quote
“Quand l’agent joue le rôle de PM et challenge le cahier des charges, c’est là qu’on commence vraiment à avoir une équipe.”
Écouter l’épisode 154 — Écouter l’épisode 155
Adapting to AI : ce qui change vraiment dans notre productivité
Le prochain article de ma sélection est une profonde refléxion sur ce que l’IA change concrètement dans notre quotidien. Cet article de Colin Breck ne fait pas dans le sensationnalisme comme nous pouvons le voir sur LinkedIn dans nos flux d’actualité mais au contraire nous démontre comment le travail à l’aide d’agents IA change nos habitudes.
En 2025 : l’IA a accéléré le prototypage et les tâches routinières, mais la majorité du code était encore écrite par les développeurs. Son anticipation pour 2026 : l’IA générera la quasi-totalité du code. Mais le vrai sujet n’est pas là.
Quote
“L’IA est exceptionnelle comme pairing partner, mais pas comme autopilot.”
Sa réflexion sur le flow state est pertinente : cet état de concentration profonde que les développeurs connaissent bien est menacé par le context switching constant qu’implique l’utilisation des agents IA. Superviser un agent est moins immersif que le “deep work” traditionnel — et c’est une perte réelle qu’il ne faut pas minimiser.
Quote
“Les organisations auront besoin de champions IA pour diffuser les connaissances en interne — sans quoi le fossé entre ceux qui maîtrisent et ceux qui subissent va se creuser.”
Un article qui résonne avec mon expérience et qui invite à prendre du recul sur nos pratiques avant de tout déléguer à l’IA.
Claude Code s’attaque aux vaults Obsidian et aux blogs
J’utilise depuis au moins trois ans Obsidian au quotidien aussi bien pour écrire mes articles de blogs que prendre des notes sur différents sujets.
Je n’ai pas encore franchi le pas d’utiliser un assistant IA pour m’aider à organiser mes notes mais j’ai lu différents retours d’expérience sur le sujet. Parmi ces articles, j’ai trouvé celui de Stefan Imhoff plutôt pertinent.
Il a utilisé Claude Code pour réorganiser intégralement son vault Obsidian : migration de Zettelkasten vers PARA (pour ceux qui ne connaissent pas, c’est la méthode du livre Construire un second cerveau), nettoyage des assets orphelins, renommage descriptif des fichiers, téléchargement automatique des couvertures de livres. Le tout piloté par un fichier CLAUDE.md central qui documente le système et guide l’agent dans chaque intervention.
Quote
“Le fichier CLAUDE.md est devenu la constitution de mon vault — l’agent y lit les règles avant chaque intervention.”
Ce qui ressort de cet article : Claude Code excelle quand on lui donne un contexte clair via le CLAUDE.md. La vitesse n’est pas le seul bénéfice — c’est la confiance dans le résultat qui change la donne.
Réécrire avec l’IA — deux REX en Go
Deux REX ce mois-ci qui se répondent : un blog WordPress et un évaluateur JSONata, tous deux réécrits en Go avec l’IA comme co-pilote.
Nicolas Martignole (Le Touilleur Express) a réécrit le moteur de son blog WordPress en Go en 12 heures avec Claude Code. Stack retenue : Golang 1.26, Gin + Templ, zéro JavaScript côté client. Résultat : une économie de 50€/mois de frais d’hébergement, et un blog entièrement maîtrisé.
Quote
“12h pour un clone fonctionnel. Partie publique en 4h, revue de sécurité incluse.”
L’équipe de Reco a poussé le concept encore plus loin : réécriture d’un évaluateur JSONata en Go en une journée, avec un seul ingénieur et l’IA. Le résultat : 1000x d’amélioration des performances et 500k$ d’économies annuelles.
Quote
“1 ingénieur + IA. 7 heures de développement. 400$ en tokens. 1000x de speedup. 500k$/an d’économies.”
Ce qui rend le REX de Reco particulièrement instructif : l’approche test-driven. L’équipe a importé les tests de la librairie existante et demandé à l’IA de générer le code jusqu’à ce que 100% passent. Les tests comme seul contrat, sans spécification formelle.
Info
Le projet JSONata a été déployé en 7 jours : jour 1 pour le build, jours 2-6 pour la QA, jour 7 pour la production.
Mais cette approche mérite d’être nuancée. Les tests d’une librairie ne sont pas de simples filets de sécurité : ils encodent les invariants, les cas limites, le comportement attendu — autrement dit, l’essentiel du savoir-faire de ses contributeurs. Utiliser ces tests pour guider une réécriture IA, c’est en quelque sorte extraire ce savoir-faire gratuitement. Cela explique probablement pourquoi de plus en plus de projets open source choisissent de rendre leurs suites de tests privées.
Les deux REX partagent la même leçon : l’IA génère vite, mais c’est la rigueur autour (CLAUDE.md, tests, QA) qui garantit un résultat solide en production.
Réécriture du blog — JSONata rewrite
TurboQuant : Google compresse les LLMs en 3 bits
Une information technique passée un peu sous les radars : Google a publié un papier sur TurboQuant, une méthode de compression des LLMs à 3 bits sans perte de performance notable.
La technique combine deux approches : PolarQuant (représentation en coordonnées polaires) et QJL (correction sur 1 bit). Deux idées simples, un résultat remarquable : réduction de près de 6 fois l’empreinte mémoire tout en étant 8 fois plus rapide à l’inférence pour un même modèle.
Concrètement, les plus gros modèles pourraient tourner localement avec une carte graphique de 16 ou 32 Go de RAM. Vu le prix de la RAM actuellement, cette avancée arrive à point nommé. De premières implémentations ont déjà émergé pour vLLM, mais les résultats ne sont pas encore à la hauteur espérée — à suivre de près.
💻 Programmation
The 2-Minute Claude Code Upgrade You’re Probably Missing : LSP
Le LSP (Language Server Protocol) est une technologie développée à l’origine par Microsoft pour Visual Studio Code pour lui permettre de faire l’autocomplétion, les erreurs de syntaxe en temps réel et ce pour de nombreux langages. Depuis, il est utilisé par la plupart des IDEs modernes.
Jusqu’à présent Claude Code faisait des recherches dans notre base de code à coup de grep : ce n’était pas des plus pertinents et les recherches sont lentes.
Ce court article indique comment activer la prise en charge du LSP pour que Claude Code devienne plus performant et cela change tout : navigation go-to-definition instantanée, corrections d’erreurs en temps réel, compréhension structurelle du code plutôt que recherche textuelle approximative.
Quote
“Recherche textuelle fuzzy : 30-60 secondes. Avec LSP : quelques millisecondes.”
L’activation se fait en deux étapes : installer le serveur de langage pour votre stack (pyright pour Python, gopls pour Go, typescript-lsp pour TypeScript), puis ajouter "ENABLE_LSP_TOOL": "1" dans votre settings.json Claude Code.
Note
J’ai activé gopls sur mes projets Go et la différence est immédiate. Claude Code navigue dans le code comme un développeur qui le connaît, pas comme grep.
Quoting John Carmack — YAGNI, version brutale
Simon Willison a partagé une citation de John Carmack qui mérite d’être mémorisée par tout développeur :
Quote
“It’s hard for less experienced developers to appreciate how rarely architecting for future needs turns out to be net positive.”
YAGNI (You Aren’t Gonna Need It) n’est pas un nouveau concept. Mais l’entendre formulé ainsi par l’un des développeurs les plus expérimentés de l’industrie donne du poids à ce principe. Cela rejoint ma philosophie à savoir Keep It Simple & Stupid.
Une citation courte, mais qui invite à se poser la bonne question à chaque décision d’architecture.
🎲 Découvertes insolites
Peut-on vraiment déGAFAMiser sa vie ?
Le podcast RDV Tech s’est attaqué à un sujet qui revient régulièrement dans les discussions tech françaises : est-il vraiment possible de sortir de l’écosystème Google/Apple/Meta/Amazon/Microsoft au quotidien ?
La réponse honnête de l’épisode : oui, mais avec des compromis. Les alternatives open-source et européennes existent (Nextcloud, ProtonMail, Signal, Organic Maps…), mais elles demandent un effort d’adoption et offrent parfois une expérience utilisateur moins polie.
Quote
“La vraie question n’est pas ‘peut-on déGAFAMiser ?’ mais ‘jusqu’où est-on prêt à aller ?’”
Ce qui m’a plu dans cet épisode : l’approche pragmatique. Pas de purisme idéologique, mais une réflexion sur les outils modernes qui ne sacrifient pas la vie privée. Une démarche progressive plutôt que radicale.
Un sujet qui résonne particulièrement en ce moment où la souveraineté numérique — que j’évoquais en février avec l’article “Made in EU” — devient une préoccupation croissante, autant pour les individus que pour les entreprises.
Pour ma part, j’ai commencé à utiliser le moteur de recherche Kagi qui certe est payant mais c’est le prix à payer pour ne pas être le produit.
📊 Ma veille en chiffres (mars)
- Articles lus : 32 articles
- Podcasts écoutés : 25 podcasts
- Tweets/threads : 1
- Vidéos Youtubes: 20 vidéos ou conférences
- Thème dominant : Claude Code et agents IA en production, modernisation des pipelines CI/CD
❤️ Mon coup de cœur du mois
Le Maître du Haut Château
Disponible étonnamment sur Netflix, “Le Maître du Haut Château” est une série que j’avais mise de côté depuis longtemps à sa sortie sur Amazon Prime — et que j’aurais tort de continuer à ignorer surtout avec l’actualité récente.
Adaptée du roman de Philip K. Dick, la série explore une uchronie fascinante : et si les Alliés avaient perdu la Seconde Guerre Mondiale ? Les États-Unis sont divisés entre l’Empire du Grand Reich Japonais à l’Ouest et le Grand Reich Nazi à l’Est. Entre les deux, une zone neutre au cœur des Rocheuses.
Ce qui m’a accroché dès le premier épisode : la cohérence de l’univers. La reconstitution historique est soignée, les enjeux politiques crédibles, et les personnages suffisamment complexes pour qu’on s’y attache. La série pose des questions profondes sur la résistance, l’identité, et ce qui nous définit comme société — sans jamais tomber dans le manichéisme.
Quote
“Dans un monde où l’histoire a basculé, chaque choix individuel prend une dimension existentielle.”
La série prend son temps pour installer son univers — ce qui peut dérouter au départ. Mais comme pour la Trilogie de l’Assassin Royal que je vous recommandais en février, cette patience est largement récompensée.
Quatre saisons disponibles pour ceux qui veulent s’immerger dans cet univers alternatif.
Pour conclure
Ce mois de mars a encore été riche en actualité tech. Cela devient de plus en plus difficile de suivre les nouvelles — c’est pour cela qu’il faut prendre du recul. Les REX de ce mois le montrent clairement : l’IA générative a de plus en plus d’impacts sur notre vie de développeur. Elle est passée du stade du POC à celui du projet réel.
Ce qui m’a le plus marqué reste l’article d’Adapting to AI : la vraie question n’est pas “l’IA va-t-elle remplacer les développeurs ?” mais “comment allons-nous redéfinir ce que signifie être productif ?”. Et c’est là que le bât blesse.
Car le gain de productivité promis par l’IA ne vient pas sans risques. Quand on produit deux fois plus vite, la tentation — individuelle et organisationnelle — est de faire deux fois plus. Pas de souffler. Pas de réfléchir. Juste plus. C’est une mécanique bien connue dans notre industrie, et l’IA ne fait que l’amplifier. À cela s’ajoute un phénomène plus inquiétant : certaines entreprises utilisent l’IA comme prétexte pour licencier massivement, avant même d’avoir mesuré ce que ces outils changent réellement dans la valeur produite.
L’IA est un levier formidable — à condition que le gain de productivité serve à faire mieux, pas seulement plus. Comme le dirait l’Oncle Ben : “De grands pouvoirs impliquent de grandes responsabilités.” C’est peut-être le vrai défi de notre génération de développeurs.
Sur ces bonnes paroles, je vous souhaite un bon mois d’avril !
À lire aussi : mes précédents articles sur le blog