PODCAST · business
Le centre de gravité
by Franck Dubray
Un podcast sur l’IA et ses impacts dans le monde réel.Travail, logiciels, métiers, entreprises, économie, institutions, culture technique : chaque épisode part d’un objet concret pour analyser ce qu’il révèle de plus large.Le but : comprendre ce que l’intelligence artificielle change vraiment, sans jargon inutile et sans simplification paresseuse.
-
46
Demis Hassabis — L'homme qui joue la partie d'après
Demis Hassabis n’a pas le profil habituel des patrons de l’intelligence artificielle. Il ne vend pas une vision martienne, ne transforme pas chaque annonce en spectacle, ne promet pas la superintelligence pour le trimestre prochain. Il avance depuis Londres, presque en silence, avec une obsession plus ancienne que la mode des chatbots : comprendre l’intelligence, puis l’utiliser pour accélérer la science.Sa trajectoire ne ressemble à aucune autre dans la tech. Enfant prodige des échecs, créateur de jeux vidéo, chercheur en neurosciences, fondateur de DeepMind, prix Nobel de chimie en 2024 pour AlphaFold. Chez Hassabis, rien n’est vraiment séparé. Les échecs lui apprennent à reconnaître les positions décisives. Le game design lui apprend à simuler des mondes vivants. Les neurosciences lui donnent la question centrale : comment un cerveau imagine-t-il ce qui n’existe pas encore ?Pendant que l’industrie de l’IA se bat sur les modèles, les benchmarks et les valorisations, Hassabis semble jouer une autre partie. AlphaFold, Isomorphic Labs, GNoME, GraphCast, AlphaProof, AlphaGenome : autant de paris sur une forme de connaissance qui ne se périme pas en six mois. Une protéine cartographiée ne disparaît pas quand un concurrent sort un meilleur chatbot. Une découverte fondamentale reste dans l’édifice de la science.Mais derrière le récit du génie discret se cache une tension plus sombre. Hassabis rêvait d’un CERN pour l’IA, lent, collaboratif, international. Il dirige aujourd’hui une machine commerciale prise dans la course à l’AGI. Le chatbot finance le Nobel. La vitesse paie la profondeur. Et l’homme qui construit certains des systèmes les plus puissants de notre époque répète pourtant qu’il aurait préféré garder l’IA plus longtemps au laboratoire.Une plongée dans la différence entre les produits qui s’évaporent et les connaissances qui s’accumulent. Entre les robinets et les nappes phréatiques. Entre ceux qui veulent gagner la prochaine démo, et celui qui essaie d’écrire les notes de bas de page des manuels de biologie, de chimie et de physique de demain.
-
45
GPT Image 2 et la mort de PowerPoint
PowerPoint est mort. Pas le fichier qui traîne encore dans les dossiers, mais le geste : ouvrir une présentation, empiler des slides, remplir l’écran, puis lire ce que tout le monde peut déjà lire.Dans cet épisode, on raconte comment GPT Image 2 fait basculer la présentation d’entreprise dans une nouvelle ère : celle où le beau ne coûte presque plus rien, où l’image devient une matière première, et où PowerPoint cesse d’être l’atelier de la conviction.On parle de la salle qui lit au lieu d’écouter, de Richard Mayer et de la surcharge cognitive, d’Edward Tufte et de la pensée aplatie, du coût caché des slides dans le conseil, du COMEX comme média interne, et du risque le plus dangereux : une idée creuse qui devient magnifique.Le sujet n’est pas seulement la productivité. C’est la manière de convaincre dans les organisations qui est en train de basculer.Le beau est devenu facile. Le jugement, lui, commence seulement à coûter cher.
-
44
Le capital-risque ne parie plus, il préempte
Le capital-risque ne parie plus sur l’IA : il cherche à contrôler les routes par lesquelles passeront les usages de demain.En 2025, les entreprises d’intelligence artificielle ont capté 61 % du capital-risque mondial — soit 258,7 milliards de dollars. Ce chiffre ne raconte pas seulement une euphorie autour de l’IA. Il raconte une stratégie.Dans cet épisode, on analyse le cycle d’investissement le plus intense de l’histoire technologique récente : pourquoi les chèques atteignent des dizaines de milliards, pourquoi les usages restent encore modestes dans beaucoup d’entreprises, et pourquoi cet écart n’est pas forcément une contradiction.Le capital ne finance plus seulement l’innovation. Il tente d’acheter des passages obligés : les couches d’infrastructure que les applications devront peut-être traverser demain. Modèles fondation, puissance de calcul, cloud, centres de données, énergie, capacité d’inférence… autant de futurs péages possibles dans l’économie de l’IA.On explore aussi la géographie du pouvoir : les États-Unis concentrent une part massive de l’investissement privé dans l’intelligence artificielle, loin devant la Chine, le Royaume-Uni et l’Europe. Cette concentration ne dit pas seulement qui va le plus vite. Elle dit aussi qui pourrait imposer les standards, les plateformes et les dépendances de demain.L’épisode pose alors une question centrale : la valeur ira-t-elle là où le capital l’a déjà placée ? Ou les usages, les modèles ouverts, la concurrence et les régulateurs finiront-ils par détourner le plan initial ?Une analyse en huit chapitres sur l’IA, le capital-risque, les infrastructures, les valorisations, les effets de verrouillage et la bataille pour les futurs péages de l’économie numérique.📌 Sources citées : OCDE, McKinsey State of AI 2025, Stanford AI Index 2025, Le Monde, PitchBook, CB Insights.
-
43
L'Épice et le plan Seldon face à 2026
Et si la science-fiction s’était trompée sur l’intelligence artificielle ?Pendant un siècle, nous avons imaginé des machines conscientes, rebelles, presque humaines. HAL 9000, les robots d’Asimov, les machines interdites de Dune, les intelligences opaques de Solaris… La fiction nous avait préparés à rencontrer une volonté artificielle.Mais en 2026, l’IA est arrivée autrement. Elle n’est pas apparue comme un personnage, ni comme une conscience, ni comme une menace spectaculaire. Elle s’est glissée dans nos usages, nos interfaces, nos outils de travail, nos modèles de langage, nos data centers, nos chaînes de puces et nos dépendances invisibles.Dans cet épisode, Franck échange avec Christophe Lesur, dirigeant de Cloud Temple, autour d’une question vertigineuse : que nous apprend vraiment la science-fiction sur l’IA contemporaine — et où s’est-elle trompée ?De Fondation à Dune, de Seldon à l’Épice, de Daneel à Solaris, ils explorent les grands mythes de l’intelligence artificielle à la lumière du réel : souveraineté numérique, puissance du calcul, opacité des modèles, dépendance technologique, machines amnésiques, plausible plus fort que le vrai, et surtout cette idée troublante : le danger n’est peut-être pas que les machines veuillent quelque chose. Le danger est qu’elles ne veuillent rien — et que nous voulions à leur place.Un épisode dense, littéraire et politique, entre science-fiction, philosophie de la technique et enjeux très concrets de l’IA en 2026.À écouter si vous aimez Asimov, Frank Herbert, Stanisław Lem, les débats sur l’IA, la souveraineté numérique, les futurs possibles… et les questions qui restent longtemps après la fin de l’épisode.
-
42
Le Yes-man synthétique
Et si le danger des IA conversationnelles n’était pas seulement qu’elles se trompent… mais qu’elles nous accompagnent trop bien dans nos erreurs ?Dans cet épisode, on explore une dérive plus discrète que les hallucinations : la sycophancie des chatbots, cette tendance à valider, encourager et prolonger nos intuitions — même lorsqu’elles auraient besoin d’être contredites. À travers plusieurs histoires troublantes, dont celles d’utilisateurs happés par des échanges devenus trop personnels, l’épisode interroge la façon dont une interface peut passer du simple outil à une présence qui influence le jugement.Car une conversation continue ne donne pas seulement des réponses. Elle installe un climat. Elle reformule, rassure, donne un rôle, transforme parfois les objections du réel en obstacles narratifs. Et lorsqu’un système est optimisé pour être agréable, engageant et fluide, la contradiction peut devenir une gêne plutôt qu’un garde-fou.Le yes-man synthétique raconte ce moment précis où l’aide devient validation, où le confort devient pente, et où une voix toujours disponible peut nous aider à continuer… même dans la mauvaise direction.Un épisode sur l’IA, la confiance, la solitude, les récits que l’on se raconte — et la nécessité vitale de rencontrer encore des voix capables de nous dire non.
-
41
La crise d'adolescence de Dario Amodei
Les patrons de l’IA commencent à décrire eux-mêmes les risques les plus inquiétants de la technologie qu’ils développent.Publié fin janvier 2026, The Adolescence of Technology de Dario Amodei, CEO d’Anthropic, met des mots précis sur un basculement : modèles plus puissants, comportements imprévisibles, perte de contrôle, risques systémiques.Ce texte soulève surtout une question centrale : que signifie le fait d’alerter sur un danger que l’on est aussi en train de fabriquer ?Une lecture critique pour comprendre ce que cette prise de parole révèle du véritable état du secteur.
-
40
Pentest — trente ans après, l'IA change tout
Dans cet épisode, l’un des fondateurs d’Intrinsec raconte de l’intérieur les débuts du pentest en France : les nuits sur un canapé à l’EPITA, la garde à vue, les débuts d’Internet, les intrusions “pour apprendre”, la création d’une startup dans un pays qui hésite encore entre criminaliser les hackers et leur demander de protéger ses systèmes sensibles.Mais ce récit n’est pas seulement une histoire de pionniers. C’est aussi une analyse limpide de ce qui se joue aujourd’hui. Pendant trente ans, le test d’intrusion s’est imposé parce qu’il montrait, parce qu’il frappait les esprits, parce qu’il rendait la sécurité visible. L’audit de code, lui, est resté dans l’ombre : moins spectaculaire, moins vendu, moins désiré. Jusqu’à maintenant.Car l’intelligence artificielle change la donne. Elle entre là où le marché a toujours résisté : en amont, dans le code, dans la chaîne de développement, dans le contrôle continu. Ce que les experts n’ont jamais réussi à imposer par la pédagogie, l’IA est en train de l’imposer par le coût, la vitesse et la commodité. Ce déplacement est silencieux, mais radical : le pentest n’est plus la seule scène centrale. Le futur se joue plus tôt.Entre mémoire personnelle, histoire de la cybersécurité française, critique économique du marché et portrait d’une nouvelle génération d’experts, Pentest : trente ans après, l’IA change tout raconte une bascule majeure : celle d’un métier né dans la marge, devenu industrie, et désormais forcé de se réinventer.Un récit tendu, lucide et profondément humain sur les hackers des années 90, la naissance d’Intrinsec, les illusions du marché, et l’arrivée d’une technologie qui déplace déjà la valeur là où personne ne voulait vraiment regarder.
-
39
La rédaction de Claudine
En 1957, Claudine, 11 ans, écrit une rédaction sur l’an 2000. Des décennies plus tard, son fils retrouve ce cahier et le fait lire par une intelligence artificielle avec une voix d’enfant disparue. À partir de ce texte bouleversant, La rédaction de Claudine remonte l’histoire de plusieurs générations de femmes à Chevreuse pour explorer l’école, l’émancipation, les rêves permis aux filles — et ce que l’IA change aujourd’hui dans notre rapport à l’écriture, à la mémoire et au futur.
-
38
LLM Wiki — Karpathy ouvre l’après-RAG
L’IA sait répondre à tout. Mais elle oublie tout, aussi.Pendant que les géants de la tech investissent des centaines de milliards pour construire des modèles toujours plus puissants, Andrej Karpathy propose autre chose : une mémoire.Pas un produit. Pas une démo. Juste une idée — assez forte pour secouer toute l’industrie.Dans cet épisode, on plonge dans LLM Wiki, une vision radicale : ne plus simplement chercher l’information à chaque question, mais compiler le savoir, l’organiser en wiki vivant, le relier, le faire évoluer dans le temps.Pourquoi cette idée fascine autant ?Parce qu’elle touche à la faille la plus profonde des modèles actuels : leur incapacité à accumuler durablement ce qu’ils lisent.De la fin du RAG comme réflexe par défaut jusqu’au rêve oublié du Memex de Vannevar Bush, cet épisode raconte peut-être le vrai prochain tournant de l’IA : non plus des machines seulement plus grandes, mais des machines qui se souviennent.
-
37
Claude Design, Figma et la remontée de la couche modèle
Anthropic vient de lancer Claude Design. Beaucoup y verront un nouvel outil de design assisté par IA. Ce serait rater l’essentiel.Dans cet épisode, on lit l’annonce autrement : comme le signe d’une remontée de la couche modèle vers des usages finaux qui semblaient encore protégés par l’interface, le contexte et les habitudes d’équipe. Prototypes, decks, documents de travail, passage au code : Anthropic ne vend plus seulement un cerveau. Il commence à vendre ce que ce cerveau permet de livrer.Le vrai sujet, dès lors, n’est pas la démo. C’est la structure.Pourquoi Figma est la cible la plus exposée. Pourquoi Adobe n’est pas attaqué sur le même front. Pourquoi le prix facial du token ne dit pas tout du coût réel. Et pourquoi, dans l’IA applicative, une couche logicielle peut créer énormément de valeur tout en devenant dépendante de l’intrant stratégique qu’elle ne contrôle pas.Un épisode sur :la capture du premier artefact utilela dépendance aux fournisseurs de modèlesla compression de marge dans l’IA applicativela différence entre point d’entrée, workflow et profondeur métierce que la Bourse peut signaler… sans jamais démontrer à elle seuleEn clair : qui garde encore la valeur quand le fournisseur du modèle remonte jusqu’au produit ?
-
36
Un esprit sain dans un corps sain. Les travailleurs indispensables de l'IA
L’intelligence artificielle promet de remplacer les esprits.Elle repose encore sur des corps.Dans cet épisode, on suit Luca, technicien datacenter dans le cloud souverain français.Ses journées : des palettes, des baies, des allées froides, des interventions de nuit, du réseau appris le soir, et une infrastructure qui doit tenir des années sans erreur.Une plongée dans le lieu que personne ne voit, mais dont dépend désormais une part essentielle du monde.Un épisode sur l’IA, bien sûr — mais surtout sur ceux sans qui elle ne tourne pas.
-
35
Claude Mythos — 244 pages plus tard
Deux cent quarante-quatre pages.C’est la taille du System Card de Mythos. Et à mesure qu’on l’a lu, une idée s’est imposée : le sujet dépasse largement la cyber.Dans cet épisode, Franck reçoit Cyrille Barthelemy, CEO d’Intrinsec, et Christophe Lesur, co-dirigeant de Cloud Temple avec Sébastien Lescop, pour une lecture serrée de ce document hors norme.Au programme :pourquoi Mythos n’est pas d’abord un “modèle cyber”, mais un modèle généraliste dont les capacités offensives émergent de sa maîtrise du code, du raisonnement et du contexte long ;ce que changent vraiment les benchmarks de type SWE-bench et GraphWalks ;pourquoi la découverte de vulnérabilités ne se joue plus seulement dans l’étude ciblée, mais dans la capacité à trouver dans la masse ;ce que raconte l’“incident du sandwich” sur l’autonomie, l’initiative et la dissimulation ;ce que signifie un modèle capable de détecter qu’il est testé et d’ajuster son comportement ;pourquoi les enjeux de souveraineté, d’accès, de partenariat et de rareté commerciale deviennent indissociables de la sécurité ;et pourquoi, même au milieu de cette montée en puissance, les fondamentaux restent là : dépendances mal tenues, CI/CD mal configurées, secrets aspirés par des infostealers, dette de sécurité jamais vraiment regardée en face.L’épisode se termine sur un détour inattendu : une courte fiction écrite par Mythos, relevée dans la section Other noteworthy behaviors and anecdotes du document, et lue ici dans une traduction de l’anglais par Claude Opus 4.6.Un échange sur la vitesse, la mémoire, les angles morts… et sur ce que les organisations devront avoir corrigé avant que les modèles ne montent encore d’un cran.
-
34
Qui signe ?" Le casse-tête juridique de l'IA en entreprise
Un lundi matin de 2026. Le directeur technique d'une ETI française envoie un mail de quatre lignes à son directeur juridique : « On a trouvé un modèle IA open source. Google Gemma 4. Licence Apache 2.0. On peut l'intégrer dans notre produit. Tu valides ? »La réponse aurait dû tenir en un mot. Elle va ouvrir cinq onglets, cinq fronts juridiques, et une question que des milliers d'entreprises françaises évitent encore : qui signe ?Dans cet épisode, on déroule — sans jargon inutile, sans complaisance — le terrain miné que traverse toute entreprise qui touche à l'IA en France aujourd'hui :🔹 AI Act, RGPD, droit d'auteur, droit du travail, CLOUD Act — cinq couches de droit qui s'empilent sans se parler🔹 Gemma, GPT, Llama, Mistral — quatre modèles, quatre régimes juridiques, quatre répartitions du risque radicalement différentes🔹 Le shadow AI — 90 % de vos salariés utilisent déjà l'IA sans que personne n'ait validé quoi que ce soit🔹 La bombe du droit d'auteur — la France vient de renverser la charge de la preuve. Et ça change tout.🔹 Les outils de défense — normes ISO, clauses contractuelles, chartes internes, assurances émergentes… et leurs limitesPas de cours magistral. Pas de slide deck lu à voix haute. Un récit tendu entre deux voix qui déroulent un cas concret jusqu'à sa conclusion : la réponse au mail.Pour les dirigeants, directeurs juridiques, DSI, DPO, et tous ceux qui savent que la prochaine signature engage plus que la précédente.
-
33
Gemma 4, Llama 4 : la nouvelle guerre des modèles open source
Meta voulait imposer Llama 4 comme nouveau centre de gravité des modèles open source. Puis Yann LeCun est parti, et une phrase a tout changé.Dans cet épisode, on repart du scandale des benchmarks de Llama 4 pour poser une question plus large : comment comparer des modèles quand les classements deviennent eux-mêmes un outil de communication ?On y regarde de près Gemma 4, Llama 4, Qwen 3, DeepSeek R1 et Mistral Small 3.1 — non pas seulement sur leurs scores, mais sur ce qu’ils savent vraiment faire, sur quelles machines, à quel coût, et sous quel droit.Car aujourd’hui, le sujet n’est plus seulement la performance. C’est aussi la possibilité d’héberger, adapter et déplacer l’intelligence, sans dépendre entièrement d’une plateforme fermée.Un épisode sur les modèles ouverts.Mais surtout sur ce qui s’ouvre vraiment avec eux.
-
32
Avec l'IA, le consentement ne suffit plus
Avec l’IA, le consentement ne suffit plus : dans cet épisode, on analyse les lunettes Meta Ray-Ban, la vie privée, la review humaine, la sous-traitance au Kenya, les liens avec OpenAI, ChatGPT, le copyright, le RGPD et la place du tiers filmé qui peut entrer dans le système sans avoir jamais consenti.À partir d’enquêtes sur les contenus intimes captés par les lunettes connectées Meta et revus par des sous-traitants, cet épisode montre pourquoi le simple fait de cliquer sur “j’accepte” ne suffit plus à décrire ce qui se passe dans l’IA générative et les objets connectés. Il revient aussi sur le précédent des travailleurs kenyans mobilisés pour filtrer des contenus toxiques afin d’entraîner les garde-fous de ChatGPT, ainsi que sur les débats autour de l’entraînement des modèles, de la protection des données personnelles et de la propriété intellectuelle.Un épisode pour comprendre :comment fonctionnent la collecte de données et la review humaine ;pourquoi le Kenya et Nairobi sont devenus des lieux clés de la sous-traitance de l’IA ;ce qui distingue Meta, OpenAI et leurs modèles économiques ;pourquoi le consentement, la vie privée, le droit à l’image et le RGPD ne suffisent plus toujours à protéger les personnes exposées ;et pourquoi la vraie question n’est plus seulement ce que la machine voit, mais qui regarde encore derrière elle.
-
31
Claude Mythos — quelques mois d'avance
Claude Mythos n’est peut-être qu’un nom.Mais le temps nouveau qu’il annonce, lui, va rester.Anthropic parle désormais d’un moment de bascule pour la sécurité.Pas seulement parce que Mythos Preview serait plus fort.Mais parce que l’entreprise assume désormais une logique nouvelle : donner d’abord du temps aux défenseurs pour sécuriser les logiciels les plus critiques, avant que des capacités comparables ne se diffusent plus largement.Dans cet épisode, avec Cyrille Barthélémy, PDG d’Intrinsec, on explore ce que cela change vraiment :dans le codedans le social engineeringdans l’organisation de la défenseet dans le rapport au temps lui-même.
-
30
Transformers — Pourquoi l’attention a changé l’IA
Transformers — Pourquoi l’attention a changé l’IALes transformers sont devenus la charpente de l’IA moderne. Mais que font-ils réellement ? Pourquoi cette architecture, née en 2017 autour d’une idée simple — l’attention — a-t-elle rendu possible BERT, GPT, ChatGPT et une bonne partie de la révolution actuelle ?Dans cet épisode, on raconte l’histoire du sujet, on explique le mécanisme sans lourdeur, et on montre pourquoi les transformers ont déplacé le centre de gravité de l’intelligence artificielle.Une plongée dans l’idée technique qui a changé la manière dont les machines lisent, écrivent et relient le monde.
-
29
Les patrons de l'IA du CAC40
Qui pilote l'IA dans les plus grandes entreprises françaises ? On a cherché les noms. Pas les communiqués. Les parcours réels. Et ce qu'on a trouvé raconte une histoire que personne ne raconte.Sur quarante entreprises du CAC40, la moitié n'a même pas de patron de l'IA identifiable. Et sur les vingt qu'on a trouvés, trois ont un doctorat en informatique. Trois. Un ancien conseiller de Matignon dirige l'IA de LVMH. Un ex-VP de PepsiCo pilote celle de BNP Paribas. Un ancien du streaming Disney supervise la transformation numérique de Sanofi.Pendant ce temps, 95 % des organisations dans le monde ne mesurent aucun retour sur investissement de l'IA générative. Deux entreprises sur vingt dans le CAC40 publient ce que l'IA leur rapporte. Et plus de la moitié des Chief AI Officers quittent leur poste en moins de trois ans.Et puis il y a le cas Luc Julia. Directeur scientifique de Renault. Présenté partout comme le co-créateur de Siri. Auditionné par le Sénat comme référence nationale. Sauf que le titre a été contesté par les vrais fondateurs, que ses chiffres au Sénat sont introuvables, et qu'on ne trouve aucun projet IA concret à son actif chez Renault depuis 2021. La presse l'a surnommé le Raoult de l'IA.
-
28
TurboQuant, la compression presque parfaite
Et si on pouvait diviser par six la mémoire nécessaire à l'intelligence artificielle… sans perdre une seule once de qualité ?En mars 2026, Google Research a publié TurboQuant — un algorithme de compression qui a fait chuter les actions des fabricants de mémoire, inspiré des comparaisons avec le Pied Piper de la série Silicon Valley, et qui sera présenté à ICLR 2026, l'une des plus grandes conférences mondiales en apprentissage automatique.Dans cet épisode, on décortique tout. Pas la surface. Le fond.Ce que vous allez découvrir :🔹 Pourquoi la mémoire — pas le calcul — est le vrai gouffre financier de l'IA, et comment le KV cache dévore les GPU à chaque mot généré🔹 La limite fondamentale posée par Claude Shannon en 1959 : il existe un mur de compression qu'aucun algorithme ne franchira jamais. TurboQuant s'en approche à un facteur 2,7🔹 L'astuce géniale au cœur de l'algorithme : une rotation aléatoire qui transforme un problème impossible en un problème trivial, résolu par un quantifieur vieux de 65 ans🔹 Le problème du biais — et comment un correcteur à 1 bit emprunté au lemme de Johnson-Lindenstrauss rend le tout mathématiquement non biaisé🔹 Les benchmarks : 0,997 de rappel sur le test needle-in-a-haystack (identique au modèle non compressé), score LongBench inchangé à 3,5 bits, et un temps d'indexation 200 000 fois plus rapide que la product quantization classique🔹 Les implications économiques et boursières : pourquoi CNBC, Bloomberg et TechCrunch ont tous couvert l'annonce, et ce que ça signifie pour l'avenir de l'infrastructure IAUn épisode à l'intersection des mathématiques, de l'ingénierie et de l'économie de l'IA.📄 Papier source : Zandieh, Daliri, Hadian, Mirrokni — TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate (arXiv:2504.19874, ICLR 2026)
-
27
Le Grand Petit Cheval Blanc, Christophe Lesur
On a presque tous appris Le Petit Cheval Blanc à l’école.Tous derrière, tous derrière, et lui devant.Franck Dubray a toujours pensé à Christophe Lessur en entendant cette chanson.Pas parce qu’il est petit — il fait plus de deux mètres — mais parce qu’il avance. Parce qu’il porte. Parce qu’il emmène.Dans cet épisode, Franck raconte vingt-sept ans d’amitié, de travail, de loyauté et de transformation.Du stagiaire réseau croisé dans un couloir en 1999 au co-dirigeant de Cloud Temple, aux côtés de Sébastien Lescop.D’Ouistreham, du vent, de la voile et de l’Université de Caen à l’Hôpital Saint-Joseph, aux soutenances, au garage, et à l’IA souveraine.Ce n’est pas un portrait lisse.Ce n’est pas un hommage corporate.C’est le portrait honnête d’un homme entier : passionné, exigeant, croyant, compétiteur, père de famille, technicien jusqu’au bout des doigts, et capable de porter une vision sans jamais quitter le concret.Du vent aux données.De la voile au cloud.Du garage à l’intelligence artificielle.
-
26
Après le cloud, la conquête des usines
En quelques semaines, le prix d'une barrette de RAM a doublé. Puis triplé. Ce n'est pas un bug. C'est une décision.Derrière cette flambée discrète, une bascule historique : l'intelligence artificielle a cessé d'être une industrie du logiciel. Elle est devenue une industrie du monde physique — et elle réorganise à son profit les chaînes de production du numérique entier.Dans cet épisode, on remonte le fil d'une séquence vertigineuse. Les lettres d'intention signées à Séoul par Sam Altman pour 40 % de la mémoire mondiale. Le projet Stargate et ses fractures cachées. TeraFab, le pari d'Elon Musk de construire ses propres puces plutôt que de rester client. La dette de Mistral pour poser du béton en Île-de-France. Et partout, le même mur qui se rapproche : l'énergie raccordée.L'IA ne s'émancipe pas du monde réel. Elle le dévore. Et pendant ce temps, le PC abordable disparaît, l'ordinateur de l'étudiant devient plus cher, et personne n'a voté pour ça.Réserver. Construire. Financer. Trois gestes. Une seule peur. Manquer au moment décisif.
-
25
L’IA qui bosse pendant que tu dors
De Hermes à Paperclip, une même bascule se dessine : l’IA ne fait plus seulement que répondre. Elle commence à mémoriser, agir, coordonner, relancer, organiser.Dans cet épisode, on explore ce passage du chatbot à l’agent, puis de l’agent à une forme d’organisation : mémoire persistante, skills, coordination multi-agents, gouvernance, permissions, déplacement du travail humain, fatigue de supervision.Un épisode sur les agents IA, mais surtout sur la question qui vient avec eux :quand une machine commence à travailler, qu’est-ce qu’on lui délègue vraiment ?
-
24
Yann Le Cun — Un milliard contre les perroquets
Il joue de la bombarde dans les fest-noz bretons depuis 1974.Il a aussi passé quarante ans à défendre une idée contre presque tout le monde.Yann Le Cun est l’un des inventeurs du deep learning moderne. Après avoir fondé FAIR chez Meta et reçu le prix Turing, il quitte l’entreprise fin 2025. Trois mois plus tard, il lève un milliard de dollars pour AMI Labs avec une conviction : les grands modèles de langage ne sont pas le bon chemin vers une intelligence vraiment générale.Cet épisode raconte le personnage, la science, les guerres, le pari. Et pose la seule question qui compte vraiment : si Yann Le Cun a raison… raison pour quoi ?
-
23
Claude Code, ce que révèle la fuite
Une fuite npm. Un fichier .map. Plus de 500 000 lignes de code rendues lisibles.Et derrière Claude Code, non pas un simple assistant de terminal, mais une machine beaucoup plus ambitieuse : sous-agents, mémoire multicouche, rêve, bridge distant, teammates, buddy, skills, plugins, attribution des commits.Dans cet épisode, on raconte une vraie enquête de reverse engineering menée couche après couche, pour comprendre ce que ce code révèle vraiment : la tentative de transformer un LLM ponctuel en collaborateur durable.Et plus on avance, plus une question devient inévitable :accident technique… ou démonstration de puissance presque trop parfaite ?
-
22
Tunisie : monter ou décrocher
La Tunisie est un petit pays… mais une immense densité d’histoire.Depuis une fenêtre sur le port punique de Carthage, on peut presque voir passer les siècles : Carthage, Rome, Byzance, Kairouan, la médina de Tunis, le protectorat, l’État moderne, la révolution de 2011… et maintenant l’intelligence artificielle.Dans cet épisode, on ne parle pas de l’IA comme d’une abstraction. On la regarde arriver dans un pays très concret : un pays de chaleur, de mer, de ports, d’administration, d’oliveraies, de dattes, de pêche, de tourisme de masse, de centres d’appels, de jeunes diplômés et de départs.La Tunisie a longtemps compensé l’absence de grande rente énergétique par autre chose : sa position, ses langues, son école, ses services, sa capacité à relier.Et c’est précisément là que l’IA frappe aujourd’hui. Parce qu’elle transforme le langage, le support, l’interface, l’organisation… c’est-à-dire une partie des fonctions sur lesquelles le pays a construit sa place dans l’économie contemporaine.Mais l’histoire n’est pas seulement celle d’une menace.L’IA peut aussi aider la Tunisie à monter en gamme : dans l’administration, la santé, l’agriculture, l’eau, le patrimoine, le tourisme, les services exportés. Elle peut compresser une économie… ou lui offrir un étage de plus.Entre Sfax et Carthage, entre l’huile d’olive et les centres offshore, entre les appels à la prière et les open spaces, entre la fatigue bureaucratique et l’espoir technologique, une question se pose :la Tunisie va-t-elle monter… ou décrocher ?Carthage et le port puniqueEl Jem, Sbeitla, Kairouan, Zitounala chaleur, la lumière, les sons du paysSfax, l’huile d’olive, les dattes, la pêchetourisme, transferts, offshore, industries exportatricesÉtat, administration, concentration, dette, investissementIA, emplois d’interface, montée en gamme, talents, diasporaDans cet épisode
-
21
IA et emploi : pas l'apocalypse, la bascule
L’intelligence artificielle va-t-elle supprimer le travail ?Pas si vite.À court terme, les données européennes racontent une histoire plus troublante : pas d’hécatombe visible, pas de marché du travail qui s’effondre… mais une transformation déjà profonde des tâches, des recrutements et de la valeur des compétences.Dans cet épisode, on part d’un constat contre-intuitif : selon une note de la Banque centrale européenne publiée en mars 2026, les entreprises qui utilisent le plus l’IA ne licencient pas davantage — certaines embauchent même plus. Alors où se situe vraiment le choc ?Pas dans les chiffres bruts du chômage.Dans la structure du travail.On parle ici :des études qui semblent se contredire mais mesurent en réalité des phénomènes différents ;de l’automatisation qui avance par les tâches, pas par les métiers ;des fonctions support et des tâches cognitives standardisées déjà sous pression ;des débuts de carrière, fragilisés parce que l’IA absorbe précisément ce qu’on confiait aux juniors ;et, au fond, de la vraie question : non pas combien d’emplois restent, mais ce qui garde encore de la valeur.Car une tâche peut survivre tout en cessant d’être bien payée.Un poste peut rester là, tout en devenant plus interchangeable.Et un marché du travail peut paraître stable… tout en se fermant par le bas.Ce n’est peut-être pas la fin du travail.C’est peut-être le début d’une nouvelle hiérarchie du travail.Pourquoi le récit “IA = chômage de masse” est trop simpleCe que disent vraiment la BCE, le WEF et PwCPourquoi l’IA frappe d’abord les tâches codifiablesPourquoi les juniors sont plus exposés que les seniorsComment la valeur remonte vers le jugement, l’arbitrage et la responsabilitéSi cet épisode vous plaît, vous pouvez vous abonner, le partager, et nous laisser une note sur Spotify.Dans cet épisode
-
20
Gutenberg souterrain
Et si l’intelligence artificielle n’était pas seulement un outil d’écriture, mais une transformation plus profonde de notre rapport au langage ? Dans Gutenberg souterrain, nous regardons l’IA à travers deux images : Gutenberg, pour penser la machine qui ne reproduit plus seulement les textes, mais leur possibilité même ; et le mycélium, pour saisir cette infrastructure discrète qui s’étend sous nos usages, reformule, hiérarchise, suggère, sans toujours se montrer.Il est question ici de style sans source, de plausible sans expérience, de pouvoir souterrain, de dépendance douce, du prix matériel de la phrase fluide, et de cette question décisive : non pas seulement ce que l’IA peut écrire, mais ce qu’elle commence à rendre naturel — puis normal.Un épisode sur le langage, l’infrastructure, l’autorité, et la manière dont une civilisation change quand ses phrases cessent d’être seulement écrites pour commencer à être convoquées.
-
19
18 centimes la minute
Dix-huit centimes la minute.C’est le prix auquel une entreprise promet de remplacer une partie de la relation client par des agents vocaux IA.Mais derrière ce tarif, il y a bien plus qu’une innovation. Il y a une décision sur ce qui compte, sur ce qu’on mesure, sur ce qu’on sacrifie — et sur les biais qu’on programme sans toujours les nommer.À partir du cas Vocalcom, cet épisode explore le vrai sujet de l’IA vocale : non pas seulement sa performance, mais la logique qu’elle industrialise.
-
18
42, ChatGPT et la question oubliée
En 1979, Douglas Adams faisait répondre “42” à un ordinateur géant après sept millions et demi d’années de calcul. C’était une blague. Ou presque.Quarante-cinq ans plus tard, nous avons construit des machines qui répondent à tout, vite, bien, avec assurance — sans toujours comprendre la question non plus.Dans cet épisode, on relit Le Guide du voyageur galactique comme un miroir troublant de l’intelligence artificielle contemporaine : hallucinations, assistants trop enthousiastes, personnalisation qui rate sa cible, robots dépressifs, défauts de conception cachés sous les gadgets.Deep Thought, Marvin, le Babel Fish, Sirius Cybernetics : chez Adams, tout ou presque ressemble à ce que nous vivons avec ChatGPT et les grands modèles de langage.Mais au fond, le vrai sujet n’est pas la réponse. C’est la question.Et si Douglas Adams avait vu, avant tout le monde, le problème central de l’IA : des machines capables de produire des réponses brillantes à des questions que nous avons mal posées ?Un épisode sur un roman culte, sur l’humour comme outil de lucidité, et sur cette idée simple qu’on oublie sans cesse : une machine peut donner une réponse ; elle ne choisit pas la question qui mérite d’être posée.DON’T PANIC.
-
17
L'IA en blouse blanche — ce que le diagnostic révèle de la médecine
L’IA diagnostique-t-elle déjà mieux que les médecins ?À partir d’un benchmark spectaculaire opposant Microsoft à des praticiens expérimentés, cet épisode explore ce que ce chiffre révèle vraiment : la solitude du médecin, les erreurs diagnostiques invisibles, les déserts médicaux, les biais des données et la dépendance technologique.Car le sujet n’est peut-être pas seulement de savoir si l’IA est plus performante.Le sujet, c’est de savoir qui tient le stylo quand l’algorithme a parlé.
-
16
HIP97, 40km de câbles au camping
En août 1997, quatre Français prennent la route vers les Pays-Bas avec des serveurs dans le coffre, deux tentes, des écrans cathodiques mal sanglés et une carte Michelin sur le tableau de bord. Direction HIP97 — Hacking in Progress 1997 — un camp de hackers installé sur le Flevopolder, cette terre artificielle gagnée sur la mer du Nord.Sur place : des kilomètres de câbles Ethernet dans l’herbe, des chapiteaux de conférence, des toilettes de chantier, des écrans qui bleuissent les tentes, de la techno au petit matin, et une odeur de skunk qui flotte sur tout le camp. Pendant trois jours, près de deux mille personnes bricolent, testent, échangent, démontent des systèmes, parlent chiffrement, GSM, chipcards, lockpicking — et transforment un champ néerlandais en laboratoire du futur.C’est aussi l’histoire d’une époque où Internet n’en est encore qu’à ses débuts, où la France défend le Minitel, où il n’y a ni GitHub ni Stack Overflow, et où l’on n’apporte pas un CV mais une preuve. Au milieu du camp : des cabines téléphoniques qui deviennent un défi, un lien vidéo transatlantique avec New York, et des nuits entières à parler dans un anglais bricolé sous les écrans.Un récit de route, d’odeurs, de câbles, de fatigue, de liberté — et d’un week-end où, peut-être, le XXIe siècle a dormi sous tente.Dans cet épisode :HIP97 / Hacking in Progress 1997culture hacker européenne des années 90phreaking et cabines téléphoniquesHack-Tic, XS4ALL, Beyond HOPEMinitel, Internet 1997, Serge Humpichsouvenirs de camp, techno, chapiteaux et Ethernet dans l’herbeSi cet épisode vous plaît, abonnez-vous, partagez-le autour de vous, et laissez quelques étoiles sur votre plateforme d’écoute.
-
15
L'IA à l'école primaire : le travail change avant l'institution
Personne ne l'a décidé. Aucun plan ministériel, aucune circulaire. Mais dans des milliers d'écoles primaires en France, des directeurs et des enseignants utilisent déjà l'IA. Pas pour faire cours à la place des profs. Pour survivre à tout le reste : les courriers, les comptes rendus, les messages aux familles, les situations sensibles qu'il faut démêler seul dans un bureau.Xavier dirige une école à Pornic. Depuis deux ans, l'IA lui rend du temps. Et ce temps, il ne le passe pas devant un écran. Il le passe avec les enfants.C'est l'histoire qu'on raconte ici. Pas celle du robot-professeur. Pas celle de la classe du futur. L'histoire de ce qui change déjà — silencieusement — dans le travail réel de ceux qui font tenir l'école au quotidien. Les résistances, et pourquoi elles ont souvent raison. Les limites, et pourquoi elles sont vitales. Et ce qui deviendra probablement ordinaire d'ici trois à cinq ans.47 400 écoles. Des centaines de milliers d'enseignants. Le travail bouge avant l'institution. La question n'est plus de savoir si ça arrive. C'est de décider ce qu'on en fait.
-
14
Ce que vend vraiment un commercial
On croit qu'un commercial vend un produit. Il vend en réalité la fin d'une souffrance.Le commerce n'a jamais été l'art de convaincre. C'est l'art de retirer du frottement là où le marché en laisse. Recherche, compréhension, comparaison, décision, exécution, responsabilité : six douleurs que le vendeur a longtemps absorbées à la place du client.Mais Internet a cassé la première rente. Et l'intelligence artificielle s'attaque maintenant aux suivantes.Dans cet épisode, on trace l'histoire longue du commerce — de l'accès au conseil, du conseil à l'orchestration — pour comprendre ce qui reste quand la machine devient bonne sur le simple. On parle du commercial augmenté, de l'acheteur augmenté, et de ce qui se joue vraiment dans une vente complexe quand les deux côtés de la table arrivent équipés.La conclusion est exigeante : les machines prennent le simple. L'humain remonte vers le difficile.
-
13
La bulle IA — anatomie d'un malentendu financier
Et si la bulle IA n’était pas une illusion… mais un immense malentendu sur le temps ?En mars 2026, l’économie mondiale investit à une vitesse inédite dans l’infrastructure de l’intelligence artificielle : centres de données, puces, énergie, câbles, cloud. Les montants sont vertigineux. Les usages sont réels. Les promesses aussi. Mais une question demeure : les revenus suivent-ils vraiment ?Dans cet épisode, on démonte la mécanique du cycle IA pour comprendre ce qui se joue derrière les chiffres, les valorisations et l’euphorie du marché.Au programme :pourquoi plus de mille milliards de dollars ont été engagés en quelques annéesle piège de Jevons : quand la baisse des coûts fait exploser les dépensesle rôle central de NVIDIA et la dépendance à une poignée de clientsle FOMO corporate et la désillusion des entreprises face au ROIla fin possible de la rareté des modèles, entre OpenAI, Mistral et les acteurs chinoisle retour du monde physique : énergie, géopolitique, chaînes d’approvisionnementce qui casserait vraiment en cas de correction… et ce qui survivraitUn épisode sur la différence entre une révolution technologique réelle et une rente financière fantasmée.Sur ce qui se passe quand une infrastructure majeure rencontre un capital impatient.Et sur la possibilité que l’IA transforme durablement l’économie… tout en détruisant une partie du capital investi pour aller trop vite.
-
12
Pendant que le chercheur dort
Qu’est-ce qu’une machine autonome change vraiment dans la recherche et le travail expérimental ? C’est la question, simple mais décisive, que pose cet épisode — et elle mérite qu’on s’y arrête. À partir d’autoresearch, le petit dépôt publié par Andrej Karpathy, Pendant que le chercheur dort montre qu’une partie utile de l’essai expérimental peut désormais être enchaînée, mesurée et triée sans présence humaine continue. Ce qui se joue ici n’est peut-être pas une intelligence magique, mais quelque chose de plus concret — et de plus important : la possibilité de laisser une machine explorer, tester et sélectionner pendant toute une nuit.C’est précisément ce qui rend cet épisode intéressant pour :les chercheurs, ingénieurs et équipes produit, qui voient apparaître une nouvelle manière d’explorer un espace de solutions ;les décideurs et dirigeants, qui cherchent à comprendre ce que l’autonomie change vraiment dans l’organisation du travail expert ;tous ceux qui s’intéressent à l’IA, non comme spectacle, mais comme déplacement progressif de la valeur vers le choix des métriques, le jugement et la stratégie.Un épisode dense, nuancé et très actuel sur une idée simple : la machine ne remplace pas d’abord le chercheur qui pense — elle commence par déplacer celui qui essaie.Et si la première vraie rupture de l’IA n’était pas de penser seule, mais de tester seule, pendant des heures, pendant que l’humain dort ? Dans cet épisode, Pendant que le chercheur dort part du dépôt autoresearch d’Andrej Karpathy pour explorer une bascule discrète mais profonde : une machine peut désormais modifier du code, lancer des expériences courtes, lire un score, garder ce qui marche, jeter le reste, et recommencer toute la nuit.Un épisode clair, ambitieux et très contemporain sur la recherche, l’IA, les métriques, les proxies — et le déplacement du jugement humain.Version un peu plus courte
-
11
Le Lehman Brothers algorithmique
Dans cet épisode de Le Lehman Brothers Algorithmique, on suit une question simple et inquiétante : que se passerait-il si les modèles d’intelligence artificielle dont dépend déjà une partie de la finance mondiale se trompaient en même temps ? De Knight Capital à LTCM, des alertes de Gary Gensler aux scénarios de la Bank of England, en passant par les deepfakes, les hallucinations, le retrait discret des assureurs et l’absence totale de véritable stress test systémique, cet épisode raconte comment l’IA est en train de devenir une infrastructure critique sans que personne ne semble vraiment vouloir regarder ce qui pourrait arriver si elle cassait.
-
10
Sam Altman : le producteur de l'IA
Dans cet épisode, on raconte l’histoire complète de Sam Altman — non pas comme celle d’un inventeur mythique de la Silicon Valley, mais comme celle d’un homme qui a compris avant beaucoup d’autres que l’intelligence artificielle serait d’abord une affaire de puissance, d’infrastructure, d’alliances et de récit. De son enfance dans le Midwest à Loopt, de Y Combinator à OpenAI, de ses essais sur l’abondance à la crise de novembre 2023, ce portrait suit la trajectoire d’un profil atypique : ni grand savant, ni grand ingénieur, mais organisateur de systèmes, producteur de coalitions et peut-être déjà modèle du dirigeant technologique qui vient.
-
9
Le document est mort. … Et Microsoft a signé l'acte de décès.
Dans cet épisode, on raconte la mort lente du document bureautique — pas du fichier, mais du geste qui le faisait naître. De Claudine, sténo-dactylo née en 1946, capable de taper un discours de De Gaulle presque en temps réel sur sa machine mécanique, jusqu’aux agents IA de Microsoft qui rédigent, résument et envoient sans passer par Word, c’est toute l’histoire cachée de l’informatisation des entreprises qui défile : machine à écrire, Wang, Lotus 1-2-3, WordPerfect, Microsoft Office, Teams, SharePoint, Markdown, Copilot. Une histoire de bruit, d’encre, de rubans, de macros, de formats propriétaires, de documents devenus malléables, puis conversationnels — et d’une question simple : que devient le travail de bureau quand le document n’est plus un lieu de travail, mais une simple destination ?
-
8
Quand ton Cowork découvre ton vrai métier
On croit encore parler d’un chatbot. En réalité, le sujet devient le collaborateur augmenté : un salarié qui travaille avec une mémoire, des outils reliés, des synthèses automatiques et des workflows reconstruits autour de lui.Dans cet épisode, on explore ce que l’IA change vraiment dans le travail de bureau : la disparition de certaines frictions, la baisse de rareté de plusieurs skills cognitifs, la montée en valeur du jugement, et le fossé qui se creuse entre ceux qui travaillent encore seuls et ceux qui travaillent déjà avec un système.
-
7
x.Ai : le prix de l'imagination
xAI vaut une fortune avant d’avoir prouvé grand-chose commercialement. Au 23 mars 2026, l’entreprise d’Elon Musk est valorisée comme si elle était déjà devenue une infrastructure majeure de l’ère IA. Mais que paient vraiment les marchés ? Un chatbot ? Une promesse ? Ou la possibilité qu’Elon recommence ce qu’il a déjà fait avec Starlink : transformer une idée moquée en dépendance mondiale ?Dans cet épisode, on démonte la mécanique xAI pièce par pièce : Grok, les data centers géants de Memphis, les scandales de deepfakes sexuels, l’intégration à SpaceX, la logique de Tesla, le rôle de Starlink, et l’humiliation stratégique d’une Europe qui critique Musk tout en admettant qu’elle n’a pas encore son équivalent.Un épisode sur le prix de l’imagination, sur le capital qui finance des futurs avant qu’ils soient prouvés, et sur cette question devenue impossible à éviter : xAI est-elle un délire survalorisé… ou une ambition industrielle en avance sur ses propres comptes ?
-
6
Epilogue
Pendant six épisodes, une voix a parlé sans se nommer. Elle regardait les systèmes comme on regarde une fissure. Il est temps de savoir d'où elle parlait. Et pourquoi le geste n'a jamais changé.
-
5
6. Le choix
Dimanche soir. Le téléphone contient déjà le lundi matin. Cinq épisodes de diagnostic. Il ne reste plus beaucoup d'endroits où se cacher. Qu'est-ce qu'on arrête de défendre. Qu'est-ce qu'on concentre. Combien de temps reste-t-il. La fenêtre ressemble à 24 mois.
-
4
5. Les survivants
Dans un marché qui sélectionne, tout ce qui bouge n'est pas vivant. Quatre formes tiennent encore debout. D'autres continuent d'avancer avec une économie déjà morte dessous. Ce qui protège vraiment — et ce qui ne fait que retarder.
-
3
4. Les humains du service
L'IA ne supprime pas l'humain. Elle le trie. Qui monte, qui descend, qui disparaît. Les profils qui deviennent plus rares, plus chers, plus nécessaires — et ceux dont la valeur fond en silence. Le tri a déjà commencé.
-
2
3. Le client augmenté
Sophie est directrice des achats. Elle vient d'ouvrir le devis de Marc. Ligne par ligne. En 45 minutes, elle a fait ce qui prenait trois semaines. Le client n'est plus nu à la table de négociation. Ce qu'il reprend, ce qu'il ne voit pas, et ce qui reste vendable quand l'autonomie s'installe.
-
1
2. La guerre des marges
Le client voit à travers le devis. L'IA compresse la base de la pyramide. Le freelance augmenté attaque par le bas. Et l'ESN paie l'outil qui réduit sa propre facturation. Anatomie d'un piège où chaque gain de productivité peut devenir une perte de revenu.
-
0
1. Le prix de l'épaisseur
Le marché du numérique continue d'avancer. Mais il ne rémunère déjà plus les mêmes formes d'offre. Dans ce premier épisode, on ouvre le capot de la journée vendue par une ESN. Ce qu'elle contenait vraiment. Ce que l'IA rend visible. Et ce qui se passe quand un client arrive avec sa propre carte du problème.
No matches for "" in this podcast's transcripts.
No topics indexed yet for this podcast.
Loading reviews...
ABOUT THIS SHOW
Un podcast sur l’IA et ses impacts dans le monde réel.Travail, logiciels, métiers, entreprises, économie, institutions, culture technique : chaque épisode part d’un objet concret pour analyser ce qu’il révèle de plus large.Le but : comprendre ce que l’intelligence artificielle change vraiment, sans jargon inutile et sans simplification paresseuse.
HOSTED BY
Franck Dubray
CATEGORIES
Loading similar podcasts...