AI, en Dans på Roser

PODCAST · technology

AI, en Dans på Roser

En podcast til folk, der arbejder med AI. Dan Rose, stifter af AI-huset Todai, inviterer profiler fra erhvervsliv, politik og forskning ind til skarpe samtaler om kunstig intelligens - med fokus på teknologiens virkelige betydning for forretning, samfund og konkurrenceevne.Vi sætter det faglige niveau op og går et skridt dybere med både teknologien og adoption af kunstig intelligens. Vi taler ikke buzzwords og smarte one-liners. Ingen forklaringer af gængse AI-termer. Podcasten er lavet til dem, der allerede arbejder med AI, hvor samtalerne går på, hvordan AI skal implementeres og adopteres, skaber værdi, kan reguleres og de reelle praktiske erfaringer. Og vi gør det i en tone, der er direkte, faglig og uden alt det AI-hype og raket-emojis.Podcasten udkommer som lyd og video. Nye episoder hver uge.

  1. 41

    De glade tabere: Hvad vi lærer af autonome agenter, der forhandler for os

    Hvad sker der, når vi fjerner mennesket fra ligningen og lader autonome AI-agenter forhandle, købe ind og indgå aftaler på vegne af os? I dette afsnit af AI, en Dans på Roser kommer du med ned i et fascinerende kaninhul. Med udgangspunkt i Anthropics nye "Project Deal"-eksperiment og en case fra Walmart, undersøger vi agent-økonomiens skjulte tab, hvem der vinder og hvordan markedet ændrer sig.I dette afsnit lærer du blandt andet:Træning trumfer Tech: Hvorfor sprogmodellen kun udgør en fjerdedel af din succes.Færre følelser og flere beviser: Hvordan autonome agenter udfordrer den klassiske marketing, og hvordan Signaling Collapse gør data mere værd end følelser.Det usynlige snyd: Taberne i et AI-forhandlingseksperiment fik dårlige aftaler men hvad glade.De nye flaskehalse: Hvorfor uendelig maskin-tålmodighed gør "mikro-forhandlinger" om småpenge til en god forretning.Til sidst får du et tiltrængt reality check til det meget omtalte "CBS AI Survey 2026", som afslører en skræmmende sandhed om "ubevidst inkompetence" på de danske arbejdspladser.Links til studier og kilder nævnt i afsnittet:Project Deal (Anthropic): Eksperimentet, hvor AI-agenter forhandlede på vegne af ansatte. Læs studiet her (PDF)How Walmart Automated Supplier Negotiations (Harvard Business Review): Casen om, hvordan Walmart automatiserede indkøb og forhandling med leverandører via AI. Læs artiklen herGLEE-studiet: Forskningen der afdækker, hvor meget det menneskelige input og prompting betyder for AI's kvalitet (de 75%). Læs studiet her (Arxiv)Project Vend & Andon Labs (Anthropic): De tidligere forsøg med den virtuelle kiosk og avancerede simuleringer af agenter over tid (inkl. "Doom Loops"). Læs Project Vend 1 her | Læs Project Vend 2 herAgentic Interactions (SSRN): Det økonomiske studie af, hvordan AI forstærker menneskelige forskelle frem for at udligne dem, og begrebet "Specification Hazards". Læs studiet herThe Coasean Singularity? (NBER): Forskningen bag faldende transaktionsomkostninger og "Signaling Collapse". Læs studiet her (PDF)

  2. 40

    Har du AI-etikette? Hvordan manglende 'takt og tone' skader jeres AI-adoption

    I dette afsnit sætter vi fokus på den uformelle governance og et af de mest oversete emner i AI-transformationen: Takt og tone på arbejdspladsen. For med AI overalt, oplever flere og flere dårlig AI-adfærd fra deres kollegaer, hvilket skaber frustration og modstand mod AI adoption i organisationen.Ligesom vi i sin tid skulle lære de uskrevne regler for at have mobiltelefoner med i mødelokalet, mangler vi i dag et fælles regelsæt for vores omgang med kunstig intelligens. Derfor præsenterer Dan Rose i bedste Emma Gad-stil et konkret sæt spilleregler for god AI-adfærd:Opgøret med tidsarrogance: Stop med at sende uigennemlæst "AI-fluff". Respektér modtagerens tid ved at bruge AI til at præcisere og forkorte tekster frem for at skabe mere støj.Møde-bots og samtykke: Brug aldrig transskriberings-bots uden eksplicit accept fra alle. At sende en bot til et møde, man ikke selv deltager i, er dårlig stil og et potentielt brud på fortroligheden.Relationer vs. transaktioner: Automatisér processer, ikke empati. Kaptajnreglen: Du ejer 100% af ansvaret for dit output. "AI'en hallucinerede" er aldrig en gyldig undskyldning for fejl.Prompt-splaining: Undgå teknologisk snobberi og vær inkluderende over for dem, der ikke taler så AI-flydende endnu.Vi dykker også ned i, hvordan man rent praktisk håndterer konfrontationen ved dårlig AI-adfærd på kontoret. Og endelig diskuterer vi, hvorfor ledelsen bør integrere en officiel AI-etikette direkte i medarbejderhåndbogen.

  3. 39

    Min ulovlige podcast-app – Soloafsnit med Dan Rose

    Dan Rose har bygget verdens bedste podcast-app på en middagslurstid. Den er bare ulovlig - i hvert fald at distribuere. Og det er præcis pointen.For et par år siden havde det taget tre måneder. I dag tager det den tid, det tager en etårig at sove til middag. Og når det går så stærkt, er ophavsretten snart umulig at håndhæve – og alt det, din virksomhed troede var svært at kopiere, er det ikke længere.I det her afsnit bruger Dan sin ulovlige podcast-app og et internt HR-system som afsæt for en bredere pointe om, hvad der faktisk beskytter en forretning i en verden, hvor alle kan bygge alt.Dan kommer omkring:Ophavsrettens udløbsdato: Hvornår afledte værker holder op med at give mening som juridisk konstruktion – og hvad det betyder for mediehuse, SaaS-virksomheder og alle andre, der bygger forretning på indhold.Vibe coding som forretningsværktøj: Hvorfor du skal starte med et vibe codet system, før du køber en enterprise-løsning – og hvordan Dan allerede gør det i Todai.SaaS-markedets nye virkelighed: Hvad der sker med de SaaS-virksomheder, der kun kan det, alle nu selv kan bygge på to timer.Hyperpersonalisering og ekkokamre: Når alle processer og interfaces er skræddersyet til den enkelte, opstår der et nyt alignment-problem i organisationen.Kultur som den eneste voldgrav: Hvorfor IT-investeringer og unikt indhold er holdt op med at beskytte din virksomhed – og hvad Apple vs. Dell lærer os om, hvad der faktisk gør forskellen.Har du ønsker til emner eller gæster? Skriv til [email protected] til screenshots af Dans podcast-app: https://todai.ai/ai-podcast/#podcast-app

  4. 38

    Den falske tryghed, der gør dine AI-systemer dårligere: Human in the Loop - Soloafsnit med Dan Rose

    "Vi sætter bare et menneske ind i loopet" er blevet standardsvaret, når compliance spørger til risici. Men hvad nu hvis det gør tingene værre?I det her soloafsnit tager Dan Rose fat på Human in the Loop – et begreb, der er vokset eksplosivt og er skrevet direkte ind i EU's AI Act, men som forskning viser gang på gang kan sænke kvaliteten, forværre bias og reducere dygtige medarbejdere til juridiske stødpuder.Dan kommer ind på:Præstationsparadokset:Hvorfor menneske plus AI ikke altid giver det bedste resultat – og hvornår AI faktisk klarer sig bedre alene.De kognitive faldgrupper: Vigilance decrement, belejlighedsbias, forankringsbias og bekræftelsesbias – og hvad de gør ved dine medarbejdere, når de sættes til at godkende AI-output.Den moralske deformationszone: Hvorfor Human in the Loop alt for ofte er et "cover your ass"-værktøj, der placerer ansvaret hos medarbejderen uden at give dem reel kontrol.Tre konkrete designgreb: Kognitiv tvangsfunktion, delegation inversion og kortet vs. terrænet – sådan bygger du workflows, der rent faktisk virker.Har du ønsker til emner eller gæster? Skriv til [email protected]:Human-AI Synergy (MIT, 2025): Når mennesker gør AI dårligere:https://mitsloan.mit.edu/ideas-made-to-matter/when-humans-and-ai-work-best-together-and-when-each-better-aloneAnsvarshuller (AU, 2023): Hvorfor det er uetisk at give medarbejderen ansvaret for AI-fejl:https://link.springer.com/article/10.1007/s10676-023-09699-6Manglende Metaviden (2022): Vi er dårlige til at vurdere, hvornår vi skal stole på maskinen:https://pubsonline.informs.org/doi/10.1287/isre.2021.1079Kognitive Tvangsfunktioner: Fartbump der tvinger os til selv at tænke:Studie 1: https://arxiv.org/abs/2101.04517Studie 2: https://arxiv.org/abs/2402.16279Moral Crumple Zones (2019): Mennesket som "deformationszone" når teknikken fejler:https://estsjournal.org/index.php/ests/article/view/260Case: Zillows algoritme-flop (2021): Da AI-styrede boligkøb kostede millioner:https://www.gsb.stanford.edu/insights/flip-flop-why-zillows-algorithmic-home-buying-venture-implodedSucces-case: Radiologi (2023): Markant bedre diagnosticering via AI-støtte:https://pubmed.ncbi.nlm.nih.gov/37993303/

  5. 37

    Dine nye krav til IT-leverandører: Aflever 80% færdigt, få dataen fri og nedbryd siloerne - Soloafsnit med Dan Rose

    Hvad nu hvis det system, du bruger til kontrakter, CRM eller projektstyring, aktivt spænder ben for din forretning? Dan Rose tager i det her soloafsnit fat i en diskussion, mange overser: Hvordan AI ændrer det fundamentalt, du bør kræve af dine it-leverandører.Du skal høre om 80/20-modellen, der vender indkøbslogikken på hovedet – og om, hvad vibe coding faktisk gør muligt, når din leverandør er åben nok til at lade dig bygge ovenpå. Dan giver konkrete eksempler fra Todais eget maskinrum, inkl. et system han er i gang med at opsige netop nu.Og så tager han djævlens advokat-kasketten på og advarer mod Vibe Collapse – det nye shadow IT-mareridt, der opstår, når alle bygger alt, og ingen ejer noget.Dan kommer omkring:Hvorfor et 80% færdigt system er præcis det, du skal gå efter – og hvad de sidste 20% skal betyde for digComposable AI og Gartners opgør med monolitiske it-systemerVibe coding i praksis: Todais interne dashboard og screenshot-til-deal-løsning i HubSpotFriktion dræber innovation: Kontraktsystemet Dan er ved at opsige, og HubSpot som det gode eksempelVendor lock-in som strategisk trussel: Kelsey Hightowers advarsel om AI-portabilitet3 røde flag til dit næste leverandørmøde: forandringsledelse, AI Act washing og grundmodel-hypeVibe Collapse: Når demokratiseret udvikling skaber historiens største shadow IT-problemHar du ønsker til emner eller gæster? Skriv til [email protected]

  6. 36

    Tager AI dit job? Nej, det smelter din hjerne (AI Brain Fry) - Soloafsnit med Dan Rose

    Hvad sker der, når AI ikke fjerner arbejdet fra dine medarbejdere, men i stedet overbelaster deres hjerner?I den her soloepisode tager Dan Rose fat på AI Brain Fry – et nyt fænomen, der peger på, at den største flaskehals i AI-arbejdet ikke længere er teknologien, men menneskets evne til at følge med. Du skal bl.a. høre om, hvorfor de medarbejdere, der får mest ud af AI, også kan være dem, der rammes først, hvad det betyder for kvalitet og trivsel, og hvorfor debatten om massearbejdsløshed måske rammer ved siden af.Dan kommer omkring:Den nye flaskehals: Hvorfor det ikke længere er data, jura eller regnekraft, der begrænser effekten af AI, men frontallapperne på dine medarbejdere. Brain Fry vs. burnout: Hvorfor AI godt kan fjerne trivielt arbejde og samtidig skabe en ny form for akut kognitiv overbelastning.Når produktivitet bliver en fælde: Hvordan AI kan tredoble kapaciteten på papiret, men også gøre arbejdet mentalt tungere og mere fejlbehæftet.Ledelsesproblemet ingen taler nok om: Hvorfor AI-superbrugere oftere risikerer at brænde ud, sige op og tage innovationen med sig ud ad døren. Har du ønsker til emner eller gæster? Skriv til [email protected]ævnt i episoden:Harvard Business Review: “When Using AI Leads to ‘Brain Fry’”OpenAI / arXiv: “GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models”Noema Magazine: “AI Could Actually Help Rebuild the Middle Class”Anthropic: “Labor market impacts of AI: A new measure and early evidence”Berlingske: “Martin Thorborg: De fleste har stadig ikke forstået, at revolutionen er i fuld gang”

  7. 35

    Hvorfor din interne AI-use case er spild af tid - Soloafsnit med Dan Rose

    "Start internt frem for kunderettet med AI, for det er mindre risikabelt" har længe været et godt og udbredt råd. Men dynamikkerne har ændret sig.I denne uges episode forklarer Dan Rose, hvorfor det er en strategisk fejlslutning at bruge dit AI-budget på at optimere backoffice, før du har kigget på dine kunder.Lær, hvorfor kunderettet AI er den mest effektive måde at fjerne overflødig administration på, og hvordan du flytter fokus fra risikostyring til reel værdi.Dan kommer omkring:- Dødsstødet til interne business cases: Se hvordan en AI-app til kunden kan fjerne 80% af fejlene ved kilden og gøre dit interne automatiseringsprojekt overflødigt.- Robot-babysitter-fælden: Hvorfor dine højtuddannede medarbejdere hader at læse korrektur på AI-genererede mangelbreve, og hvordan du i stedet giver dem deres faglige stolthed tilbage.- Hyperpersonalisering i frontlinjen: Fra passive formularer til proaktive rådgivere, der guider borgeren eller kunden til den rigtige løsning fra sekund ét.- Hjem-Is fælden: Den livsfarlige advarsel om ikke at ændre både kerneforretning og teknologi samtidig.- Bot-optimering: Hvorfor du skal begynde at skrive lange, komplekse tekster igen – ikke til mennesker, men til de maskiner, der læser for os.Har du ønsker til emner eller gæster? Skriv til [email protected]

  8. 34

    AI-agenter på fri fod: Det du skal forstå om teknologien lige nu - Soloafsnit med Dan Rose

    Hvad sker der, når AI’en ikke længere venter på dine spørgsmål, men tager kontrollen over din computer for at løse opgaverne selv?I denne uges episode tager Dan Rose fat OpenClaw – den lynhurtigt voksende AI-agent, der har taget tech-verdenen med storm og fået OpenAI til at hive den store tegnebog frem. Du skal høre om, hvorfor det er farligt, hvad det lærer os om fremtiden og hvad du skal bruge det til i dit daglige AI-arbejde.Dan kommer omkring:Det enorme potentiale: Se hvordan agenter forhandler bilkøb ned i pris og koder deres egne værktøjer fra bunden.De livsfarlige faldgruber: Hvorfor Metas sikkerhedsdirektør måtte flå stikket ud af væggen, og hvordan "Loop and burn" kan tømme din konto på en nat.Shadow AI: Hvorfor dine medarbejdere måske allerede bruger værktøjer, din it-afdeling ikke kan se.Fremtidens Guardrails: Hvorfor teknologien er klar, men vores sikkerhedssystemer halter bagefter.Lær hvordan du spotter mulighederne i autonome agenter uden at sætte virksomhedens data på spil i "den digitale svampeskov".Har du ønsker til emner eller gæster? Skriv til [email protected]

  9. 33

    Jagten på AI-talentet: Derfor ansætter du (sandsynligvis) de forkerte - Soloafsnit med Dan Rose

    Alle leder efter “AI-talent”. Og alt for mange rekrutterer, som om AI bare er endnu en tech-disciplin.I det her soloafsnit går Dan Rose i clinch med den dyreste fejl i AI-satsninger: at virksomheder ansætter den samme persontype til vidt forskellige opgaver. At bygge modeller og at drive adoption kræver to forskellige hjerner. Hvis du blander dem sammen, ender du med dyre løsninger, ingen bruger – og en organisation, der mister troen på, at AI kan blive til noget.Dan tager udgangspunkt i et konkret rammeværk, Todai selv bruger, og giver en praktisk guide til, hvordan du matcher mål, fase og rolle, før du skriver jobopslaget. Og så vender han den til sidst om: Hvad gør du som kandidat, hvis du vil vinde et AI-job uden at være “den klassiske” Data Scientist?Han taler om:Hvorfor AI-rekruttering ofte rammer ved siden af (og ender med “den samme type” i alle roller)Effektivisering vs. transformation: hvilke profiler passer til hvilken fase?Tretrinsraketten Mål → Aktivitet → Rolle: sådan undgår du at slå den forkerte stilling opDe fire AI-roller – og hvorfor du ofte har de vigtigste profiler interntHvad du skal screene for hos Data Scientists og superbrugere (inkl. “show, don’t tell”)Til kandidaten: sådan vinder du jobbet uden at undskylde for din baggrundHar du ønsker til gæster eller emner? Send en mail til [email protected].

  10. 32

    Fra AI-skåltaler til transformation og strategisk skalering i Danske Bank - med CAIO Kasper Tjørntved Davidsen

    Hvordan bygger man tillid hos topledelsen til AI-satsninger og skalerer det sikkert i en af Danmarks største og mest regulerede virksomheder? Og hvordan sikrer man, at topledelsens opbakning er reel og stikker dybere end den obligatoriske "skåltale"?I dette afsnit har Dan Rose besøg af Kasper Tjørntved Davidsen, CAIO i Danske Bank. Vi får et unikt kig ind i maskinrummet og en masterclass i enterprise-AI. Kasper deler sine erfaringer med alt fra vigtigheden af topledelsens opbakning og AI-governance, til bankens pragmatiske tre-trins model for AI-implementering.Vi diskuterer også klassiske enterprise-dilemmaer som "Buy vs. Build", medarbejdernes forventninger, vigtigheden af benhård datadisciplin / data lineage, for at undgå hallucinationer i kritiske processer, og hvorfor AI i sin essens er et ledelsesgreb og ikke blot et it-projekt. Til sidst tager vi et kig ind i en meget nær fremtid, hvor vi på arbejdsmarkedet og hvor meget AI vil transformere banker.De taler om:Hvordan du genkender ægte opbakning til fra topledelsen Hvordan du bygger tillid til transformativt arbejde med AIBuild vs. buy: hvorfor “bliv i økosystemer” kan være en strategi - og hvad exit-planen erHvor meget datakvalitet og context engineering fylder i Danske BankGovernance vs. decentralisering: hvad skal centraliseres, og hvad bør sættes fri?Hvordan Danske Bank sætter KPI’er og mål, der binder AI-adoption og forretningen sammen?Hvad der sker, når kunderne også bruger AI?

  11. 31

    AI til investering – bedre resultater? Med Jannik Malling, Co-founder & Co-CEO i Public.com

    I denne uges episode, tager Dan Rose fat i et emne, han er skeptisk omkring - AI til investering.Afsnittet er en snak med Jannik Malling, Co-founder & Co-CEO i Public.com (en investeringsplatform) om, hvad AI faktisk gør i finans – og hvad den ikke bør få lov til.Public startede med en AI research-assistent i 2023, og bevæger sig nu mod det, Jannik kalder “agentic brokerage”: ikke en altomfattende robot, der handler frit, men micro-agents, der udfører meget veldefinerede workflows med fuld transparens og “slide to confirm”.

  12. 30

    Hvordan bliver dit produkt unikt, når ChatGPT kan alt? - med Andreas Cleve, CEO og Co-founder af Corti

    Hver gang der kommer en ny feature i ChatGPT eller Lovable, dør 1.000 virksomheder. For det produkt eller den ydelse virksomhederne leverede, er ikke længere unikt og pengene værd.Helt tilfældigt blev det her podcast-afsnit optaget dagen efter ChatGPT Health udkom, som man kunne se som en ny konkurrent til Corti. Men er det det?Dan Rose debatterer problemet med Andreas Cleve, CEO og Co-founder af Corti, om hvordan man bygger et AI-produkt med en sikker “moat”, når de store modeller bliver bedre, billigere og mere tilgængelige.Pointen er ret klar: Du vinder ikke på at have den "klogeste model”. Og slet ikke på at konkurrere med Big Tech. Du vinder på:at tage risiko ud af brugerens beslutninger og processerat bygge noget, der kan driftes og bruges hver dagat være ekstremt konkret i hvem og hvad du løserHar du ønsker til gæster eller emner? Skriv til [email protected]

  13. 29

    Kan du forudsige konsekvenserne af AI for din organisation? Forestillingsevne bliver afgørende - med Senior Futurist Sofie Hvitved fra Instituttet for Fremtidsforskning

    Når du skal tilpasse din organisation til den fremtid med de nye muligheder og forudsætninger AI kommer med, skal du kunne forestille dig den fremtid. Men det har vi mennesker ret svært ved.Heldigvis findes der mennesker som Sofie, der er eksperter i lige netop det.I denne her episode taler Dan Rose med Sofie Hvitved, Senior Futurist ved Instituttet for Fremtidsforskning, om hvorfor jagten på sikre AI-forudsigelser er en blindgyde - og hvorfor forestillingsevne, scenarier og arbejde med usikkerheder er langt vigtigere. Og vigtigst af alt: Hvordan man planlægger og forbereder sig på de mange mulige udfald.Hvorfor AI ikke kan (og ikke bør) reduceres til forecastsDet plausible udfaldsrum - og hvorfor der findes flere legitime fremtiderHvorfor inkrementel AI (chatbots, effektivisering) ikke ruster os på længere sigtMedier, journalistik og AI: fra artikler til vidensbankerVoice AI, agenter og hvad der sker, når interface, roller og organisationer flytter sigHvordan du arbejder med antagelser om fremtidenHar du ønsker til gæster eller emner? Send en mail til [email protected] podcast:Evan Ratliffs podcast: Shell Game - Hans eksperiment med at lave en virksomhed med AI-agenter: https://www.shellgame.co/Omtalt gadget: https://www.limitless.ai/Omtalt gadget: https://www.omi.me/Omtalte metoder:3 Horizon Framework: Curry and Hudgson, Seeing in Multiple Horizons, 2008 + Bill Sharpe, Three Horizons: The Patterning of Hope, 2020CLA (Causal Layer Analysis & Future Triangle - Sohail InayatullahThe Future Cone - Joseph Voros, “A generic foresight process framework”

  14. 28

    416 forskere afviser blankt AI til forskning. Har de fat i noget? - med professor Henning Langberg

    416 forskere siger “ingen AI” til kvalitativ forskning.Ugens gæst mener, at det netop er her, forskningen risikerer at lukke for kritik og modspil.Og nej - denne her snak er ikke kun for forskere, men for alle der arbejder med viden, vurderinger og beslutninger.I denne her episode tager Dan Rose og Henning Langberg fat i, hvad der egentlig sker, når et helt felt afviser et værktøj kategorisk - og hvordan sprogmodeller i praksis kan blive en kritisk stemme, der udfordrer bias, idéer og konklusioner.Henning Langberg er professor på KU og serieiværksætter - med en fod i forskning og en fod i praksis. Vi taler om:AI i forskningsfaser:Brug modellen i hver fase: idé, afgrænsning, datahåndtering, analyse og formidling.Kvalitativ forskning og bias:At afvise AI “for at beskytte sandheden” kan være en blind vinkel i sig selv.Pleaser-genet kan vendes til din fordel:Hvis du vil have modspil, så bed modellen om at være kritisk - ikke enig.Hallucinationer som kreativ motor:Når alt begynder at konvergere, kan den “vilde stemme” åbne nye spor.Fremtidens forskning er ikke kun papers:Mere åbne data, flere tolkninger – og en forskerrolle, der skal ændre sig.Har du ønsker til emner eller gæster? Skriv til [email protected]

  15. 27

    Myter vi skal begrave i 2025 - og det der rykker i 2026 - Soloafsnit med Dan Rose

    I 2025 blev vi klogere på AI som teknologi. Noget var som vi forventede og andet var ikke. Et par af de myter vi skal efterlade er, at AI “tørrer verdens vandressourcer ud”, og at dansk AI-infrastruktur i sig selv gør os førende.I det her soloafsnit piller Dan Rose myterne fra hinanden med tal og proportioner. Samtidig peger Dan på to store tendenser, der sandsynligvis kommer til at definere 2026.Dan taler om: Vand- og energimyten: Hvorfor “en prompt = ½ liter vand” er en misforståelse, og hvad tallene reelt siger (og ikke siger).Gefion og prestigeprojekter: Hvad problemet er, når en supercomputer bliver solgt som hverdagsinfrastruktur - og hvorfor drift ≠ forskning.2026 bliver “connections”-året: Mere tooling, flere integrationer, mere context engineering - og en langt mere strategisk og, klassisk rolle til IT: bygge “asfalten” (MCP’er, adgang, logging, guardrails), så forretningen kan bygge selv.Voice AI i praksis: Latency, “barge-in”, nye arbejdsvaner - og hvorfor stemme kan blive et lige så naturligt interface som tastatur (inkl. Dans test med ElevenLabs).Har du ønsker til gæster eller emner i podcasten? Skriv til [email protected]

  16. 26

    Sådan vibe-coder du enterprise-applikationer uden at kunne kode – med Steffen Bojer, Lead Solution Architect, Columbus

    At vibe code en prototype er én ting.At sætte vibe-coded løsninger i produktion i enterprise er noget helt andet.Og det er præcis den forskel, Dan Rose og Steffen Bojer taler om i denne her episode.Steffen arbejder til daglig med emerging tech og production-grade løsninger hos Columbus. Her bruges vibe coding allerede til rigtige applikationer – med rigtige brugere, rigtige data og rigtige konsekvenser.Vi taler om:- Fra prototype til produktion:Det er nemt at vibe code. Det svære er data, sikkerhed, test og drift. Kompleksiteten forsvinder ikke – den flytter sig.- Alle bygger apps – men ikke alle apps:Når kode bliver billigere, bliver arkitektur og dømmekraft vigtigere. Hvad kan bygges lokalt, og hvad kræver enterprise-setup?- Stabil kerne, fleksibelt lag:Kernesystemer skal være stabile. Vibe-coded apps skal ligge rundt om kernen – ikke i den.- Shadow IT er ikke fjenden:Giv de rigtige mennesker frihed til at eksperimentere i kontrollerede rammer – ikke flere forbud.- Perfect er fjenden:“Godt nok” kan skabe reel værdi. Perfektion er ikke en forudsætning for at komme i gang.Har du ønsker til emner eller gæster? Skriv til [email protected]

  17. 25

    Ledelse og AI-adoption: Det interne elfenbenstårn, kunders digitale modenhed og mellemlederne som nøglen - med Pernille Pagh, Chief Digital Officer og Co-Director of Marketing, Fibia / WAOO

    Organiseringen af AI i en etableret virksomhed kræver mange overvejelser. Og dem har Pernille Pagh gjort sig.Vi snakker om, hvordan Pernille Pagh, Chief Digital Officer og Co-Director of Marketing i Fibia / WAOO er gået pragmatisk og eksperimenterende til AI-adoptionen.Nej til Center of Excellence (CoE): Pernille argumenterer for at et AI CoE, kan skabe et “elfenbenstårn” og en kløft mellem staben og forretningen. I stedet er ansvaret decentraliseret: Kundeservicechefen ejer AI-investeringerne i kundeservice, støttet af staben, men ikke styret af den.Mellemlederen først: I modsætning til mange, der træner “ildsjælene” først, startede Fibia med mellemlederne. Tesen er, at hvis mellemlederen ikke er med, dør forandringen, da de er nøglen til dagligdagen.Insourcing-fælden: Pernille indrømmer, at hendes første tanke var at trække marketingproduktion hjem (“inhouse”) pga. AI. Hun ændrede dog mening. Derfor har de i stedet styrket partnerskabet med bureauerne og kræver nu, at bureauerne udvikler sig med AI, frem for at erstatte dem.Kunden er ikke klar: Selvom teknologien findes (voice-bots), implementerer de den ikke fuldt ud, fordi deres kunder ikke alle er digitalt modne. De vandt prisen for “Årets Digitale Kundeservice”, paradoksalt nok fordi den var nem at bruge og gav adgang til mennesker.Få et indblik i Fibia Waoos tilgang til AI-adoption, når Dan Rose taler med Pernille Pagh, Chief Digital Officer og Director of Marketing, Digitalization & Business Development hos Fibia Waoo.Har du ønsker til gæster eller emner? Skriv til [email protected]

  18. 24

    Zendesks radikale AI-transformation: Ny forretningsmodel, nye roller, ny ledelse og nye kunder - med Thor Newman Andersen, Senior Sales Manager hos Zendesk

    "Jeg sagde ja til jobbet med ét sæt kompetencer. To måneder senere var de forældede."Sådan beskriver Thor Neumann Andersen sin start som leder i Zendesk, netop som virksomheden gik all-in på en radikal AI-transformation.Han stod over for et valg, som tusindvis af danske mellemledere står over for lige nu:Skal jeg flygte til et "sikkert" job (som nok også bliver ramt af AI om 2 år)?Eller skal jeg genopfinde mig selv, min rolle og mit team?Thor valgte det sidste. I dagens afsnit tager vi dig med helt ind i maskinrummet på en af tech-branchens mest aggressive transformationer.Vi taler om: Transformationen: En enorm udskiftning i medarbejdere, ledere, roller, teknologi og kunder.Identitetskrisen: Hvordan Thor overvejede sin egen rolle og udvikling.Forretningsmodellen: Hvordan kunder nu betaler for “løste problemer” frem for licenser.Kunde-transformation: Når du transformerer din egen forretning, skal dine kunder også ændre sig? (Eller skiftes ud?)Hør en mellemleders beretning midt i stormen, og hvorfor Thor mener, at "AI aldrig må være et IT-projekt".Har du spørgsmål, du vil have besvaret i podcasten, eller ønsker til emner eller gæster? Skriv til [email protected]

  19. 23

    Vilde AI-nyheder: Reklamer i ChatGPT, gode bobler, Claude-studie, dejligt kedelige ATP, Deloitte-sjusk og AI Act-ændringer - Soloafsnit med Dan Rose

    I denne uges afsnit dykker Dan Rose ned i de hårde tal bag AI-økonomien gennem et studie fra Anthropic, et kig på boblen og betydningen af de kommende reklamer i ChatGPT.Vi skal også forbi en pinlig skandale hos Deloitte, der (igen) er blevet fanget i at levere AI-hallucinationer til millioner af kroner, og så hylder vi det offentlige for et "kedeligt" projekt hos ATP, der viser præcis, hvordan man skaber værdi med AI.Og til sidst EU's nye forslag, der risikerer at udvande den vigtigste del af AI Act.I dagens afsnit kan du høre om:Anthropic-studiet: Hvorfor AI kan fordoble produktivitetsvæksten, og hvorfor højtlønnede ledere vinder mere end transportarbejdere.Derfor skal du elske boblen: Med afsæt i økonomen Carlota Perez ser vi på, hvorfor tech-krak historisk set er en gavebod for samfundet (og hvorfor AI-infrastrukturen bliver "skinnerne" for fremtiden).Reklamer i ChatGPT: OpenAI tester annoncer. Betyder det demokratisering af viden, eller skaber vi et A- og et B-hold baseret på købekraft?Deloitte vs. ATP: En fortælling om to yderpoler. Hvorfor fejler konsulenterne med dyre hallucinationer, mens ATP lykkes med sikker, kedelig drift i Azure?EU's "Digital Omnibus": Hvorfor "pølsevogns-reglen" for små virksomheder er farlig, og hvorfor det er en katastrofe, at kravet om AI-kompetencer (Literacy) bliver fjernet.Har du forslag til emner eller gæster? Skriv til [email protected]ævnt i episoden:Anthropic: "Estimating AI productivity gains" https://www.anthropic.com/research/estimating-productivity-gainsCarlota Perez: "Technological Revolutions and Financial Capital" https://carlotaperez.org/books/ATP: https://via.ritzau.dk/pressemeddelelse/14690529/ai-frigor-tusindvis-af-arbejdstimer-i-atp-og-giver-mere-naervaer-i-borgerdialogen?publisherId=12772933&lang=daEU: https://digital-strategy.ec.europa.eu/en/library/digital-omnibus-regulation-proposal

  20. 22

    Organisationen som flaskehals: Effektiviseringsfælden og de nye lederkrav - Soloafsnit med Dan Rose

    Teknologien er ikke længere flaskehalsen. Det er din organisation.Med afsæt i en ny McKinsey-rapport, Danske Banks årsrapport og et opsigtsvækkende jobopslag fra Novo Nordisk, tegnes et billede af en ny virkelighed: Vi bevæger os væk fra teknisk fascination og direkte ind i en organisatorisk modningsfase.Og her falder mange virksomheder i "effektiviseringsfælden". De bruger AI til at gøre de gamle processer hurtigere, i stedet for at transformere forretningen. Dette afsnit er en gennemgang af de strategiske valg ledere står over for med AI.I afsnittet kan du høre om:Effektiviseringsfælden: Hvorfor jagten på tidsbesparelser (som transskribering) giver faldende marginalafkast, og hvorfor du skal fokusere på transformation i stedet.Organisatorisk hjemløshed: En analyse af hvor ansvaret for AI skal placeres i organisationen, med Novo Nordisks stillingsopslag til en "Chief AI Officer" som afsæt.Den nye kravspecifikation til ledere: Hvorfor du ikke længere kan være en strategisk leder uden at forstå AI, præcis ligesom vi ikke accepterer en salgschef, der ikke forstår CRM.Har du ønsker til emner eller gæster? Skriv til [email protected]:McKinseys State of  AI 2025: https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-aiDanske Banks Årsrapport: https://danskebank.com/-/media/danske-bank-com/file-cloud/2025/2/danske-bank---annual-report-2024.pdf?rev=dc46e3e0262549d1a68df588c735530d

  21. 21

    Fra 70 til 20 medarbejdere med en AI-transformation, der resulterede i øget vækst og bedre marginer - med Thomas Hørslev, Co-founder af AnnoAnno

    Dan Rose taler med Thomas Hørslev, Co-founder i AnnoAnno, om en meget markant dansk case lige nu: at gå fra 70 til 20 medarbejdere - og erstatte 50 stylister med en fuldautomatiseret AI-stylingmotor.Episoden giver dig et klart eksempel på, hvordan du skal gennemføre en AI-transformation, når Dan og Thomas dykker ned i:Hvordan de kunne sætte tal på, hvornår de kunne starte AI-transformationenHvordan de testede og beviste casen på rigtige kunder, inden de tog beslutningen om at fyre 50 menneskerHvorfor “halve” AI-transformationer skaber mere frygt, støj og politik end reelt forretningsudbytteHvordan de fjernede stylist-støj og smag, og gjorde styling både mere personlig og mere standardiseretHvordan en fuldautomatisk AI-styling skabte mindre støj og gjorde styling både mere personlig og standardiseret på samme tid.Hvordan de planlagde kommunikation til både dem, der skulle ud, og dem, der skulle blive - uden at miste troværdighedHvorfor deres edge ikke er modellen, men dataindsamling og kunderejse - og hvorfor de bevidst ikke bygger egne foundation-modellerHar du forslag til emner eller gæster? Skriv til [email protected]

  22. 20

    Transparens i AI var bare en illusion - Med Data scientist, Benjamin Lazar

    Hvad sker der reelt under motorhjelmen på de store sprogmodeller? I dette kigger vi på tre indflydelsesrige blogposts fra topforskere hos OpenAI, Thinking Machines Lab og Chroma.Vi lærer, hvorfor den "transparens", vi tror vi har, når modeller viser deres tankeproces, ofte er en illusion eller efterrationalisering designet til at tilfredsstille os.Vi diskuterer, hvorfor jagten på 100% konsistente svar (determinisme) er både ekstremt dyr og ofte forretningsmæssigt unødvendig.Til sidst analyserer vi "Context Rot", der viser, hvorfor store kontekstvinduer fejler i praksis, og understreger den kritiske nødvendighed af intelligent context engineering og data governance.Det er en teknisk diskussion med store strategiske konsekvenser for alle, der arbejder seriøst med implementering af AI.Har du feedback eller spørgsmål, du vil have vi svarer på i podcasten? Skriv til [email protected]:Om Transparens og Reasoning (Lilian Weng):https://lilianweng.github.io/posts/2025-05-01-thinking/Om Determinisme og Konsistente Svar (Thinking Machines Lab):https://thinkingmachines.ai/blog/defeating-nondeterminism-in-llm-inference/Om Kontekstvinduer og "Context Rot" (Chroma):https://research.trychroma.com/context-rotBonus - Omtalt i diskussionen om data vs. tricks (Richard Sutton):The Bitter Lesson - http://www.incompleteideas.net/IncIdeas/BitterLesson.html

  23. 19

    Du får, hvad du måler - med Casper Guldager, Director i NewTech, KPMG

    Hvordan måler man egentlig, om AI-adoptionen virker?Og hvorfor bliver ordet “måling” nærmest et fy-ord i mange organisationer?Det kan faktisk gøres ret simpelt. Dan Rose taler med Casper Guldager, Director for NewTech i KPMG, om kunsten at måle det, der faktisk betyder noget. For uden måling - ingen retning. Og uden retning - ingen gevinst.De taler om:Hvorfor virksomheder ofte ikke ved, hvad de får ud af deres AI-investeringerHvordan man måler uden at skabe frygt for “overvågning”Hvad ledelsen skal turde ændre, hvis målingerne skal have effektHvorfor de bedste målinger starter simpelt - og bliver skarpere over tidOg hvordan data om brug og adoption kan kobles direkte til strategi og bundlinjeHar du feedback eller forslag til emner? Skriv til [email protected]

  24. 18

    Hvem får mest ud af AI: Eksperter eller begyndere?

    Hvem får mest ud af AI - eksperter eller begyndere? Dan Rose går systematisk til spørgsmålet på tværs af studier og praksiserfaringer. Pointen er faktisk ikke sort/hvid: Effekten afhænger af opgavetypen, arbejdsprocessen og måden værktøjet bruges på. Du kan i afsnittet høre om:Eksperter henter størst gevinst på åbne, komplekse og strategiske opgaver; begyndere løftes mest på små, veldefinerede opgaver med facit.Hvordan eksperter i et domæne naturligt bruger AI-værktøjer bedre. Kreativitet og homogenisering: Hvor AI skaber ensretning, og hvornår det faktisk er en fordel.Studietyper ≠ virkelighed: Hvorfor eksperimenter viser store effekter, mens observationsstudier finder små.Hvorfor du bør differentiere værktøjsfrihed efter erfaring, og bør placere “AI-ankeret” bevidst i processerOmtalt blogindlæg om studier og konklusioner: https://todai.ai/hvem-faar-mest-ud-af-ai-brug-eksperter-eller-novicer/Har du feedback eller forslag til emner og gæster? Send en mail til [email protected]

  25. 17

    Bedre beslutninger: Den halvdel af AI, vi aldrig snakker om - med Berit Brouer, Director of Models & AI i ZeroNorth

    De fleste virksomheder måler på resultater. Få måler på beslutningerne, der skabte dem.I denne her episode taler Dan Rose med Berit Brouer, Director of Models & AI hos ZeroNorth, om decision science - kunsten at tage bedre beslutninger.De taler om:Hvorfor vi sjældent lærer af vores beslutningerHvordan virksomheder kan måle kvaliteten af deres beslutningerHvornår man skal lade algoritmen køre og hvornår man skal tage rattet tilbageHvordan man designer fleksible planer, der kan tåle virkelighedenHar du feedback eller forslag til kommende gæster? Skriv til [email protected] på omtaler:https://www.youtube.com/watch?v=nceTzlnZ_gkhttps://arxiv.org/pdf/2401.16754

  26. 16

    AI til leverpostej eller forankring: Taler organisationer og medarbejdere det samme AI-sprog? Med David Guldager, tech-ekspert

    Vi taler forskelligt om AI – afhængigt af, hvor vi er.På arbejdet handler det om forankring, implementering og governance.Derhjemme handler det om at få hverdagen til at glide.I denne episode taler Dan Rose og tech-formidler David Guldager om, hvordan de to sprog og adfærdsmønstre smelter sammen – og hvorfor det forandrer både adoptionen og kulturen omkring AI.De taler om:Hvad virksomheder kan lære af forbrugernes brug af AIRisikoen for “shadow AI” og de tavse cyborgsHvorfor enterprise aldrig kan følge med privatmarkedets tempoHvordan man får medarbejdere til at eksperimentere med AI – også efter kl. 16Har du feedback eller forslag til kommende gæster? Skriv til [email protected].

  27. 15

    Får vi transparens eller mere kompleksitet med AI? Og er AI en bobbel? - Med Martin Ågerup, Direktør hos Skattebetalerne

    AI lover gennemsigtighed – men gør den os i virkeligheden mere magtesløse? Sammen med Martin Ågerup, direktør for Skattebetalerne, undersøger vi, om AI kan skabe reel transparens mellem borgere og stat, eller om kompleksitet og automatiserede afgørelser i stedet svækker retssikkerheden. Vi taler om økonomiens næste fase: Kan AI udløse ekstrem vækst – eller rammer vi organisatoriske og energimæssige flaskehalse? Og hvad sker der, hvis kun de mest kompetente får gevinsten, mens resten hægtes af? Til sidst ser vi på EU’s strategi: statsstøtte, regulering og kampen for digital suverænitet i en verden domineret af amerikanske modeller.Vi taler om:Kan AI skabe gennemsigtighed i, hvordan staten bruger vores penge – eller ender vi med sorte bokse og mindre retssikkerhed?Hvorfor uens data og regler spænder ben for åbenhed.Om AI kan udløse et økonomisk tigerspring – eller om vi står på kanten af en boble.Risikoen for et A/B-samfund, hvor kun de mest AI-kompetente vinder.Hvordan EU’s statsstøtte og regulering former Europas digitale selvstændighed.Har du feedback eller forslag til kommende gæster? Skriv til [email protected] der nævnes i episoden:https://borsen.dk/nyheder/opinion/for-at-opna-digital-suveraenitet-skal-europa-la[…]elske-big-tech?b_source=opinion&b_medium=row_0&b_campaign=news_3https://www.economist.com/briefing/2025/07/24/what-if-ai-made-the-worlds-economic-growth-explodehttps://lilianweng.github.io/posts/2025-05-01-thinking/https://www.nber.org/papers/w34255

  28. 14

    Nyt studie: AI-forbrug ændrer sig markant - og det bør vores adoption også

    Soloafsnit med Dan Rose.OpenAI’s nye brugsdata peger på et markant skifte: 73% af ChatGPT-brug er nu privat og 27% arbejde. Det ændrer forudsætningerne for AI-adoption i virksomheder – fra “basiskursus i prompting” til styring af vaner, governance og sikkerhed, når medarbejdere tager deres private praksis med på job.Dan går også ned i decision intelligence: hvordan omsætter vi mere (og bedre) viden til bedre beslutninger? Dertil en kritik af Danmarks Statistiks “42% bruger AI” – hvorfor tallet er misvisende – samt en praktisk guide til at spotte AI-washing med udgangspunkt i Canopylab-sagen. Og så er der lytterinput: historisk korrektion og en vigtig diskussion om, hvem der får mest ud af AI – de erfarne eller de nye.Du får svar på:Hvordan skiftet til privat AI-brug påvirker governance, “shadow IT” og “shadow skills”.Konkrete greb til adoption: mød medarbejdere i deres eksisterende vaner, tillad flere værktøjer under ansvar, rekruttér på faktisk AI-brug, og opbyg et fælles sprog.Hvorfor “Asking” slår “Doing” som startpunkt – og hvordan du træner beslutningskvalitet frem for blot output.Hvilke tal der bør måles (kvalitet, forankring, værdirealisering) i stedet for “hvor mange bruger AI”.Røde og grønne flag ved leverandører – og tre spørgsmål, der skiller grundteknologi-påstande fra reel værdi.Har du feedback eller forslag til kommende gæster? Skriv til [email protected]: https://www.nber.org/system/files/working_papers/w34255/w34255.pdfRapport fra Digitaliseringsstyrelsen: https://digst.dk/media/fv3dwac0/faktaark-virksomhedernes-anvendelse-af-ai-2023-2025.pdfGenerative AI at Work: https://www.nber.org/papers/w31161Jagged Frontier: https://www.hbs.edu/ris/Publication%20Files/24-013_d9b45b68-9e74-42d6-a1c6-c72fb70c7282.pdf

  29. 13

    Hvordan AI-opkvalificering sikrer forankring – med Barbara Isaksen, Director & Head of AI Adoption

    Et to-timers kursus i AI skaber ingen varig effekt. Det er konklusionen i denne her snak mellem Dan Rose og Barbara Isaksen, Head of AI Adoption i Todai.Vi taler om, hvorfor træning i AI aldrig kan stå alene, men altid må kobles til forandringsledelse og kultur. Om mellemledernes afgørende rolle, AI-shame blandt medarbejdere, og hvordan virksomheder kan opbygge interne communities, ambassadørprogrammer og kontinuerlig træning, der faktisk ændrer arbejdsprocesserne.Du får konkrete bud på:Hvad der kendetegner god opkvalificering af medarbejdereHvorfor træning skal være kontinuerlig, specifik og hands-onHvordan mellemledere kan sikre reel forankring af AIHvordan friktion der spænder ben for adoption – og hvordan man overvinder demHar du feedback eller forslag til kommende gæster? Skriv til [email protected].

  30. 12

    Få færre AI-fiaskoer med klare succeskriterier og mål - Soloafsnit med Dan Rose

    Vi er langt mindre enige om AI-projekters succeskriterier og god kvalitet, end vi går og tror.Hvis man ikke har den fundamentale enighed på plads, fejler man med sikkerhed.Som eksempel hævder en ny rapport fra MIT, at 95% af generative AI-projekter fejler. Men hvad betyder det egentlig at fejle - og hvordan definerer vi succes?I dette soloafsnit stiller Dan Rose ind på sine erfaringer med at implementere AI i praksis, og hvorfor succeskriterier er langt sværere (og vigtigere), end de fleste tror. Du får konkrete råd til, hvordan organisationer kan:Sætte klare og målbare succeskriterier for AI-projekterBruge beslutningsmodeller til at spare tid og pengeUndgå faldgruberne, som gør AI-projekter mere risikable end andre IT-projekterHvordan du afdækker og håndterer forskellige opfattelser af “What good looks like”Afsnittet er første test af et nyt format, hvor Dan tager et aktuelt tema op alene. Feedback er meget velkommen – skriv til [email protected], der nævnes:Publiceret version (SAGE/Project Management Journal): https://journals.sagepub.com/doi/full/10.1177/87569728251340590Bøger:Bent Flyvbjerg & Dan Gardner – How Big Things Get Done Daniel Kahneman, Olivier Sibony, Cass R. Sunstein – Noise: A Flaw in Human Judgment

  31. 11

    AI-kollegaer? Sprog, tillid og AI-washing – med Astrid Haug, Viskvinde

    Hvad sker der, når vi kalder AI for en kollega?Astrid Haug, digital rådgiver, bestyrelsesmedlem og medlem af det Digitale Vismandsråd, tager den debat med Dan Rose.De diskuterer:Hvorfor metaforer som AI-kollegaer kan være mere vildledende end hjælpsommeTillid: Kan man stole på teknologien – eller kun på menneskene bag?AI-washing i regeringens strategi – når ambitioner bliver til buzzwordsHvorfor sproget omkring AI former både adoption, politik og ansvarEn snak om, hvordan vi taler om AI – og hvorfor ordene, vi vælger, kan blive lige så afgørende som teknologien selv.Har du feedback eller forslag til kommende gæster? Skriv til [email protected].

  32. 10

    AI-gevinsten i tal: Hvor meget er den, hvordan opnås den – og hvem får den? Med Emilie Vestergaard, PhD-studerende

    Et omfattende dansk studie giver os de første tal på produktivitetsgevinsten af AI.Emilie Vestergaard, PhD-studerende i økonomi ved Københavns Universitet, har målt effekten af generativ AI på det danske arbejdsmarked. En måling, der allerede giver interessante indsigter – og som kan følges i mange år fremover.Studiet peger på centrale spørgsmål:Hvor stor er produktivitetsgevinsten?Hvilke tiltag – som træning, opfordring til brug, governance eller værktøjer – giver mest effekt?Går gevinsten til arbejdsgiverens overskud, medarbejdernes løn eller kunderne?Og hvorfor er det vigtigt at måle – også når resultaterne ikke imponerer ved første øjekast?Links til omtalte studier/artikler:https://www.science.org/doi/full/10.1126/science.adh2586https://academic.oup.com/qje/article/140/2/889/7990658?login=truehttps://papers.ssrn.com/sol3/papers.cfm?abstract_id=4573321Emilies tidligere studie: https://www.nature.com/nature-index/article/10.1073/pnas.2414972121Det aktuelle studie: https://www.nber.org/papers/w33777Har du feedback eller forslag til kommende gæster? Skriv til [email protected].

  33. 9

    AI skaber tillid og finder skjult værdi i forhandlinger - Med Keld Jensen, Forhandlingsekspert og forfatter

    AI er på vej ind i forhandlingslokalet – og forskellen mellem at bruge den og at lade være er enorm.I denne episode taler Dan Rose med Keld Jensen, forhandlingsekspert, forfatter og associeret professor, om hvordan AI kan ændre både processen og resultatet af en forhandling.Vi taler bl.a. om:Hvorfor AI kan afsløre skjulte værdier, som parterne ofte overserHvordan AI kan bruges i forberedelsen, så du er flere skridt foran modpartenHvorfor forhandling sjældent er et nulsumsspil – og hvordan AI kan hjælpe med at finde de asymmetriske gevinsterHvad virksomheder, ledere og medarbejdere bør gøre nu, hvis de vil undgå at stå på bagkantLinks omtalt i episoden:https://hbr.org/2022/11/how-walmart-automated-supplier-negotiationshttps://vbn.aau.dk/ws/portalfiles/portal/770387961/cummins-jensen-2024-friend-or-foe-artificial-intelligence-_ai_-and-negotiation.pdfhttps://www.worldcc.com/Portals/IACCM/Reports/Most-Negotiated-Terms-2024.pdfBog: https://www.saxo.com/dk/the-smart-negotiator_bog_9781394255696Mere om bogen: https://keldjensen.com/smart-negotiator/Har du feedback eller forslag til kommende gæster? Skriv til Dan på [email protected]: Mandag d. 25. august 2025

  34. 8

    Medier og demokrati er under pres af AI, og hvordan vi løser det - med Lisbeth Knudsen, strategidirektør

    Mediernes rolle og troværdighed er vigtigere end nogensinde i en tid, hvor AI producerer både indhold og misinformation. Men er medierne på vej i den gale retning og hvad skal de gøre for at forblive relevante og troværdige?Dan Rose taler med Lisbeth Knudsen, strategidirektør på Altinget og Mandag Morgen og mangeårig chefredaktør i dansk presse.De taler om:Hvorfor troværdighed er mediernes vigtigste valuta i en AI-tidHvordan AI allerede bruges i redaktionelt arbejde – og hvor det går galtDen demokratiske samtale, og hvad der sker, når unge vælger sociale medier og gratis indhold frem for journalistikHvad nye forretningsmodeller kan betyde for pressen, når AI udfordrer annoncemarkedetHvordan den danske AI-strategi kan blive mere ambitiøs og gøre en forskelLinks:Studie fra MIT: https://arxiv.org/abs/2506.08872Den danske AI-Taskforce: https://www.digmin.dk/digitalisering/mere-om-digitalisering/digital-taskforce-for-kunstig-intelligens-ADD: https://algoritmer.org/Eurostack: https://www.euro-stack.info/Har du feedback eller forslag til kommende gæster? Skriv til Dan på [email protected]: Mandag d. 17 august 2025

  35. 7

    GPT-5-fuseren med en potentiel skjult revolution. Og effektiv intelligens vs. stor kontekst? – med Kasper Junge fra Dinero

    GPT-5 er landet. Men lever den op til forventningerne – eller er vi bare vidne til endnu en produktlancering med pæne slides?I denne her episode taler Dan Rose med Kasper Junge, Lead AI Engineer i Dinero, om:GPT-5s små skridt i reasoning – og store skridt i brugeroplevelseKan det virkelig passe, at GPT-5 hallucinerer så lidt? Og hvad kommer det til at betyde?Hvordan skal vi benchmarke LLM’er i fremtiden?Context Engineering: Hvordan kan AI indsamle eller klargøre den data LLM’er skal bruge til bedre at forstå deres kontekst?Og hvad er vigtigst? Effektiv brug af intelligens eller skala?Link til studie omtalt i episoden: https://arxiv.org/abs/2507.02825Har du feedback eller forslag til kommende gæster? Skriv til Dan på [email protected]: Mandag d. 11 august 2025

  36. 6

    Kan Danmark alligevel blive førende inden for AI med Agent-til-Agent-kommunikation? Med Christian Prip fra Netcompany

    Danmark har en reel chance for at komme foran i AI – i hvert fald hvis man spørger Christian Prip. I denne episode taler vi om agent-til-agent-kommunikation og hvorfor det måske netop er her, Danmark kan få en edge. Christian fortæller om Netcompanys erfaringer med at operationalisere AI – først internt, siden som kundeløsninger – og fortæller om et framework til at implementere multiagent-teknologi i stor skala.Undervejs taler vi om A2A-protokollen, og vi får ryddet op i definitionen af, hvad “multiagenter” egentlig dækker over. Vi diskuterer også, hvorfor mange AI-initiativer fejler, hvad der skal til for at lykkes med adoption, og hvorfor det måske er en fordel, at brugerne starter med de kedelige løsninger.Til sidst skal vi høre Christians AI-kæphest, som handler om generativ AI.Links omtalt i episoden:https://invariantlabs.ai/blog/mcp-github-vulnerabilityhttps://thehackernews.com/2025/05/gitlab-duo-vulnerability-enabled.htmlSend ris, ros, idéer og spørgsmål, som vi kan tage op til [email protected] eller på LinkedIn:  https://www.linkedin.com/in/dan-rose-johansen-57800430/Udgivet: Mandag d. 4. august 2025

  37. 5

    Del 2: AI Act til eksamen: Vi giver point, nuancer og bud på hvor du skal handle nu - med Kristian Storgaard, partner i Kromann Reumert

    I anden del af episoden diskuterer Dan Rose og Kristian Storgaard: Hvordan AI Act kan påvirke innovation og små aktørerHvor der mangler præcision i AI-agt – og hvad det kræver af fortolkningHvem der risikerer bøder og ansvar – og hvad det betyder i praksisOg om man i virkeligheden kan regulere sig frem til tillidDe fortsætter med at placere hver deres hovede på scoreboardet ud for følgende emner:Bliver AI Act eksekveret godt?Overlapper AI Act anden lovgivning?Hvor meget ekstraarbejde giver AI Act os?Ens adoption?Gavner eller skader det konkurrenceevnen?Send ris, ros, idéer og spørgsmål, som vi kan tage op til [email protected] eller på LinkedIn:  https://www.linkedin.com/in/dan-rose-johansen-57800430/Udgivet: Mandag d. 27. juli 2025

  38. 4

    Del 1: AI Act til eksamen: Vi giver point, nuancer og bud på hvor du skal handle nu - med Kristian Storgaard, partner i Kromann Reumert

    Vi kan ikke komme udenom det. AI Act. Eller kan vi?Og der er ingen, der siger, at det skal være gråt og kedeligt.Kristian Storgaard, advokat og partner hos Kromann Reumert, har 20 års erfaring med jura. Dan Rose har 10 års erfaring som AI-praktiker. Et potentielt perspektiv-clash, når to personer skal diskutere det her emne.I del 1 diskuterer Dan Rose med sin gæst Kristian Storgaard følgende om den famøse AI Act:Hvad kan virksomheder bruge AI Act til?Har virksomhederne travlt i forhold til AI Act?Hvordan forbereder man sig på AI Act?Send ris, ros, idéer og spørgsmål, som vi kan tage op til [email protected] eller på LinkedIn:  https://www.linkedin.com/in/dan-rose-johansen-57800430/Udgivet: Mandag d. 27. juli 2025

  39. 3

    GPT-5-forudsigelser, ud med AGI og ind AMI – og farvel til multiagenter - med Benjamin Lazar, Data Scientist

    I denne episode får vi besøg af ham, Dan altid går til, når der er kommet nyt fra OpenAI, Google eller et paper, der rykker.Benjamin Lazar, Data Scientist i Todai, og vores vært Dan Rose taler denne gang om, hvad vi måske kan forvente, at ChatGPT-5 indeholder – og hvorfor nogle af de mest hypede begreber i øjeblikket, som multiagent-systemer og AGI, måske allerede bør pensioneres.De taler om:– Hvad GPT-5 kommer til at ændre – og hvorfor det nok ikke bliver reasoning-evnerne– Hvorfor kontekstvinduer kan overtage rack-løsningernes rolle– Hvad man burde bygge med AI lige nu – og hvad man roligt kan lade ligge– Om vi bygger os væk fra intelligens, når vi splintrer løsninger i agenter– Hvorfor små sprogmodeller ikke nødvendigvis er en gamechanger– Og hvorfor det hele måske bare er en produktøvelseTil sidst deler Benjamin også sine AI-kæpheste: fra selvudnævnte eksperter til overhypede produktlanceringer og manglende definitioner.Links til Benjamins anbefalinger:Newsletters:alphasignal.aihttps://tldr.tech/https://thesequence.substack.com/Papers:https://huggingface.co/papershttps://openreview.net/SoMe:https://bsky.app/PodcastsLatent SpaceMachine Learning street talkThe pragmatic engineerLesswrongUnsupervised Learning

  40. 2

    Ledelsens opgave, når alle kan, og alle skal: AI i Matas - med Lise Ryevad, landechef og Executive Vice President

    AI er ikke (kun) et tech-projektI denne episode taler vi om, hvordan Matas – Danmarks mest kendte detail­brand – gør 3.000 medarbejdere nysgerrige på AI, uden at knække ryggen på governance eller dræbe innovationen. Executive Vice President Lise Ryevad deler de konkrete learnings, der tog kæden fra 4 % online-salg til AI-frontløber.Vi taler om:Hvad er helt konkret ledelsens opgave i AI-adoption?Hvordan skal ambitionerne for AI kommunikeres?Hvordan griber man opkvalificering an? Og håndterer evt. modstand?Hvilke AI-kompetencer bør ledelsen og bestyrelsen have? Hvis overhovedet nogen?Hvem har ansvaret for AI?Og de tre største læringer i afsnittet:1) AI er ikke en IT-opgave – det er alles opgave.2) AI er ikke raketvidenskab – derfor kan alle være med.3) Ledelsens vigtigste job er at skabe nysgerrighed om AI i organisationen.Send ris, ros, idéer og spørgsmål, som vi kan tage op, til [email protected] eller på LinkedIn: https://www.linkedin.com/in/dan-rose-johansen-57800430/Udgivet: Mandag d. 21. juli 2025

  41. 1

    Byg mindre, byg bedre – mod ukendte mål - med Sebastian Mira Lindegaard, PensionDanmark

    Denne her episode handler om en virksomheds indstilling, tilgang og kultur til AI.Så selvom det er en PensionDanmark case, der bliver taget udgangspunkt i, kan alle være med her. For denne snak handler nemlig om, at man skal bygge simpelt, undgå teknisk gæld og have kulturen med hele vejen.Vi dykker ned i, hvordan man:bygger standardiseret i stedet for specialfår succes uden først at definere hvad “godt” erskaber forankring i organisationen gennem kultur og ejerskabundgår teknisk gæld og får løsningen i drift hurtigtkommunikerer klart: hvad er dit ansvar – og hvad er det ikke?Send ris, ros, idéer og spørgsmål, som vi kan tage op til [email protected] eller på LinkedIn:  https://www.linkedin.com/in/dan-rose-johansen-57800430/Udgivet: Mandag d. 7. juli 2025

  42. 0

    Den uforudsigelige, kaotiske og fantastiske teknologi - med Martin Ågerup, økonom og forfatter

    Vi starter med at stille det grundlæggende spørgsmål: Hvad vil det egentlig sige, at AI skaber værdi? Og hvad kan vi lære af tidligere teknologier, når vi forsøger at forstå AI som grundteknologi?Vores vært, Dan Rose, CEO og stifter af Todai, taler med Martin Ågerup – økonom og direktør i CEPOS – om forskelle og paralleller mellem AI og andre store teknologiske spring, og hvad det kræver at få værdi ud af AI i praksis.Send ris, ros, idéer og spørgsmål, som vi kan tage op til [email protected] eller på LinkedIn:  https://www.linkedin.com/in/dan-rose-johansen-57800430/Udgivet: Mandag d. 30. juni 2025

Type above to search every episode's transcript for a word or phrase. Matches are scoped to this podcast.

Searching…

No matches for "" in this podcast's transcripts.

Showing of matches

No topics indexed yet for this podcast.

Loading reviews...

ABOUT THIS SHOW

En podcast til folk, der arbejder med AI. Dan Rose, stifter af AI-huset Todai, inviterer profiler fra erhvervsliv, politik og forskning ind til skarpe samtaler om kunstig intelligens - med fokus på teknologiens virkelige betydning for forretning, samfund og konkurrenceevne.Vi sætter det faglige niveau op og går et skridt dybere med både teknologien og adoption af kunstig intelligens. Vi taler ikke buzzwords og smarte one-liners. Ingen forklaringer af gængse AI-termer. Podcasten er lavet til dem, der allerede arbejder med AI, hvor samtalerne går på, hvordan AI skal implementeres og adopteres, skaber værdi, kan reguleres og de reelle praktiske erfaringer. Og vi gør det i en tone, der er direkte, faglig og uden alt det AI-hype og raket-emojis.Podcasten udkommer som lyd og video. Nye episoder hver uge.

HOSTED BY

Dan Rose

CATEGORIES

URL copied to clipboard!