Klartext KI
Weil jeder KI verstehen sollte...
... erkundet Matus, ein BPM Philanthrop & Coach, zusammen mit...
... Alwine, die pragmatisch KI-Lösungen für Kunden baut, die Welt der Künstlichen Intelligenz.
Und weil Abwechslung sein muss, sind auch Gäste mit im Podcast. Sonst wäre es ja langweilig, oder? Hör gern bei uns rein, hier wird nichts geskriptet oder sich stunden auf den Gast vorbereitet, damit alles möglichst authentisch ist. Also hör rein in den etwas anderen KI-Podcast.
Vernetz dich gern mit uns:
https://www.linkedin.com/in/alwineschultze/
https://www.linkedin.com/in/matusmala/
PS:
Wir hören gern jedes Feedback zu unserem Podcast, das bietet uns die Chance uns für euch zu verbessern.
Weil jeder KI verstehen sollte...
... erkundet Matus, ein BPM Philanthrop & Coach, zusammen mit...
... Alwine, die pragmatisch KI-Lösungen für Kunden baut, die Welt der Künstlichen Intelligenz.
Und weil Abwechslung sein muss, sind auch Gäste mit im Podcast. Sonst wäre es ja langweilig, oder? Hör gern bei uns rein, hier wird nichts geskriptet oder sich stunden auf den Gast vorbereitet, damit alles möglichst authentisch ist. Also hör rein in den etwas anderen KI-Podcast.
Vernetz dich gern mit uns:
https://www.linkedin.com/in/alwineschultze/
https://www.linkedin.com/in/matusmala/
PS:
Wir hören gern jedes Feedback zu unserem Podcast, das bietet uns die Chance uns für euch zu verbessern.
Episodes
![#41 Die KI Blase unter die Lupe genommen [KI generiert]](https://pbcdn1.podbean.com/imglogo/ep-logo/pbblog20144038/KI_Crewa5o3o_300x300.jpg)
Tuesday Nov 25, 2025
#41 Die KI Blase unter die Lupe genommen [KI generiert]
Tuesday Nov 25, 2025
Tuesday Nov 25, 2025
In dieser kompakten "Short"-Folge widmet sich unsere KI-Crew einer Frage, die Anleger und Tech-Enthusiasten gleichermaßen umtreibt: Stecken wir mitten in einer gigantischen KI-Blase, ähnlich dem Dotcom-Crash um die Jahrtausendwende?
Die Crew analysiert kritisch die aktuellen Warnsignale: Astronomische Bewertungen für unprofitable Startups, eine riskante Konzentration von Risikokapital und das Phänomen der "zirkulären Finanzierung" (Nvidia investiert in Startups, die wiederum Nvidia-Chips kaufen). Sogar Branchen-Insider warnen vor einer Überhitzung.
Doch der Vergleich zu 2000 hinkt an entscheidenden Stellen. Im Gegensatz zu den damals oft umsatzlosen Internetfirmen sind die heutigen Tech-Giganten wie Nvidia oder Microsoft hochprofitable "Gelddruckmaschinen" mit realen Anwendungsfällen in der Wirtschaft.
Das Fazit der Folge: Wir blicken auf einen zweigeteilten Markt. Während bei vielen Startups die Blase platzen könnte, erleben etablierte Player eine technologische Revolution auf stabilem Fundament.
🔗 Weiterführende Links zur Folge
- https://intuitionlabs.ai/articles/ai-bubble-vs-dot-com-comparison
- https://www.zkb.ch/de/blog/anlegen/gefahr-einer-moeglichen-ki-blase.html
- https://www.akweb.de/ausgaben/720/kuenstliche-intelligenz-nvidia-openai-oracle-finanzmarkt-platzt-die-ki-blase/
- https://www.investopedia.com/wall-street-analysts-ai-bubble-stock-market-11826943
Let's connect: https://www.linkedin.com/company/klartext-ki-der-podcast

Friday Nov 21, 2025
#40 Deepfakes und ihre Schattenseiten
Friday Nov 21, 2025
Friday Nov 21, 2025
In dieser fesselnden Fortsetzung begrüßen wir, Matúš und Alwine, erneut unseren Gast Jan, dessen letzte Folge alle Rekorde gebrochen hat.
Jan startet mit brandheißen News von OpenAI: Die Restriktionen für ChatGPT werden mit den neuen 5.1-Modellen gelockert, um die KI menschlicher und einfühlsamer zu machen. Das wirft eine kritische Frage auf: Ist es gefährlich, wenn KI für ernste psychologische Probleme genutzt wird, anstatt professionelle Hilfe zu suchen?
Anschließend tauchen wir tief in die Welt der Deepfakes ein, ausgelöst durch das neue, beeindruckend realistische Video-Tool Sora 2 von OpenAI. Es wird immer schwieriger, zwischen echt und fake zu unterscheiden. Wir diskutieren, wie leicht sich Fälschungen, von harmlosen Katzenvideos bis hin zu politischer Desinformation, erstellen und verbreiten lassen.
Ein weiteres schockierendes Thema sind KI-Begleiter wie Replika. Menschen bauen so tiefe emotionale Bindungen zu ihren Avataren auf, dass sie diese sogar heiraten.
Timeline:
00:00 Intro & Rückblick auf die Erfolgs-Folge mit Jan02:44 News: ChatGPT wird menschlicher08:39 Ethische Debatte: Darf KI zum Psychologen werden?13:34 Cashing Feelings: Wenn Menschen Beziehungen mit KI eingehen18:16 Sora 2 ist da: Die neue Ära der Deepfakes20:06 Was ist ein Deepfake? Eine Erklärung32:04 Verantwortung & Lösungen: Wie gehen wir mit der Flut an Fakes um?
🔗 Weiterführende Links zur Folge
- Podcast-Tipp: Caching Feelings von Business Insider- Buch-Tipp: „VIEWS“ von Marc-Uwe Kling- Deepfake-Check: True Media- LinkedIn: Klartext KI - Der Podcast
![#39 Halluzinationen und Haftungsfallen bei Generativer KI [KI generiert]](https://pbcdn1.podbean.com/imglogo/ep-logo/pbblog20144038/KI_300x300.jpg)
Tuesday Nov 18, 2025
#39 Halluzinationen und Haftungsfallen bei Generativer KI [KI generiert]
Tuesday Nov 18, 2025
Tuesday Nov 18, 2025
In dieser tiefgehenden Episode der Klartext KI-Crew beleuchten wir die kritischen Herausforderungen und Risiken, die mit dem Einsatz von Generativer Künstlicher Intelligenz (GenAI) verbunden sind. Wir beschäftigen uns mit KI-Halluzinationen, also der Erfindung von Fakten und Quellenangaben durch die KI, und diskutieren, wie diese in der Praxis zu ernsten Problemen führen können, wie am Beispiel des Beratungsunternehmens Deloitte in Australien geschehen.
Die wichtigsten Themen dieser Folge:
Halluzinationen & Faktenprüfung: Was passiert, wenn KI „statistisch wahrscheinlich klingende“ Antworten generiert, die inhaltlich falsch sind? Wir sehen, dass blindes Vertrauen gefährlich ist und menschliche Überprüfung absolut unerlässlich bleibt.
Praktische Risiken: Neben fehlerhaften Informationen (Fake News, Deepfakes) betrachten wir die Gefahr von Prompt Spoofing (Umgehung von Schutzmechanismen) und das Problem des Bias (Voreingenommenheit in den Trainingsdaten).
Haftungsfragen & Blackbox-Problem: Wer trägt die Verantwortung, wenn durch KI-Fehler oder Manipulation Schäden entstehen? Die Verantwortung liegt immer bei den Entwicklern, Anbietern oder Nutzern, da eine KI keine eigene Rechtspersönlichkeit besitzt. Die mangelnde Nachvollziehbarkeit des Entscheidungsprozesses großer KI-Modelle (Black Box) erschwert die Fehlersuche.
Die Rolle der Regulierung: Wir diskutieren, wie der EU AI Act und die geplante KI-Haftungsrichtlinie die Anforderungen an Anbieter und Nutzer verschärfen und Transparenz sowie KI-Kompetenz im Unternehmen fordern. Verstöße können empfindliche Strafen nach sich ziehen.
Lösung & Fazit: Der Schlüssel zum sicheren Umgang mit GenAI ist die menschliche Überprüfung – das 4-Augen-Prinzip. Trotz aller Automatisierung bleibt der Mensch die entscheidende Instanz, die kritisches Denken und ethische Abwägung einbringt.
Fazit & Ausblick: Generative KI ist ein mächtiges Hilfsmittel, aber kein Ersatz für menschliche Expertise. Unternehmen und Nutzer müssen klare interne Prozesse, Governance-Strukturen und Schulungen etablieren, um die Risiken zu beherrschen und die enormen Chancen der Technologie verantwortungsvoll zu nutzen.
🔗 Weiterführende Links zur Folge
https://www.deloitte.com/de/de/issues/innovation-ai/vertrauenswuerdige-generative-ki.html
https://www.horsesforsources.com/deloitte-dolittle_100725/
https://consulting.tuv.com/aktuelles/ki-im-fokus/eu-ai-act-haftungsrisiken-fuer-unternehmen
https://www.moneylife.in/article/fraud-alert-deloittes-us290000-blunder-and-the-rising-risks-of-ai-hallucinations/78620.html
https://www.nortonrosefulbright.com/de-de/wissen/publications/64f48ffc/generative-ai-ki-vertrage-rechtssicher-gestalten
https://easyrechtssicher.de/ki-generiert-haftung/
https://www.cmshs-bloggt.de/rechtsthemen/kuenstliche-intelligenz/pflicht-oder-kuer-ki-kompetenz-gemaess-ki-vo-als-zentraler-bestandteil-der-ki-compliance-im-unternehmen/
https://news.it-matchmaker.com/vertrauenskrise-bei-genai-warum-die-qualitaet-generativer-ki-sinkt/
Let's connect: https://www.linkedin.com/company/klartext-ki-der-podcast
Friday Nov 14, 2025
#38 Studium oder Ausbildung: Karrierewege in der KI-Ära
Friday Nov 14, 2025
Friday Nov 14, 2025
In dieser Folge von Klartext KI begrüßen Matúš und Alwine einen gern gesehenen Wiederholungsgast: Jonas.
Jonas nimmt uns mit auf eine Reise durch Europa und zeigt die zwei Gesichter der KI: Einerseits eine katastrophal schlechte, KI-generierte Touristenführung an der Akropolis, die mehr für Lacher als für Wissen sorgt. Andererseits eine beeindruckende KI-Anwendung in der Medizin, die bei der Hautkrebs-Vorsorge hilft und Leben retten kann.
Ausgehend von einem provokanten Meme von Alwine entbrennt eine hitzige Debatte über den Mythos des Fachkräftemangels. Die zentrale Frage: Welchen Weg sollen wir der nächsten Generation empfehlen? Ein klassisches Studium, eine praxisnahe Ausbildung oder eine Kombination aus beidem? Jeder teilt seine persönlichen Erfahrungen und gibt Einblicke, wie sich der Arbeitsmarkt durch KI und wirtschaftliche Unsicherheiten verändert.
Alle Gesprächsteilnehmer sind sich einig: Die Zeiten, in denen ein Abschluss allein einen Job garantiert hat, sind vorbei. Praxiserfahrung, Anpassungsfähigkeit und die Fähigkeit, neue Technologien zu orchestrieren, sind die entscheidenden Kompetenzen für die Karriere von morgen.
Themen & Timeline:
00:00 Intro01:21 KI im echten Leben: Jonas' Reiseerfahrungen zwischen Top und Flop16:25 Ankündigung: Das nächste KI-Meetup in München20:40 Hauptthema: Studium oder Ausbildung – Was lohnt sich in der KI-Ära noch?33:02 Persönliche Werdegänge im Vergleich: Uni, Hochschule und Lehre42:25 Die Zukunft der Arbeit: Vom Programmierer zum Orchestrator57:58 Das Fazit: Unsere Empfehlungen für die nächste Generation
🔗 Weiterführende Links zur Folge
- Meetup-Gruppe "Prozesse und AI" in München: https://www.meetup.com/de-DE/munchen-bpm-process-automation-circle/ - Alwines Linkedin Post: https://www.linkedin.com/posts/alwineschultze_fachkraeuftemangel-vomstudiumindiearbeitslosigkeit-activity-7391046371430105089-zxzW - Klartext KI auf LinkedIn: https://www.linkedin.com/company/klartext-ki-der-podcast
Saturday Nov 08, 2025
Trailer zu Klartext KI
Saturday Nov 08, 2025
Saturday Nov 08, 2025
Hi, wir sind Matúš und Alwine und wir treffen uns im Podcast mit Freunde und KI-Enthusiasten in lockerer Runde, um die aktuellsten Themen der KI-Welt zu besprechen. Statt trockener Fakten gibt es bei uns authentische Diskussionen, persönliche Einblicke und verständliche Erklärungen. Wir bringen komplexe Entwicklungen auf den Punkt... ehrlich, direkt und immer mit einer Prise Humor.

Friday Nov 07, 2025
#37 Das alte Web ist tot: ChatGPTs neue Internet-Ära
Friday Nov 07, 2025
Friday Nov 07, 2025
In dieser Folge von Klartext KI begrüßen Matúš und Alwine erneut den KI-Experten Jan Schmidt-Prüfer, um den unangefochtenen Marktführer OpenAI und die Zukunft von ChatGPT unter die Lupe zu nehmen.
Zu Beginn der Folge diskutieren die drei die Akzeptanz und Performance von KI-generierten Podcast-Folgen und kommen zu einem klaren Ergebnis: Zuhörer bevorzugen menschliche Interaktion.
Im Hauptteil liefert Jan beeindruckende, aber auch alarmierende Einblicke in die Welt von OpenAI.
Timeline:
00:00 Intro & Vorgeplänkel01:22 Wie kommen die KI-generierten Podcast-Folgen an?06:29 Die erdrückende Marktdominanz von ChatGPT in Zahlen16:40 OpenAIs Finanzen: 5 % zahlende Kunden und Milliardenverluste21:53 Neue Features: ChatGPT wird zum Einkaufsagenten30:31 Ausblick: Das Ende der klassischen Website?
🔗 Weiterführende Links zur Folge
- LinkedIn: https://www.linkedin.com/company/klartext-ki-der-podcast

Friday Oct 31, 2025
#36 Agentic Engineering und Steering für produktionsreife Software
Friday Oct 31, 2025
Friday Oct 31, 2025
In dieser Folge voller Praxis-Einblicke begrüßen wir, Matúš und Alwine, einen wahren "Wiederholungstäter": Vladimir Daskalov (aka Vlad), Experte für KI-gestützte Softwareentwicklung.
Vlad nimmt uns mit auf eine Reise durch die moderne Welt des Programmierens mit KI. Er unterscheidet klar zwischen zwei Anwendungsfällen: KI als Werkzeug zur reinen Produktivitätssteigerung für Entwickler und KI als integraler Bestandteil eines Produkts mit Kundeninteraktion.
Im Zentrum der Diskussion steht das "Agentic Coding". Vlad erklärt den entscheidenden Unterschied zwischen unstrukturiertem "Vibe Coding" für schnelle Prototypen und dem disziplinierten "Agentic Engineering" für produktionsreife Software. Dabei stellt sich die brisante Frage: Ersetzen KI-Agenten bald die Junior-Entwickler? Die Runde ist sich einig, dass sich das Berufsbild und die Herangehensweise der nächsten Entwickler-Generation fundamental ändern werden.
Als Highlight stellt Vlad sein neues Open-Source-Projekt "Pantheon-MCP" vor, ein System, das den Aufwand für das Projekt-Setup drastisch reduziert, indem es die Anweisungen (das "Steering") für KI-Agenten zentral und dynamisch verwaltet.
Timeline:
00:00 Intro & der Programmier-Alltag03:15 Worum geht es heute? Zwei KI-Felder04:55 Vibe Coding vs. Agentic Engineering: Der Weg zum produktiven Code09:22 Die große Frage: Was wird aus den Junior-Entwicklern?12:50 Low-Code vs. Agentic Coding: Ein Duell der Zukunft?22:07 Deep Dive: So funktioniert Pantheon-MCP
--------------------------------------------------------------------------------
🔗 Weiterführende Links zur Folge
Vlads Projekte:- Pantheon-MCP: https://pantheon-mcp.com- Tiny Task AI: https://tinytoolstack.com/- Vibes Monitor: https://vibesmonitor.com/
LinkedIn: https://www.linkedin.com/company/klartext-ki-der-podcast
Friday Oct 24, 2025
Friday Oct 24, 2025
In dieser tiefgehenden Episode der Klartext KI-Crew tauchen wir in die Welt der akademischen Forschung ein und analysieren: Was passiert wirklich, wenn Forschende anfangen, Tools wie ChatGPT in ihre Arbeit zu integrieren?
Wir beleuchten die Kernergebnisse einer aktuellen Studie, die untersucht, wie die Einführung von Generativer KI (GenAI) seit Ende 2022 die wissenschaftliche Produktivität und die Publikationsqualität in den Sozial- und Verhaltenswissenschaften verändert. Die Ergebnisse sind überraschend und zeigen, wer am meisten profitiert!
Fazit & Ausblick: Die Ergebnisse legen nahe, dass GenAI strukturelle Barrieren abbauen kann. Wir diskutieren, welche politischen und ethischen Schritte nun nötig sind, um die Integrität der Wissenschaft zu wahren, während wir die Vorteile dieser Tools maximieren.
------------------------------------------------------------------------------
🔗 Weiterführende Links zur Folge- Studie: https://arxiv.org/pdf/2510.02408- LinkedIn: https://www.linkedin.com/company/klartext-ki-der-podcast

Friday Oct 17, 2025
#34 AI-BFFs: Wir vertrauen unsere Geheimnisse lieber eine KI an
Friday Oct 17, 2025
Friday Oct 17, 2025
In dieser spannungsgeladenen Folge begrüßen wir, Matúš und Alwine, Lars Hamann (Digitalbotschafter und KI-Experte).
Lars berichtet zu Beginn vom Big Bang KI Festival in Berlin, dem größten KI-Event Europas. Lars betont: der EU AI Act sorgt für Chaos und Unsicherheit. Es fehlen klare Regeln, Zertifikate und Zuständigkeiten, ein echtes Dilemma für Unternehmen!
Doch das ist nur der Anfang: Alwine hat eine erschreckende neue Studie aus den USA ausgepackt, die zeigt, dass 72 % der Jugendlichen (13-17 Jahre) bereits KI-Begleiter nutzen. Sie teilen mit ihnen persönliche Daten und psychische Probleme, da sie sich von der KI "weniger verurteilt" fühlen als von Gleichaltrigen oder der Familie. Die Hörer werden eindringlich vor den Gefahren für Datenschutz und Psyche gewarnt, die von Systemen wie Character AI ausgehen können.
Alle Gesprächsteilnehmer sind sich einig: Es ist höchste Zeit, dass die Gesellschaft und das Schulsystem die Verantwortung übernehmen. Wir brauchen dringend IT- und Digitalisierungswissen als Pflichtfach!
Timeline:
00:00 Intro & Rückblick KI Folge 3304:10 Der Big Bang KI Festival Report20:14 Schock-Studie: Teens und AI Companions
🔗 Weiterführende Links zur Folge- Studie: https://www.commonsensemedia.org/sites/default/files/research/report/talk-trust-and-trade-offs_2025_web.pdf- LinkedIn: https://www.linkedin.com/company/klartext-ki-der-podcast
![#33 Studie zum Widerstand gegen KI [KI generiert]](https://pbcdn1.podbean.com/imglogo/ep-logo/pbblog20144038/KI_300x300.jpg)
Friday Oct 10, 2025
#33 Studie zum Widerstand gegen KI [KI generiert]
Friday Oct 10, 2025
Friday Oct 10, 2025
In dieser Episode beleuchtet die Klartext KI-Crew, wo Ablehnung von Künstlicher Intelligenz auf dem Arbeitsmarkt oft tiefer sitzt als nur die Sorge um die Technologie selbst. Ist es die Performance der KI oder ein fundamentales moralisches Prinzip, das uns Grenzen setzen lässt?
Du hast richtig gelesen: Die KI-Crew, bestehend aus einem einfachen Stimmklon von Matus und Alwine (Intro + Outro) plus zwei "KI-Gästen" die ein Thema diskutieren (NotebookLM). Ein Experiment, das wir starten, aber gern auch wieder beerdigen, wenn der Mehrwert nicht klar ist. Aber zurück zum Inhalt der Folge:
Künstliche Intelligenz kann uns Arbeit abnehmen, Prozesse optimieren und Kosten senken – und trotzdem stößt sie auf breiten Widerstand. Aber woher kommt diese Ablehnung wirklich?
Wir tauchen ein in eine faszinierende Studie, die den Widerstand gegen KI auf dem US-Arbeitsmarkt wissenschaftlich in zwei Lager teilt:
Leistungsbasierter Widerstand: Hier sind die Mängel der KI (Ungenauigkeit, Zuverlässigkeit) das Problem. Dieser Widerstand wird mit besserer Technologie sinken.
Prinzipienbasierter Widerstand: Hier geht es um die tiefe Überzeugung, dass bestimmte Rollen menschlich bleiben müssen – ganz unabhängig davon, wie gut die KI wird.
Wir verraten, welche Berufe die Amerikaner überraschend bereitwillig an Maschinen abtreten würden, welche 12 % der Berufe als kategorisch tabu gelten und warum der Widerstand in diesen Fällen ein tief verwurzelter moralischer Schutzwall ist.
🔗 Weiterführende Links zur Folge
Studie: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5560401
LinkedIn: https://www.linkedin.com/company/klartext-ki-der-podcast








