Barbara Lampl - AI Ambitionen scheitern am Mental Model Mismatch #89

Shownotes

Hallo und willkommen zu Folge 89, in der es u.a. um den Mental Model Mismatch geht, der zum Scheitern vieler AI/Data-Science-Ambitionen in Unternehmen führt. Genau darüber habe ich mit Barbara Lampl gesprochen, Verhaltensmathematikerin und Expertin für Datenwissenschaft und Künstliche Intelligenz sowie Gründerin von Empathic Business. Es ging um Herausforderungen und Chancen, die sich aus der Kombination von Empathie und KI ergeben, sowie die Notwendigkeit, tradierte mentale Modelle zu überdenken und anstatt lösungsorientiert problemorientiert zu denken. Ein Gespräch, das ihr nicht verpassen solltet und bei dem ihr definitiv für eure KI-Reise wertvolle Inputs erhaltet.

Mein Gast:

Barbara Lampl (LinkedIn)

Empathic Business

Blog

Substack

Train the KI Trainer

Feedback & Wunschgäste:

podcast@peopex.de

Über mich:

LinkedIn

XING

Instagram

PEOPEX GmbH

Transkript anzeigen

00:00:01: Natürlich kann auch diese mentalen Modelle auf eine Welt treffen, in der ich damit einfach nicht mehr zurechtkomme.

00:00:06: Und das ist das, was wir gerade extrem sehen, dass wir quasi einen Mismatch haben von dem, wie ich denke, wie die Welt hat, wie die Welt auch zu funktionieren hat, wie so ein

00:00:14: Unternehmen und all das zu funktionieren hat, gegenübergestellt von dem, wie die Welt vielleicht wirklich ist oder sie gerade auch anders funktioniert.

00:00:29: Herzlich willkommen zu Business Unplugged, dem Treffpunkt für Tradition und Zukunft.

00:00:34: Mein Name ist Johannes Pohl und ich spreche mit Unternehmerinnen, Gründerinnen und stillen Heldinnen des Business Alltags, die unsere digitale Zukunft formen.

00:00:43: Business Unplugged ist die Bühne für Visionäre der Digitalisierung und soll Brücken zwischen Start-ups und etablierten Unternehmen bauen.

00:00:51: Hier erhältst du wertvolle Impulse und Inspiration.

00:00:55: Hallo und willkommen zu Folge

00:00:57: in der es unter anderem den Mental Model Mismatch geht, der zum Scheitern vieler AI- oder Data Science-Projekten in Unternehmen führt.

00:01:07: Genau darüber habe ich mit Barbara Lampl, Verhaltenesmathematikerin und Expertin für Datenwissenschaft und Künstliche Intelligenz sowie Gründerin von Empathic Business, Es

00:01:18: ging Herausforderungen und Chancen, die sich aus der Kombination von Empathie und KI ergeben, sowie die Notwendigkeit tradierte

00:01:27: mentale Modelle zu denken und anstatt lösungsorientiert problemorientiert an das Thema heranzugehen.

00:01:35: Ein Gespräch, das ihr nicht verpassen solltet und bei dem ihr definitiv für eure EI-Reise wertvolle Inputs erhaltet.

00:01:42: Bevor ich euch jetzt in die Folge entlasse, bitte nicht vergessen den Podcast zu bewerten und weiterzuempfehlen.

00:01:48: Herzlichen Dank und jetzt mit Spaß mit der neuen Folge.

00:01:53: Liebe Babara!

00:01:54: Herzlich willkommen zu Business unplugged.

00:01:56: Das Vorgespräch mit dir hat schon so Lust und Laune gemacht, dass ich mich riesig freue, dass wir heute miteinander quatschen.

00:02:03: Hallihallo.

00:02:04: Hallihallo und vielen lieben Dank für die Einladung.

00:02:07: Sehr gerne.

00:02:08: Ich freue mich, wie schon gesagt.

00:02:10: Barbara, du bist Verhaltensmathematikerin und Expertin für Datenwissenschaft und künstliche Intelligenz bis zu dem Thema auch seit den frühen

00:02:19: 2000ern unterwegs und unterstützt seit 2014 mit deinem Unternehmen Empathic Business Unternehmen bei der Transformation im digitalen Zeitalter.

00:02:30: Dein Fokus liegt dabei unter anderem auf den Schnittstellen von Finanzen, Psychologie und Datenwissenschaft.

00:02:38: Manche kennen dich vielleicht nicht unter dem Namen Barbara Lamper, sondern eher unter deinem Spitzname.

00:02:44: Du wirst schon etwas grinsen.

00:02:47: Nämlich der Spitzname AI-Bapsi, der sich aus deiner Liebe zur Mode und Data und Tag, sage ich mal, entstanden ist und auch quasi zu deiner Markenzeichen geworden ist.

00:02:58: Du nutzt ihn ja selber in deinem Post oder in deiner Öffentlichkeitsarbeit.

00:03:05: Und ich würde mal sagen, das ist so der Markenzeichen geworden.

00:03:08: So viel eigentlich auch schon zu dir.

00:03:09: aller Kürze, bevor wir tiefer in deine Themen einsteigen, würde ich gerne noch meine AB-Fragen mit dir durchgehen, die ich mit allen Gästen anfangs durchgehe, damit die

00:03:20: Zuhörerinnen sich so ein Bild machen können oder vielleicht auch deine Antworten entsprechend einordnen können.

00:03:26: Du weißt, wie es funktioniert?

00:03:28: AB?

00:03:29: AB.

00:03:30: Also als Datenwissenschaftlerin ist es relativ einfach wahrscheinlich.

00:03:35: Du kriegst eine Frage mit zwei Antwortmöglichkeiten und du entscheidest dich für eine.

00:03:38: Das kriege ich hin.

00:03:41: Hoffe ich.

00:03:44: Bildung online oder offline?

00:03:47: Meistens online.

00:03:50: Automatisierte oder menschliche Entscheidungsfindung?

00:03:53: Das ist natürlich jetzt für mich eine der komplexesten Fragen.

00:03:57: Automatisiert.

00:03:59: Stärkere Regulierung oder mehr Freiheiten für Unternehmen?

00:04:03: Mehr Freiheiten für Unternehmen.

00:04:05: Vollkommener Schutz persönlicher Daten oder weniger Datenschutz zur Wahrung der Sicherheit und des Wohls der Allgemeinheit?

00:04:13: Kommt auf den Einzelfall an, aber wir sind ziemlich drüber geschossen, also weniger.

00:04:17: Okay.

00:04:18: Und last but not least, Web-Meetings oder persönliche Treffen?

00:04:22: Dann schon das persönliche Treffen, wenn es geht.

00:04:26: Okay.

00:04:27: Bei der Bildung warst du bei offline?

00:04:29: Online.

00:04:30: Online, Entschuldigung.

00:04:34: Die Krippe, die ich hatte, schlägt noch zu.

00:04:36: Mein Gedächtnis, lässt du wünschen.

00:04:39: Online, wieso online statt offline?

00:04:41: Für mich persönlich online, weil ich es ansonsten einfach kaum unter bekomme und...

00:04:47: Zeitmanagement-Frage und der wichtigste Teil ist, dass offline meistens nicht so nischig, wie ich meine Fortbildung und Bildung gerne hätte, dann häufig unterwegs ist.

00:04:58: Also meistens sind das irgendwelche Spezialkurse, die eigentlich fast auch nur online existieren.

00:05:04: Offline wäre cool.

00:05:06: Ich halte auch Vorlesungen offline, das mal so einzuordnen.

00:05:09: Finde das mega großartig.

00:05:11: Aber je nischiger Wissen wird, umso mehr musst du meistens auf Online-Ressourcen zurückgreifen.

00:05:17: Und dann bist du auf automatisierte Entscheidungsfindung gegangen, statt menschlicher.

00:05:22: Spannender Punkt, wieso automatisiert?

00:05:25: Also wir unterstellen mal, es ist gut automatisiert.

00:05:29: Dann ist es definitiv so ein Punkt, dass die meisten einfach ihre menschliche Entscheidungsfindung massiv überschätzen.

00:05:33: Also ich habe Mathe-Umsychologie studiert und es ist irgendwie manchmal so eine Kombi, wo man sich so denkt, so lass es doch einfach die Maschine machen.

00:05:41: Das glaube ich, ist hier an der Stelle besser.

00:05:44: Das ist natürlich eine Einzelfallentscheidung.

00:05:47: Deswegen immer die berühmte Salzstreue.

00:05:48: Aber am Ende des Tages ist es so, dass wir uns massiv überschätzen, wie gut unsere Entscheidungen sind.

00:05:54: Wer sich mal Finance Background hat, allein die Diskussion mit Verlust und Risikoaversion und wie viel Schmand da den ganzen lieben Tag gelabert wird, dann ist es halt einfach so,

00:06:03: die Mischung macht es.

00:06:05: Aber ganz häufig würde ich mal sagen, automatisiertes System ist echt besser als was da manche Menschen denken, was sie da schlau ist und scheitern.

00:06:14: Okay, ich bin auch ein Autist.

00:06:15: Also ich finde manche menschliche Entscheidung grundsätzlich ein bisschen schräg.

00:06:21: Okay, dann bin ich mal gespannt auf die nächsten.

00:06:25: Frage drei und Frage vier war ja mehr Freiheiten für Unternehmen und du sagst auch weniger Schutz, weniger Datenschutz.

00:06:31: Genau, also mehr Freiheiten für Unternehmen.

00:06:33: würde sagen, sind, ich finde Regulation wichtig.

00:06:36: Ich bewege mich seit an Beginn meiner Karriere in regulierten Märkten mit Finanzmarkt und Co.

00:06:40: und finde Regulation sinnvoll und notwendig.

00:06:42: Jetzt kommt das große Ava.

00:06:44: Aber jetzt, wo wir zwischenzeitlich stehen, wo du im Prinzip einen Chief Bürokratie brauchst und die Bürokratie in den Griff zu bekommen.

00:06:49: Also sorry, das ist kann es einfach echt nicht mehr sein.

00:06:53: Ich habe in Zürich studiert und mir ist leider der legendäre Satz meines Professors Steuer.

00:06:59: Haben wir den Dütsche hier?

00:07:00: Und dann musst du dich natürlich outen und dann wird dir dann vor Augen geführt, wie Schweizer Steuerrecht und deutsche Steuerrecht ausschaut.

00:07:07: Also ich würde sagen, man muss das wie gesagt alles mal so bisschen einsortieren.

00:07:09: Aber da, wo wir gerade stehen, wir schießen ordentlich um.

00:07:11: Und so sehe ich das auch beim Datenschutz.

00:07:14: Datenschutz ist wahnsinnig wichtig.

00:07:15: Aber das, was wir teilweise veranstalten, Datenschutz dazu führt, dass Ärzte unqualifizierte Entscheidungen treffen.

00:07:22: Ich sage immer nur das gruselige Beispiel der Blutvergiftung, weil keine Daten hin und her geschoben werden können.

00:07:30: Das heißt, die Blutvergiftung und solche Sachen werden häufig nicht schnell genug identifiziert und sowas.

00:07:35: Das kann es einfach nicht mehr sein.

00:07:37: Also wir sind beim Datenschutz weit oben drüber geschossen.

00:07:39: Nicht, er deswegen unnütz ist.

00:07:42: Aber wir führen halt Regulation gerne ad absurdum und das ist halt in vielen Bereichen zwischenzeitlich.

00:07:47: Besonders in Europa, aber besonders natürlich auch in Deutschland.

00:07:50: Gerade schon echt glorreich daneben.

00:07:52: Ich glaube, dass das auch nicht nur in der Datenwelt ist, sondern generell, dass wir uns da selber irgendwie Fesseln anlegen, die nicht notwendig wären für gewisse Themen.

00:08:01: Ja, wie gesagt, ist halt einfach, das ist irgendwo so eine Grundregulation.

00:08:05: und viele Sachen sind einfach auch wichtig.

00:08:08: Aber das zum Beispiel, wir haben zwar Datenschutz, aber wenn du dann überlegst, dass Datenschutz und Datensicherheit ja schon zwei Themengebiete sind, die Leute kaum

00:08:16: auseinanderhalten können und solche Späße.

00:08:18: Also da ist die Diskussion teilweise auch ad absurdum geführt.

00:08:22: also deswegen bin ich da immer so ein bisschen, also der Mensch kann, hat schon, man sollte das Gehirn zwischen den zwei Öhrchen bitte auch nutzen.

00:08:28: Das wäre sehr viel hilfreicher, Oder die automatisierte Entscheidungsfindung.

00:08:35: In dem Fall.

00:08:40: Du hast ja noch gesagt, persönliche Treffen, da würde ich gar nicht so jetzt näher drauf eingehen.

00:08:45: Ich würde einfach gleich mal weitergehen, weil das, glaube ich, passt ganz gut zu dem Thema, das wir jetzt gerade besprochen haben.

00:08:50: Im Intro habe ich ja dein Unternehmen Empathic Business auch schon genannt und ein spannender Name für ein Unternehmen, das zum Thema AI unterwegs ist, da wahrscheinlich

00:09:02: viele

00:09:03: die Begriffe AI und Empathie schwer miteinander kombinieren können oder irgendwie in Verbindung setzen können, kann ich mir vorstellen, wie siehst denn du das, diese beiden

00:09:16: Begriffe zueinander und wie ist dieser Name oder wie ist es dann überhaupt auch zu diesem Namen gekommen?

00:09:21: Okay, also grundsätzlich fängt das Ganze ein bisschen früher an.

00:09:25: Ich habe davor schon eine Unternehmensberatung gehabt, wo wir im Prinzip das Gleiche gemacht haben.

00:09:29: Aber manchmal hat man Kunden, nicht zahlen, da muss man was Neues machen und damit hatte ich das

00:09:33: habe ich dann eine gute Chance genutzt und gedacht, denke Geschäftsmodell neu.

00:09:42: Dieses Denke-Geschäftsmodell neu hat dann dazu geführt, dass ich entschieden habe, möchte diese Kombination, wie so auch Verhaltensmathematikerin, stärker in Zusammenhang setzen.

00:09:56: Ich habe mich sehr frühzeitig in meiner Karriere auf menschliche Daten spezialisiert und das

00:10:01: quasi was wir heute auch mit den unstrukturierten Daten haben, dem Chaos Faktor, der dadurch entsteht, der Mensch halt an sich einfach nicht so ein rationales

00:10:07: Entscheidungstierchen ist, wir hatten es ja gerade schon davon.

00:10:11: Und die Empathie ist etwas, was wir häufig auch falsch einschätzen, weil wir ja schon gar nicht wissen, dass es zwei Arten oder eigentlich drei Arten von Empathie gibt.

00:10:18: Also kognitive, emotionale und dann haben wir noch soziale und Gruppenempathie.

00:10:23: Und so diese Kombination auch aus den Erfahrungen von vielen, Projekten, woran scheiterst du im Projekt, dann ist es immer so, du scheiterst

00:10:30: Seit Anbeginn meiner Karriere bin ich nie an den Daten, nie an der Matte, nie am Computer gescheitert.

00:10:35: NIE!

00:10:36: Es war vielleicht Aufwand, wir mussten was Neues basteln, außen rum arbeiten, aber das war nie der Grund, wenn irgendwas richtig gegen die Wand gelaufen ist.

00:10:43: Richtig gegen die Wand gelaufen ist es immer der menschliche Faktor, der einfach an allen Ecken und Enden unterschätzt wird.

00:10:49: Und das wollte ich stärker zum Ausdruck bringen, weil ich meine, ich habe ja schon gesagt, die automatisierte Entscheidung finde ich irgendwie ganz cool und dann kommt die Tante die

00:10:55: Ecke und sagt, sie macht ein perfect business.

00:10:57: Widerspricht sich das dann?

00:10:58: Na ja, es widerspricht sich gar nicht, wenn es sauber gemacht ist.

00:11:01: Und das wollte ich halt stärker auch in diesem Kunstbegriff quasi ausdrücken.

00:11:05: Und ein bisschen war es natürlich auch ein bisschen ein Glaskugelmoment, weil ich habe sehr frühzeitig mal gesagt, einer der Schritte, die wir sehen werden, ist, wenn wir an den

00:11:16: Punkt kommen, dass KI generierend beziehungsweise menschlich interagierend stärker ist, als wir das aus einem alten Eliza-Chatbot aus den 60er Jahren kennen.

00:11:25: dann werden wir sehen, dass diese Maschinen kognitive Empathie haben.

00:11:29: Und das war sozusagen mein letzter Glasgut.

00:11:31: Ich glaube, das ist ein ganz, ganz, ganz witziger Move, das so rum zu machen, dass ich dann recht hatte, war da noch ganz nice obendrauf.

00:11:37: Aber so kommt dieser Kunststabe zustande.

00:11:41: Also für dich ist das Thema, wir werden dann nachher ja auch noch mal bisschen drauf eingehen, aber vor allem der Mensch, wenn wir jetzt zum Thema EI unterwegs sind oder Daten

00:11:51: etc.

00:11:52: ist

00:11:54: eigentlich so der kritische Punkt, den man im Griff haben muss, erfolgreich zu sein?

00:12:00: Definitiv, definitiv.

00:12:01: ist einfach, wird massiv unterschätzen, auch in den letzten zwei, halben Jahren, in denen wir waren, wo alle, alle, mit und ohne fachlichen Hintergrund irgendwelche Modelle

00:12:10: diskutiert haben und du sitzt da und denkst dir so, Herzenlein, diese Modelldiskussion können wir uns völlig sparen.

00:12:15: Das wird hier noch nicht mal umgesetzt werden.

00:12:17: Aber jetzt haben wir darüber diskutiert, dass das Modell schön ist, aber passt es zu euren Daten?

00:12:22: Hat sich diese Frage irgendwie mal gestellt?

00:12:24: Jetzt wieder hier nicht mehr komische Fragen.

00:12:26: Also ja, das ist halt genau das, was komplett unterscheidzt wird.

00:12:30: Jetzt komme ich gleich auf den Begriff, den ich so spannend finde, den wir im Vorgespräch nämlich hatten.

00:12:36: Der sogenannte Mental Model Mismatch.

00:12:40: Ist das genau das, wovon du jetzt sprichst?

00:12:44: Kannst du das vielleicht den Zuhörerinnen mal erklären?

00:12:46: Was steckt denn da dahinter?

00:12:48: Also mentale Modelle oder Mental Models sind

00:12:52: Dinge, falls jemand Caneman gelesen hat, großartiger Buch, großartiger Professor, schnelles und langsames Denken.

00:12:59: Wir arbeiten mit sogenannten mentalen Modellen in unserem Kopf, sowohl bei langen als auch beim kurzen Denken.

00:13:05: Also in beiden Varianten haben wir sogenannte mentale Modelle, Weltmodelle, wie die Welt funktionieren hat.

00:13:10: Das hat mit vielen Dingen zu tun, aber das sind mentale Modelle.

00:13:14: Diese mentalen Modelle, mit denen kommen wir in Teilen auch die Welt.

00:13:17: Wir werden sozialisiert damit, aber auch Unternehmen.

00:13:21: haben diese mentalen Modelle.

00:13:23: heißt, eine Führungskraft hat ein bestimmtes mentales Modell, wie die Welt zu funktionieren hat, häufig bedingt durch ihre Ausbildung.

00:13:29: Und je länger jemand im Job ist, umso stabiler werden diese mentalen Modelle.

00:13:33: Und diese mentalen Modelle müssen nicht unbedingt immer zum einem gegenüber passen.

00:13:38: Das führt dann zu Beziehungsdiskussionen vielleicht.

00:13:42: Aber natürlich kann auch diese mentalen Modelle auf eine Welt treffen, in der ich damit einfach nicht mehr zurechtkomme.

00:13:48: Und das ist das, was wir gerade extrem sehen.

00:13:51: dass wir quasi einen Mismatch haben, von dem, ich denke, wie die Welt hat, wie die Welt auch zu funktionieren hat, wie so ein Unternehmen und all das zu funktionieren hat,

00:13:59: gegenübergestellt von dem, wie die Welt vielleicht wirklich ist oder sie gerade auch anders funktioniert.

00:14:05: Und das ist der Begriff hinter diesem so-Sagen so Mismatch, weil ich halt dann quasi die den Apfel mit der der Orange vereinigen will.

00:14:13: Wobei in dem Fall will ich glaube ich den Apfel eher mit irgendwie dem Hammer zusammenbringen.

00:14:18: Und das passt halt vorne und hinten nicht zusammen.

00:14:21: Jetzt ist es gemeine an Mental Model Mismatches.

00:14:24: Das ist mir ja nicht wirklich bewusst.

00:14:26: Es gibt diesen witzigen Begriff der unbewussten Inkompetenz.

00:14:29: Ich weiß ja nicht, was ich nicht weiß.

00:14:32: Und das spielt quasi da sehr krass rein.

00:14:35: Insbesondere wenn ich eventuell, was ja die meisten auch sind, in den letzten Jahren oder Jahrzehnten erfolgreich mit diesem mentalen Modell war, den Schalter umzulegen, dass das

00:14:45: daran liegt und jetzt was anderes funktionieren muss.

00:14:47: Das ist halt einfach relativ komplex.

00:14:50: Dann lass uns da mal tiefer einsteigen.

00:14:51: finde das sehr spannend.

00:14:52: hast schon gesagt, viele waren erfolgreich und es ist ja auch so ein mentales Modell, verfestigt sich je länger man dann in der Arbeitswelt ist oder auch erfolgreich ist.

00:15:00: Da sagt man, es funktioniert ja, muss ja jetzt auch funktionieren.

00:15:05: Was ist jetzt, wenn wir über das Thema AI oder Daten sprechen, was muss sich ändern?

00:15:11: Was passt nicht da dazu?

00:15:13: Was passt aus unseren mentalen Modellen, die wir aus der Vergangenheit kennen?

00:15:18: Wo ist da der Mismatch?

00:15:19: Kannst das konkret machen, dass man das nur noch mal versteht?

00:15:22: Genau.

00:15:23: Nehmen wir so ein ganz schönes Beispiel, insbesondere der deutschsprachige Raum, ist jetzt ja egal, ob Österreich, Deutschland oder Schweiz.

00:15:28: Wir stehen ja viel für so eine, ja Moment, kommt gleich, für so eine Ingenieurswissenschaft.

00:15:33: Also für eine sehr, also wenn der Stuttgarter den Draht nicht mehr fein genug bekommt, dann schickt er nach Zürich so ungefähr.

00:15:42: Also das ist so, wir sind ja alle so sehr geprägt aus so einer Maschinenbau Ingenieurswissenschaftswelt.

00:15:48: wo es sehr, sehr genau zugeht.

00:15:50: Also ich komme so aus einem Luftfahrthaushalt.

00:15:52: Also Mühabweichungen sind was, was ich sehr früh am Küchentisch gelernt habe, ohne so richtig zu schüssen, was jetzt Mühe.

00:15:59: Das heißt, wir kommen aus dieser Welt.

00:16:01: In einer Ingenieursdenkenden Welt geht es Optimierung des letzten Mühes.

00:16:05: Da geht es nicht mehr 100%, da geht es quasi Exaktheiten par excellence.

00:16:10: So, jetzt kommen die Daten die Ecke, die eine Wahrscheinlichkeitsrechnung in selbst sind.

00:16:15: Und sehr früh meiner Karriere war immer so dieses Jahr, müssen wir das Modell auf 100 Prozent optimieren.

00:16:20: Wie soll ich jetzt ein Wahrscheinlichkeitsmodell auf 100 Prozent optimieren?

00:16:23: Das funktioniert ja von vorne bis hinten nicht.

00:16:26: Das war aber bisher immer und meine ganze Karriere war ja bis so so 2023 die Nische in der Nische und kein Mensch hat sich wirklich dafür interessieren, was ich so den ganzen Tagen

00:16:35: tue oder wir hier so tun.

00:16:37: Und dann sind jetzt alle in diese Welt hineingeworfen von Gen-AI Anwendungen, die natürlich voll wahrscheinlich getrieben sind.

00:16:44: Wahrscheinlichkeiten mit Wahrscheinlichkeiten multiplizieren.

00:16:47: Und das passt halt vorne und hinten nicht mal zusammen zu unserem, aber es muss 100 % akkurat sein.

00:16:51: Okay, 99,9 % nehmen wir auch.

00:16:55: Das ist so ein kleines Beispiel davon, wo die zwei Welten massiv aufeinander prallen.

00:17:00: Also quasi der Ingenieur diskutiert über die Halluzination, dass die komische AI da irgendwas erfunden hat.

00:17:06: Und dann sitzt du halt in einem riesen Desaster, weil, na ja, was denn jetzt?

00:17:09: Wer von beiden?

00:17:10: Gibt es jetzt einen richtig?

00:17:11: Gibt es einen falsch?

00:17:12: ist jetzt alles schlimm und das ist ein Beispiel für ein Mental Model Mismatch.

00:17:17: Also es geht mehr, es muss mehr Richtung Try and Error gehen.

00:17:20: Es muss zum Beispiel ganz klar gegen Try and Error gehen und es muss ein anderes Verständnis geben und die zwei großen Probleme sind deterministische Entscheidungen und

00:17:31: lineares Denken.

00:17:32: Das funktioniert in Data on AI halt einfach nicht.

00:17:36: Also die einfachste Variante, die du rausfinden kannst, also alle, die sich jetzt mal fragen,

00:17:40: wird unser AI-Dingsbums erfolgreich werden?

00:17:44: Sobald du jetzt hörst, AI Projekt, weißt du schon, ist angezündet.

00:17:48: Kann nicht erfolgreich werden, weil AI und Data ist kein Projekt, es ist immer Prozess.

00:17:52: Also alleine dadurch, dass der falsche Begriff, was verwendet wird, weißt du schon, das vergisst es.

00:17:56: Das wird nie umgesetzt werden.

00:17:57: Das wird nie auf dem Level ankommen, wo es sein sollte.

00:18:00: Kannst du da nochmal tiefer einsteigen, wieso es jetzt kein Projekt ist, sondern ein Prozess ist?

00:18:07: Also grundsätzlich ist

00:18:10: Wenn AI ein Projekt wäre, dann wäre es linear.

00:18:13: Dann würde es ein Startdatum geben.

00:18:15: Jo, wir machen jetzt mal, dann sind wir fertig.

00:18:18: So, dann ist das AI-Ding ausgerollt.

00:18:21: Das hausinterne XY-GBT.

00:18:24: Ja, das ist totaler Schmaden.

00:18:26: So funktioniert Data on AI erst recht nicht.

00:18:28: Das heißt, wenn das Modell einmal fertig ist, dann ist es nicht fertig.

00:18:31: Es ist nie fertig.

00:18:32: Es kann kaputtgehen, ohne übrigens, dass jemand was falsch gemacht hat.

00:18:35: Das ist das Allerskurialste.

00:18:37: Modelle müssen abgedatet werden, muss weiterentwickelt werden, es muss allen Ernst wie so ein Tamagotchi oder wie so ein Kind am Leben gehalten werden, Wenn ich jetzt in einem

00:18:47: konkreten Enddatum denke, dann habe ich ein Projekt und dann fliegt es mir halt absehbarer Zeit die Uhren.

00:18:56: Damit muss es ein Prozess sein, weil es kontinuierlich weiter, zirkulär weiterentwickelt und wie gesagt, es muss nicht mal weiterentwickelt werden.

00:19:03: Allein es maintainen zu können, muss es als Prozess ge-

00:19:08: Das ist relativ klar jetzt rübergekommen, wenn du jetzt in so einen Prozess reingehst und sagst, ich mache jetzt so ein...

00:19:18: Ich möchte jetzt nicht Projekt sagen.

00:19:20: Ist schon okay, wir dürfen das jetzt schon noch.

00:19:23: Aber wenn ich sage, ich möchte mich mit dem Thema beschäftigen in meinem Unternehmen.

00:19:30: Wie geht man aus deiner Sicht am besten dann vor?

00:19:34: Ich liebe es, in Prozessen zu denken.

00:19:39: Aber was muss das Sealevel da machen oder wie setzt man es am besten auf, dass man sagt, so kann es erfolgreich werden?

00:19:48: Die größte Herausforderung für C-Level ist definitiv, dass die Hürde eins ist.

00:19:55: Und das ist definitiv einer der größten Mental Model Mismatches, wir so haben.

00:19:59: Denn Führung ist lösungsorientiert, Data on AI ist problemorientiert.

00:20:07: Ich finde es immer wieder großartig, wenn ich in Keynote oder so etwas halte, besonders im HR-Umfeld.

00:20:12: Und dann ist ja so...

00:20:13: lösungsfokussiert sein, ist ja so ein Mantra des HR und dann gucken die mich alle völlig entsetzt an, was machen wir denn jetzt mit unseren Mitarbeitenden, dass wir die jetzt

00:20:20: irgendwie umschulen müssen.

00:20:21: Herzlich willkommen in der Welt von Data und AI.

00:20:23: geht den Problemfokus, nicht den Lösungsfokus.

00:20:27: Und da fängt es schon an.

00:20:28: Wir haben Modelle, also ich bin ja alt, da bin ich natürlich ein CRISPDM Schräg, schräg CRISP ML, also Cross-Engine Standard Process for Data Mining oder Machine Learning.

00:20:38: Das ist ein zirkuläres Modell aus den 90er Jahren.

00:20:43: klassisch anfängt mit Business und Data Understanding.

00:20:45: Und in Business Understanding und Data Understanding, besonders in Business Understanding, geht es einfach darum, einfach mehr Fragen zu stellen als Antworten zu liefern.

00:20:53: Das ist auch so ein klassiger Move der Mathematik.

00:20:56: Viele Mathematiker, sind drauf trainiert.

00:20:58: Wir müssen mehr Fragen stellen als Lösungen finden.

00:21:01: Denn am Ende des Tages ist die Lösung, ich kann eine Lösung zu jeglichen Problemen bauen, aber wenn ich das Problem nicht verstanden habe.

00:21:06: Und da ist wirklich der große, große Knackpunkt.

00:21:10: Auch aktuell ist immer so die Frage, ja, wofür wir denn jetzt KI ein?

00:21:15: Also nach dem Motto, wähle Walo, schmeiße alles in, wir hatten ja gerade Weihnachten, Wünsche ans Christkindl, schmeißen alle Wünsche mal in einen Topf rein und dann ziehen wir

00:21:24: und da führen wir jetzt KI ein.

00:21:27: Okay, das wird genau so laufen, wie das nicht läuft.

00:21:30: Der MVP Friedhof, die verbrannte Kohle.

00:21:35: Weil die Frage am Anfang, welche Probleme, wo hakt es denn, was wollen wir denn überhaupt lösen und was können wir dann damit lösen, halt nicht gestellt wird.

00:21:43: Da fängt es halt oben schon an und dieses Idee, ich muss mehr Fragen stellen und muss das auch wirklich zulassen, das ist halt für Führungskräfte anstrengend, die ja eine Lösung

00:21:54: haben wollen, gerne gestern.

00:21:56: Und dann kommt natürlich das dreckige Geheimnis des Prozesses dazu.

00:22:00: Reden wir über Unternehmen, die größer sind und wirklich in dieser Welt ankommen wollen.

00:22:04: Dann ist Data on AI kein 3-Monats-Ding.

00:22:08: Also so ein schönes Data Mesh, das geht halt schon mal 6 Jahre, vielleicht auch 10 Jahre, weil das eine grundsätzliche Veränderung von tiefen, tiefen Prozessen in einem Unternehmen

00:22:18: sind.

00:22:18: das wollen Sie jetzt, also da hat noch keiner geklatscht, wenn ich die Ecke gekommen bin, so, wir sehen uns übrigens in Abständen länger, die nächsten paar Jahre.

00:22:29: Aber das bedeutet ja, dass es eigentlich mehr so Richtung Mitarbeiter,

00:22:35: Ja, auch so ein Coaching ist.

00:22:37: Also ich komme jetzt aus der Lean-Welt und das ist jetzt das Coaching-Cutter, wo ich auch ganz bewusst Fragen stelle und wo es da auch ganz stark ums, wenn man dann ins

00:22:47: Improvement-Cutter geht, auch in dieses Experimentieren reingeht, geht es genau in diese Richtung zu sagen, ich stelle die Frage, hast du als Mitarbeiter eigentlich schon das

00:22:58: Problem verstanden oder haben wir es verstanden und was probieren wir als nächstes, das vielleicht zu lösen?

00:23:04: Ja, wobei sogar noch einen Schritt minus eins vorher.

00:23:09: Was für Probleme haben wir denn hier überhaupt?

00:23:11: Was haben wir für reale Probleme?

00:23:12: Welche Fragen nerven uns wirklich?

00:23:16: können wir die, weil am Ende des Tages gilt es heutzutage, wir könnten eigentlich schon fast alles lösen.

00:23:22: Also mit den Tools, die wir haben, können wir fast alles schon lösen und fast alles ist machbar.

00:23:27: Es gibt ein paar Sachen, wo du sagst, das ist vielleicht

00:23:30: Das ist noch zu aufwendig in der Exekution, aber es kommt an einem ganz anderen Step, dass man sagt, nein, das machen wir jetzt noch nicht.

00:23:37: Und diese Fragen, diese Vielfalt, also immer wenn ich dann quasi alle challange, okay, ihr habt jetzt 15 Minuten Zeit, schreibt mal 30 Fragen runter.

00:23:45: Daran scheitern die Leute.

00:23:46: Diese Kunst, die gute Frage, die dämliche Frage zu stellen, bevor wir überhaupt bei einem Problem sind, da knackts.

00:23:52: Und dann habe ich genau halt, dass ich im Prinzip auch Klassiker

00:23:57: einen Prozess anfangen zu digitalisieren und einen Prozess dann mit irgendwie Gen.ai und jetzt noch mit Agents zu bauen, was von vornherein Bullshit gewesen ist, ich den ganzen

00:24:05: Prozess hätte neu denken können und damit einfach wirklich mal lean geworden wäre.

00:24:09: Nee, nix da.

00:24:11: Aber das scheitert, wie gesagt, an Schritt minus eins und nicht, weil irgendjemand was falsch gemacht hat.

00:24:15: Und da aus der Nummer kommst du in Data halt nicht sauber raus, wenn du nicht bereit bist, diesen ersten Schritt mit mehr Fragen als Antworten zu liefern.

00:24:25: Jetzt stelle ich mir eine Frage, wenn ich jetzt im C-Level bin und sage, okay, gut, ich muss umdenken, bedeutet das, muss ich komplett mein Mental Model aufgeben oder nur zum

00:24:38: Thema AI?

00:24:39: Ich meine, das wird ja wahrscheinlich auch so ein Thema sein, wo du sagst, ja.

00:24:44: Das kommt extrem darauf an.

00:24:45: Normalerweise, je tiefer wir im Prozess sind, umso mehr greifen die klassischen mentalen Modelle, was Erfolg, was Exekution angeht, eigentlich schon immer.

00:24:53: Also das ist aber es ist halt später im Prozess.

00:24:56: Ja, es kann sein, je nachdem wie transformativ, change-lastig so diese ganzen schönen Schlagwortbegriffe ein Unternehmen unterwegs ist oder wie resistent es dagegen ist, dass

00:25:06: es eventuell komplett neu Das ist sicherlich eine der größten Herausforderungen, weil diese Unternehmen sehen wir natürlich jetzt zwischenzeitlich auch.

00:25:12: Da wo ich ursprünglich herkomme, da war natürlich mindestens immer ein Teilbereich oder auch ein

00:25:17: Teilbereich des Unternehmens immer schon in mega komm lass uns verändern und lass uns draufhauen und lass es lieber neu denken.

00:25:24: Wir haben auch Unternehmen, wo man sagen muss, realistisch ist es extrem hart, weil komplett neu gedacht werden muss, komplett neu mental etabliert werden muss, das Modell

00:25:34: muss, was das, was vor zehn Jahren funktioniert hat oder selbst bis vor drei Monaten kann einfach nicht mehr funktionieren.

00:25:41: Die gibt es leider auch.

00:25:44: Das ist auch sicherlich

00:25:45: die Unternehmen, die in der größten Gefahr sind, dem aktuellen Geschwindigkeit, die wir in Data und AI sehen, einfach auch überrollt zu werden.

00:25:54: dass die dann halt auch einfach im Zweifelsfall nicht mehr da sind.

00:25:58: Wie gehst du dann dabei deinem Projekt eigentlich vor?

00:25:59: Weil ich kann mir vorstellen, du bist ja in vielen großen Unternehmen unterwegs und die im C-Level, die haben ja auch schon einen gewissen, wie soll ich sagen, sind ja überzeugt von

00:26:10: sich selber, ja, sehr stark.

00:26:12: Und dann zu sagen,

00:26:14: Okay meine Herrschaften, ist alles schön und gut, was ihr bisher gemacht habt, aber damit wird es nicht weitergehen.

00:26:20: Also wie kriegt man diesen Change hin?

00:26:24: Also das ist ja ein Prozess, wo ich sage, okay pass auf, wie machst du das, dass die überhaupt auf diese Reise starten und zwar auch in die richtige Richtung laufen.

00:26:33: Ich meine, die können mal links und rechts abbiegen und sagen, aber ungefähr geht es in die richtige Richtung.

00:26:39: Wie kriegst du die geknackt als Beraterin?

00:26:44: Erstmal mit viel Fingerspitzengefühl und auch der ganz klaren Ansage, sie sind ja bisher nicht falsch unterwegs gewesen.

00:26:52: bin niemand, der sagt, du hast es letzten 20 Jahre falsch und hast Schmarrn gemacht.

00:26:56: Es ist halt einfach so dieses gemeine, dass Wissen sich überholt, dass es halt quasi am Ende irgendwie so ein Überlebenszyklus ist, teilweise sein kann.

00:27:06: Grant hat es ja quasi an Learning und an Thinking genannt.

00:27:11: Das ist genau dieses.

00:27:12: Ich komme sicherlich nicht mit, ich bin sehr direkt und das mögen die auch alle, die wissen auch genau, was sie sich da einlassen.

00:27:18: Aber ich bin niemanden, der jemand persönlich angreifen würde, sagen, du bist jetzt auf dem Holzweg, wie kannst du nur so dumm sein, weil das ist überhaupt völliger Schwachsinn.

00:27:26: Sondern es ist eher ein Türaufstoßen nach dem Motto, was dich bis heute, und das ist denen ja nicht neu, was dich bis heute erfolgreich gemacht hat, muss nicht unbedingt morgen noch

00:27:35: funktionieren.

00:27:36: Und das ist etwas, was viele Leute nachvollziehen können.

00:27:38: Und dann musst du halt diese Tür vorsichtig aufmachen oder sagst so, okay, lass uns mal so bisschen in die Zukunft gucken.

00:27:44: Wie würde denn so eine Zukunft ausschauen?

00:27:46: Was wäre denn eigentlich wirklich das, was cool wäre?

00:27:51: Was ihr euch vielleicht auch schon mal vor drei, vier, fünf oder vor zehn Jahren überlegt habt, was eine coole Zukunft wäre, weil diese Visionen gibt es im Normalfall.

00:27:59: Und dann, da findest du eigentlich immer irgendwas mit so, was cool wäre, wenn wir endlich mal so

00:28:05: besser voraussagen könnten, wie unser Kundenverhalten wäre.

00:28:08: Oder aus dem Drama der Conversion von 3 % rauskommen würden.

00:28:12: Ich komme ja meistens über die Marketing-Sales-Seite.

00:28:15: Oder wenn wir endlich mal unsere Ausschussquoten anders in den Griff bekommen würden oder solche Geschichten.

00:28:18: Normalerweise gibt es diese Variante, wo jemand sehr frühzeitig mal belegt hat, das wäre cool und das würde auch unser Geschäftsmodell verändern.

00:28:25: Und wenn du diesen Punkt gefunden hast, dann kannst du quasi mit der Data- und Tech-Seite um die Ecke kommen und sagen so, hey, coole Sache, das kriegen wir bereits hin und das

00:28:33: wären die notwendigen Steps.

00:28:35: Und dann kriegst du sie eigentlich in diese Welt hineingedacht mit, okay, wie funktioniert eigentlich Unternehmen?

00:28:41: Wie können wir funktionieren?

00:28:43: Und das ist so dieser dieser Punkt, an den sie normalerweise kommen müssen.

00:28:47: Alle Ausnahmen bestätigen die Regel, Hauptsache die Mehrheit.

00:28:51: Dieses Wie kommen wir nicht damit klar, dass die Welt und jetzt halt auch noch schneller als sich quasi konstant verändert?

00:28:59: KI, AI, was auch mal wir das Kind auch mal nennen wollen, verändert sich konstant geopolitisch.

00:29:04: ständig ist, wir sind ja von einer Krisenwelt in der anderen.

00:29:08: Aber wie bleiben wir eigentlich transformativ stabil?

00:29:11: Was können wir eigentlich tun?

00:29:13: Und dann kriegst du sie, weil am Ende des Tages sind sie eigentlich alle kleine Control-Freaks.

00:29:18: Und das ist auch das, was ich sowohl meinen Studenten als auch allen anderen Kunden am Ende des Tages sage.

00:29:22: Du willst in einer Welt, die nicht kontrollierbar ist über deinen eigenen Drama, Schrott, Scheiß, die höchstmögliche Kontrolle haben.

00:29:30: Das ist das, wo die Meistern anfangen zu verstehen, dass Kontrolle eigentlich immer noch da ist.

00:29:34: Sie muss nur anders gedacht werden und das gibt Stabilität und Sicherheit.

00:29:37: Und so kriegst du sie nach und nach in dieses, ja, das ist eigentlich ganz cool.

00:29:41: Könnten wir mal machen.

00:29:42: Aber Fingerspitzengefühles zu empfehlen.

00:29:45: Ja, ich glaube, also ich bin ja auch immer wieder in der Restrukturierung unterwegs und dann wird dann halt auch immer manchmal zack, zack, zack, wir müssen dieses und jenes

00:29:52: machen und wenn es dann nicht passt, gleich wieder nach links gedreht oder zurück gedreht.

00:29:57: Ich kann mir ja vorstellen, dass da auch ein langer Atem notwendig ist, weil es wird Rückschläge geben.

00:30:02: Also Rückschläge wird es immer und überall geben.

00:30:05: Das geht gar nicht anders.

00:30:08: Und ich sage mal lieber, allen, ihr habt hier mit Mathe zu tun und das macht das Leben manchmal ein bisschen leichter, weil AI ist Mathe in Code.

00:30:18: Punkt.

00:30:18: Nichts anderes ist es.

00:30:20: Und die Mathe ist halt einfach, ich kann die Mathematik teilweise nicht ändern.

00:30:23: Ich kann eine andere Codesprache nehmen, aber 5 plus 3 ist 8, nicht 18.

00:30:27: Und wenn das, das haut halt einfach nicht hin.

00:30:29: Marketing und Legal sehen das teilweise anders.

00:30:33: Sales sowieso.

00:30:36: Das ist okay.

00:30:38: Aber du musst halt eben, du musst mit diesen Grenzen irgendwo leben.

00:30:43: Und damit kriegst du sie dann schon irgendwo so, das halt scheitert.

00:30:47: Es ist ja auch kein richtiges Scheitern, aber manchmal müssen Sachen gerechnet werden, dann festzustellen, sie funktionieren nicht.

00:30:52: Und ja, das ist für die Firmen extrem tricky.

00:30:54: Wenn sie noch nie, und das merke ich jetzt,

00:30:56: haben halt, gesagt, in den letzten zwei Jahren, zweieinhalb Jahren massiv andere Kunden auch betreut.

00:31:02: Die haben bisher mit diesem Machine Learning, Deep Learning, mit dieser ganzen Welt wenig, wenig zu tun gehabt.

00:31:09: Und dann so, ja, was habt ihr dann gemacht?

00:31:11: Wir haben es gerechnet, aber das Modell passt nicht zu den Daten und müssen nochmal von vorne anfangen.

00:31:15: Ja, wie jetzt?

00:31:16: Ja, was soll ich denn jetzt machen?

00:31:18: Also, ja, können sie nicht?

00:31:20: Nein, ich kann auch nicht die Hand auf die Daten drauf legen und magisch sagen, hier werden wir.

00:31:26: Okay, ich kann sagen, dass wir den Super-Weiß oder den An-Super-Weiß oder den Reinforcement Learning nehmen, aber ich weiß noch nicht so genau, welches Modell da jetzt

00:31:33: wirklich passt.

00:31:34: Wie?

00:31:35: Das ist manchmal mit Humor verbunden.

00:31:39: Glaskugel wieder auspacken und bisschen droppeln.

00:31:41: Habe Glaskugel am Schreibtisch, habe vor Jahren mal eine Glaskugel von einem Kundengeschenk bekommen.

00:31:47: Das ist sehr hilfreich.

00:31:50: Sehr gut.

00:31:51: Wenn wir jetzt beim C-Level 1 jetzt

00:31:54: Ich meine, Ziel Level sind die einen.

00:31:55: Es ist alles schön und gut, dass die dann sagen, okay, wir machen es.

00:31:59: Wie du auch schon gesagt hast, die größten oder das größte Manko, würde ich jetzt nicht sagen oder das größte Hindernis für den Erfolg ist immer der menschliche Faktor.

00:32:10: Und das Ziel Level ist das eine.

00:32:12: Sag ich mal, okay, den können wir jetzt ausschalten, den Faktor irgendwie.

00:32:15: wenn die machen, sie mal, Frau Lampl.

00:32:17: Und schon ist das Ziel Level ausgeschaltet.

00:32:19: Ja, okay, kriegen wir hin.

00:32:21: Also.

00:32:22: Haken dran, Aber wenn es dann großen Unternehmen und du hast mehrere Hunderttausende Mitarbeiter, wie auch immer.

00:32:30: Ja, wir machen schon alles von 50 bis, aber ja, es wird teilweise schon sehr groß zugegebenermaßen.

00:32:34: Ja, selbst bei 50.

00:32:35: Ich meine, das ist ja hoffentlich nicht so groß.

00:32:41: Wie ist der?

00:32:43: Kann man dann noch mit normalen Change management rangehen oder?

00:32:47: Ich sage an der Stelle, es kommt drauf an, weil Change Management ist ein weiterbegriffen.

00:32:52: Es gibt Firmen, haben Change Management, was auch changebar ist.

00:32:56: Und es gibt die, die selbstartig im Change Management sind.

00:32:59: Dann wird es schwierig.

00:33:00: es gibt ja sehr, no joke habe ich schon gesehen, dann sitzt der Change Manager dir gegenüber und sowas Fixiertes hast du einfach noch nie gesehen, weil der Change Management

00:33:09: Prozess nicht angepasst werden konnte.

00:33:11: Da war ich dann zugegebenermaßen ein bisschen raus.

00:33:15: Da hilft kein Fingerspitzengefühl mehr.

00:33:18: Da sitzt du dann schon irgendwann im Meeting und denkst so, Problem...

00:33:22: Beim ersten Mal denkst du, das Problem hatte ich noch nicht.

00:33:24: Beim zweiten Mal denkst du, das kennen wir schon.

00:33:26: Beim dritten Mal, kann doch jetzt echt nicht wahr sein.

00:33:28: Wir sind hier schiefgegangen.

00:33:29: Wie kommt denn diese Position auf diese Jobbeschreibung?

00:33:33: Nein, also ich würde sagen, dass die meisten...

00:33:36: Ja, es ist eine Change-Herausforderung.

00:33:38: Es gibt unterschiedliche Change-Theorien.

00:33:40: Ich bin natürlich...

00:33:42: Klar, das gemacht hat, ich bin natürlich ein großer Liebhaber, der Theory U, komisch, wer dafür irgendwie sogar in den USA war, der wird die natürlich mögen.

00:33:52: Aber am Ende des Tages ist es meistens eher auch, wie gesagt, man sieht viel in 20 Jahren Berufserfahrung, aber am Ende des Tages ist, wie viel Flexibilität ist im

00:34:00: Change-Management und wie sehr ist Change-Management ein strukturierter Abhack-Checklisten-Prozess?

00:34:04: Habe ich einen Abhacken-Checklisten-Prozess, laufe ich natürlich ins Drama, habe ich Change-Management als das, was es ist, ich nehme alle mit, ich hole alle ab.

00:34:11: dann ist das schon ganz sauber.

00:34:14: Der tricky point ist, dass wir eine zusätzliche Ebene im Change Management rund, wenn es um Data-on-AI geht, und das ist eine stärkere Bildungskomponente.

00:34:25: Denn ich vorher schon mal gesagt, wir waren früher so eine Nische in der Nische in der Nische, also von uns gibt es einfach auch eigentlich gar nicht so viele, aber seit 2023

00:34:35: habe ich ganz viele neue Kollegen und Kolleginnen.

00:34:40: Das cool, führt auch zu dem ein oder anderen interessanten LinkedIn-Post, werden wir da folgt.

00:34:46: Aber diese Ebene, und das ist nicht in jedem Change-Prozess vorhanden, dass Bildung und Fortbildung, also Stichwort Data und AI Literacy, extrem entscheidend sind, weil ansonsten

00:34:58: kann ich den Change-Prozess nicht verankern.

00:34:59: muss also da, das ist, wie gesagt, das kommt das Unternehmen drauf an, das ist manchmal ist das Teil vom Change, manchmal ist das nicht Teil vom Change.

00:35:06: Da sieht man so über die Jahre alles.

00:35:07: Aber mir ist einfach nur wichtig, Bildung ist und muss.

00:35:10: dieses Veränderungsprozesses sein.

00:35:13: Wie viel geht man da in Vorleistung aus deiner Sicht am besten, bevor man dann wirklich startet mit dem westlichen Prozess?

00:35:21: Im Prinzip zurück zu parallel und zirkulär.

00:35:23: Also das kann man auch wieder Dachdecker.

00:35:27: Data und AI ist wirklich parallel und zirkulär.

00:35:30: Je früher umso besser und je mehr parallel abholen und offensichtlich und transparent machen umso besser.

00:35:38: Also Transparenz in diesen Sachen ist extrem

00:35:40: extrem relevant, besonders wenn du in einem Unternehmen oder einer auch grundsätzlich im Deutschsprachigen, wo jetzt ja nicht unbedingt eine hohe Technik, Data, AI-Affinität von

00:35:52: intrinsisch vorliegt, umso wichtiger, weil da ja viel, viel inneres Ressentiment dahinter steckt.

00:36:00: Früher ist besser als später, aber am Ende des Tages Hauptsache machen.

00:36:04: Ich bin da nicht dogmatisch.

00:36:07: Wäre ich jetzt auch nicht.

00:36:08: Was ich immer spannend finde, ich meine, das ist ja auch ein Thema, ist ja wurscht ob AI oder ein anderes Thema, das man einführt.

00:36:18: Das habe ich schon des Öfteren erwähnt im Podcast.

00:36:21: Gefühlt reden immer alle darüber, wie wichtig es ist, aber keiner macht es im Unternehmen nachher.

00:36:26: Und wundert sich dann, dass gegen die Wand fährt.

00:36:30: Klassiker.

00:36:32: Genau.

00:36:32: Und wie kriegt man das?

00:36:36: am geschicktesten gewuppt.

00:36:40: C-Level einprügeln und sagen, du du musst, du musst.

00:36:43: bin da meistens eigentlich relativ, da werde ich dann drastisch, meistens habe ich dann schon so eine Ebene erreicht mit meinen Damen und Herren am Tisch, meistens ja mehr Jungs

00:36:52: als alles andere.

00:36:55: Und ich muss nur noch zugeben, wir sind häufig die, fixen.

00:36:58: Das heißt, wir kommen häufig rein, da bauen wir nicht zum ersten, sondern zum 38.

00:37:02: Mal.

00:37:02: Wir sind so bisschen so Last Frontier.

00:37:05: Das ist Fluch und Segen zugleich.

00:37:08: Fluch, weil du echt denkst, das hätten wir auch schon vor zehn Jahren machen können, ist aber auch egal.

00:37:13: Segen deswegen, weil wir und ich sehr pedantisch bin, mir anzugucken, was davor gemacht ist.

00:37:18: Ich will nicht das Rad neu erfinden, dafür bin ich überhaupt nicht intelligent genug.

00:37:21: Das heißt, ich baue sehr stark auf dem auf, was schon gemacht ist.

00:37:24: Und ich sage immer am Ende des Tages, es ist mein Job, Erfolge reproduzieren.

00:37:28: Und dafür muss ich die Erfolge identifizieren und dafür muss ich sauber wissen, wo ich falsch abgebogen bin.

00:37:34: Wenn ich die Hood aufmache, dann ist es natürlich Mathe, Data, Code, sonst irgendwas, schön und gut.

00:37:40: Aber wenn ich ein groß angelegtes Data AI Projekt sehe, was a, schon wirklich gedacht wird als Projekt mit einem Enddatum und b, keinen Change Manager und Projektleiterin oder

00:37:50: Leiterin hat, dann kann ich gleich sagen, das können wir jetzt lassen.

00:37:53: Und dann mache ich normalerweise eine sehr klassische Rechnung auf.

00:37:56: Und was haben wir schon an Kohle verbrannt?

00:37:58: Was hat uns das an nicht gemachten Umsatz- und Opportunitätskosten gekostet versus wir würden es jetzt richtig machen.

00:38:04: Und normalerweise spätestens dann irgendwie der CFO oder die Finanzvorständin und Vorstände finde ich am Anfang immer doof.

00:38:11: Und dann wären wir normalerweise Best Buddies.

00:38:14: Vielleicht auch was so zusammen sich theoretisch von der Ausbildung an nicht ein CFO wäre.

00:38:19: Weil dann natürlich klar wird, Moment mal, ich kann das zahlenmäßig auch abbilden.

00:38:24: Und das ist halt, finde ich, eine der Aufgaben, die insbesondere für so die klassischen Berater auf dem Niveau, wo auch ich unterwegs bin.

00:38:30: Wir müssen es ja eine Transparenz erzeugen in alle

00:38:33: in alle Bereiche.

00:38:34: heißt, ich muss es für Finance offensichtlich machen, ich muss es für HR offensichtlich machen und so sehen wir auch unseren Job immer.

00:38:40: Und wir können im Normalfall schon sehr klar sagen, okay, pass auf, weil ihr das nicht macht, wenn ihr den Fehler noch mal reproduziert, dann schreiben wir das jetzt runter,

00:38:48: aber es wird halt nicht, es passiert nicht einfach, dass sich das dann so verändert.

00:38:53: Und normalerweise hast du dann

00:38:55: Wie gesagt, bedingt normal auch durch den Schmerz, dass es davor zwischen 1 und x mal schon schiefgegangen ist, dass man sich denkt, okay, vielleicht denken wir es jetzt dann

00:39:03: doch nochmal neu.

00:39:04: Wie gesagt, Fluch und Segen, wenn du die Instanz bist, die zum späte Prozess nochmal aufschlägt.

00:39:11: Naja, kenne ich.

00:39:14: bin auch da, ich sage auch entweder wollt ihr es jetzt oder wir gehen jetzt schön Abendessen und ihr spart euch nachher die Kohle für das.

00:39:19: Genau.

00:39:19: Und da muss man halt manchmal auch einfach sagen so, ey, so.

00:39:22: Genau, lass uns das jetzt hier abbrechen.

00:39:24: Wir gehen ins Schickessen und dann sprechen wir uns.

00:39:27: Ich hab da auch noch so andere Karten.

00:39:28: Ich hab einen sehr guten, liebvollen, netten Freund von mir, haben eine Insolvenzkanzlei.

00:39:33: Soll ich einen Kontakt herstellen?

00:39:37: Na wer komischen Spitzen haben wie AI Babsie hat, darf sich auch manchmal sehr weit aus dem Kast kratzen.

00:39:44: Sehr schön.

00:39:47: Nee, cool.

00:39:48: Find ich super spannend, das Thema.

00:39:52: Kommt zu meine obligatorisch letzte Frage.

00:39:55: Gott!

00:39:56: Rettet mich.

00:39:56: Es hat nichts mit AI zu tun.

00:39:58: Drei Learnings, die du den Zuhörerinnen mitgeben möchtest.

00:40:01: Drei Learnings privator oder beruflicher Natur.

00:40:05: Du darfst es dir aussuchen.

00:40:07: Also ich würde sagen, mein Lieblings-Learning ist und das ist am Ende des Tages

00:40:14: Was ich immer wieder schräg finde, dass Menschen und Unternehmen das nicht tun, das ist aus den Fehlern von anderen Lernern.

00:40:22: Das ist irgendwie, ich werde es nie kapieren, warum man das nicht macht.

00:40:26: Also nicht, dass ich nicht teilweise auch noch einfach genügend Fehler selbst mache.

00:40:28: Also bitte, ich meine, habe vor, so eine Uni, das mit den Worten meiner Patenkinder zu sagen, habe ich vor einem Vierteljahrhundert besucht.

00:40:37: Ich habe eine lange Liste an Schrott, die ich gebaut habe und Sachen, die ich angezündet habe.

00:40:42: Ich habe einfach nur verdammt viel Vorsprung im Kaputtmachen.

00:40:45: Aber frühzeitig, es geht mir nicht in meinen Hirn hinein, dass ich die Idee habe, dass ich jeden Fehler selber machen muss und das ist mir auf menschlicher Ebene schon nicht

00:40:53: nachvollziehbar.

00:40:54: Das ist mir auf unternehmerischen, organisatorischer Ebene schon nicht nachvollziehbar.

00:40:58: Wie man glaubt, dass wenn das bei 180 Leuten und Unternehmen schiefgegangen ist, man das eine Unternehmen jetzt ist, das anders sein soll, weil wir sind geiler, läuft nein.

00:41:08: Also das ist so dieses eine Learning, was ich immer sage, so könnten wir mal bitte aus den Fehlern anderer Unternehmen Leute lernen.

00:41:15: Und da schließt sich quasi dann ja auch mein berühmter Satz an, Erfolge reproduzieren, nicht Fehler vermeiden.

00:41:21: Auch das ist so ein Ding, was die Leute einfach regelmäßig schräg im Kopf haben, was ich habe keine Ahnung, was es ist.

00:41:29: Dass es das Gleiche ist.

00:41:30: Nein.

00:41:32: Aber wie gesagt, da glaube ich, kommt einfach sehr hart die Mathematik rein in mir durch.

00:41:37: Und die andere Sache ist, und das sehen wir halt jetzt schon sehr krass, die fachliche Expertise in Tech, Mathe, Naturwissenschaften, insbesondere bei Tech.

00:41:52: Was ich den Leuten mitgeben kann und will, und das ist besonders hier für eine weibliche Zielgruppe gedacht, bitte, Ladies, ran an die AI-Welt, und zwar bildungssolide.

00:42:05: Ich lehne mich da immer weiter aus dem Fenster und schöne Ausnahmen bestätigen die Regel, aber wir haben im deutschsprachigen Raum einfach die schlechtesten CTOs der Welt.

00:42:14: Die sind einfach nicht gut.

00:42:16: Wir haben, sorry, also wenn ich mir angucke, was Chief Innovation und sonstige Offices in den USA, aber selbst in UK und auch selbst in Südamerika schrubben würden, was wir hier

00:42:24: tun, das ist peinlich.

00:42:26: Und viel hat damit zu tun, dass ein Grundlagenverständnis einfach nicht vorhanden ist.

00:42:30: Und ich finde, ist immer so ein bisschen, das wird momentan eiern wir da teilweise rum.

00:42:34: wie so eine heiligen Kuhle und heiligen Gral ja niemanden aufs Egochen drauf zu streiten, weil wir doch so toll sind.

00:42:40: dann denke ich so, ja, habt ihr alle die Bildchen gesehen, wo wir techmäßig stehen?

00:42:45: Also das ist halt einfach so dieses, das wird, das hat so eine extreme Tech-Feindlichkeit bekommen.

00:42:49: Es ist irgendwie schick, nicht auf WhatsApp und Social Media zu sein und generell ist auch doof.

00:42:54: Und das sehe ich halt einfach jeden Tag immer stärker auch in Unternehmen, dass man sich so irgendwie so auf so so weiter in so eine Tech-Feindlichkeit flüchtet.

00:43:02: Und das ist so ein Fehler.

00:43:04: den ich immer wieder sehe, dem falle ich jetzt selber nicht so rein, aber da merkt man auch meine Sozialisierung in einem techfreundlichen Umfeld quasi groß geworden zu sein.

00:43:13: Und das ist halt schon irgendwie echt dämlich, dass du sagst, es liegt an der Sozialisierung, wie gut du jetzt durch die nächsten 20, 30 Jahre durchkommst.

00:43:21: Strange.

00:43:24: Und ja, das, ich, ist dann so mein dritter Punkt hinten raus, was ich so gelernt habe.

00:43:32: Was mich lange wahnsinnig gemacht hat, gebe ich ehrlich zu, ich war natürlich früh vor mit dem Thema dran.

00:43:38: Ich habe mich immer gefragt, hätte ich nicht irgendwas Sinnvolleres tun sollen oder sonst irgendwas.

00:43:42: fast Buber ist irgendwie auch nicht immer so der Stein der Weisen.

00:43:46: Aber das erholt sich irgendwann dranbleiben, konsistent dranbleiben, sonst irgendwas.

00:43:51: Ich könnte heute nicht das tun, würde ich nicht schon so lange machen.

00:43:55: Und das ist halt so dieses, dieses dranbleiben, also frühzeitig dranbleiben und wirklich auch

00:44:00: eine bestimmte Expertise in Feldern aufbauen, das macht schon einfach extrem viel Sinn.

00:44:04: ich finde da sind wir so ein bisschen, das ist so auch, mir das immer wieder, also das ist so eins dieser Learnings, die auch sehr persönlich ist, weil mir das immer wieder

00:44:12: vorgeworfen worden ist, wie kannst du dich denn da weiter einwühlen, wieso das noch oben drauf und man denkt so, aber ist das doch cool, also ich weiß nicht, also macht doch Spaß.

00:44:23: Und dann switcht das Thema auf einmal so und dann wirst du dafür beklatscht und dann

00:44:28: Redest du mit anderen Kollegen und Freunden darüber und alle erzählen dir die gleiche Story, dass das, was dir vorgeworfen wird, was du falsch machst, am Anfang deiner

00:44:35: Lebenszeit oder in ersten zehn Jahren deiner Karriere auf einmal das bevor du am meisten bezahlt wirst.

00:44:39: Also bei mir ist es halt wirklich immer, dass ich gedrillt worden bin.

00:44:42: Jetzt komm wieder endlich mit der Lösung und nicht mit dem Problem die Ecke.

00:44:45: Und wer ich dafür bezahlt, dass ich konstant...

00:44:48: du musst erst mal noch mehr Fragen stellen.

00:44:50: Hat ein bisschen ein Faktor, aber das ist schon so dieses...

00:44:53: Das ist sehr...

00:44:54: wirklich zu verallgemeinern, dass das, teilweise als schlechte Eigenschaften oder schlechte Dinge am Ende des Tages ist, das, was einen Erfolg ausmacht, ist bisschen

00:45:01: strange, aber auch persönlich erhebend, gilt das, glaube ich, für mehr Leute, als man immer so denkt.

00:45:06: Spannend.

00:45:07: Schöne Learnings und war wieder wunderbar, zuzuhören, so wie in den Vorgesprächen.

00:45:12: Ich habe tatsächlich auch wieder einiges mitgenommen, das Thema, dass halt, sage ich mal, nie die Daten Grund sind für Scheitern, sondern der menschliche Faktor und dass da

00:45:24: Das Thema Mental Model Mismatch, der der Schlagwort ist und das ist, dass diese mentalen Modelle sich über die Zeit dann auch verfestigen und dass es da eher mehr Richtung weg von

00:45:38: lösungsorientiert hin zu mehr problemorientiert zu sein, mehr Fragen zu stellen und dass das auch nur funktioniert im Unternehmen, wenn man genügend im Change auch auf Schulung

00:45:50: und Bildung zu dem Thema setzt.

00:45:54: Ich habe versucht, jetzt mal so in einem Bogen zusammenzufassen.

00:45:58: Sehr schön gemacht, Johannes.

00:46:01: Sehr gut, freut mich.

00:46:04: Top.

00:46:06: Barbara, danke für deine Zeit.

00:46:08: Danke für deine Einblicke, für das Gespräch.

00:46:10: Mir hat es super Spaß gemacht.

00:46:12: Ich finde dieses Thema extrem spannend und vor allem, wie gesagt, ich bin ja auch über dieses Empathic-Business, Empathie und AI, dich ja auch gestoßen über einen LinkedIn-Post.

00:46:25: Ich sag dir, das finde ich spannend, da müssen wir quatschen.

00:46:29: Herzlichen Dank.

00:46:30: Sehr gerne.

00:46:31: Und ich wünsche dir jetzt noch einen guten Start ins neue Jahr.

00:46:37: Danke, danke.

00:46:37: Und ich hoffe, der erste Podcast im Jahr 2025 für dich war gut.

00:46:43: Für mich war es.

00:46:44: Und ich freue mich, wenn wir uns vielleicht irgendwo in München, falls du da sein solltest, bei einem Kunden oder woanders, dann mal sehen.

00:46:51: und auch live treffen.

00:46:52: kriegen wir demnächst irgendwo auf irgendeinem Theater mal hin.

00:46:55: Sehr gut.

00:46:56: Also Barbara, bis bald und herzlichen Dank.

00:46:59: Tschüss.

00:47:00: Tschüss.

00:47:02: Das war das Interview mit Barbara Lampl, Infos zu Barbara Empathic Business sowie dem AI Kurs, den ich jetzt im Podcast nicht erwähnt habe, aber den Barbara anbietet mit ihrem

00:47:13: Team, findet ihr in den Show Notes.

00:47:16: Ich freue mich, wenn ihr in zwei Wochen wieder mit dabei seid und wünsche euch bis dahin

00:47:20: Alles Gute!

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.