Wiebke Apitzsch - Hat es einen Preis oder eine Würde? #112
Shownotes
Willkommen zu Folge 112, mitten in der Adventszeit. In dieser Folge nahm Wiebke Apitzsch, Chief Transformation Officer von AI.IMPACT, bei mir im Studio Platz und wir haben natürlich über KI gesprochen. Dabei ging es nicht nur um ihren Ansatz der Umsetzung, sondern auch darum, wo sie die größte Diskrepanz zwischen technologischem Potenzial und realer Umsetzung sieht, welche praktischen Tipps sie für Unternehmen hat und welche Themen aus ihrer Sicht leider oft hinten runterfallen, jedoch essenziell sind, wenn man sich Gedanken über KI-Implementierung macht.
Für mich hat Wiebke im Gespräch immer wieder sehr spannende Aspekte eingeworfen, die mich zum Nachdenken gebracht haben. Ich bin gespannt, wie es euch geht, lasst es mich bzw. Wiebke gerne wissen.
Ich wünsch euch viel Spaß beim Hören der neuen Folge!
Mein Gast:
Feedback & Wunschgäste:
Über mich:
Transkript anzeigen
00:00:01: Was anderes, man auch, glaube ich, ignoriert gerade in dieser Debatte, wenn Leute so viel Chat-GPT machen und denken, damit die Welt zu retten, ist, das kostet richtig Geld.
00:00:10: Das ist schon noch eine Weile hin, dass wir einfach sagen können, ich haue alles, was ich habe, in die KI und ich habe genug Energie, genug Rechenpower, aber vor allem auch genug
00:00:20: Geld.
00:00:20: Was auch immer da dran hängt, auch zu bezahlen, sodass das wirtschaftlich sinnvoll ist.
00:00:29: Herzlich willkommen zu Business Unplugged, dem Treffpunkt für Tradition und Zukunft.
00:00:34: Mein Name ist Johannes Pohl und ich spreche mit Unternehmerinnen, Gründerinnen und stillen Heldinnen des Business Alltags, die unsere digitale Zukunft formen.
00:00:43: Business Unplugged ist die Bühne für Visionäre der Digitalisierung und soll Brücken zwischen Start-ups und etablierten Unternehmen bauen.
00:00:51: Hier erhältst du wertvolle Impulse und Inspiration.
00:00:55: Willkommen zu Folge 112.
00:00:59: In dieser Folge nahm Wiebke Apitzsch, Chief Transformation Officer von AI.IMPACT, bei mir im Studio Platz.
00:01:05: Und wir haben, wie kann es anders sein, der Name lässt schon vermuten, über KI gesprochen.
00:01:10: Dabei ging es nicht nur ihren Ansatz der Umsetzung, sondern auch darum, wo sie die größte Diskrepanz zwischen technologischem Potential und realer Umsetzung sieht.
00:01:21: Welche praktischen Tipps sie für Unternehmen hat und welche Themen aus ihrer Sicht leider oft hinten runterfallen.
00:01:27: jedoch essentiell sind, wenn man sich über KI-Implementierung Gedanken macht.
00:01:32: Für mich hat Wiebke im Gespräch immer wieder sehr spannende Aspekte eingeworfen, die mich zum Nachdenken gebracht haben.
00:01:38: Ich bin gespannt, wie es euch geht.
00:01:40: Lasst es mich bzw.
00:01:41: Wiebke gerne wissen.
00:01:43: Mail, LinkedIn, was auch immer, ihr findet es in den Shownotes.
00:01:47: Und übrigens, wer es noch nicht getan hat, den Podcast abonnieren und bewerten.
00:01:52: Das hilft der Auffindbarkeit.
00:01:54: Jetzt aber genug der Eigenwerbung.
00:01:56: Ich wünsche euch viel Spaß beim Hören der neuen Folge.
00:01:59: Lieber Wiebke, herzlich willkommen im Podcast und hier in meinem Podcast-Eckerl im Büro.
00:02:05: Ich freue mich wirklich sehr auf unser Gespräch heute, denn du bringst so zwei Welten zusammen, die auf den ersten Blick auch etwas gegensätzlich wirken.
00:02:15: Einerseits Strategien für KI-Transformation und andererseits führst du auch den Vierländer Hippiehof mit Naturgarten und Schäfer und …
00:02:25: Ich denke, genau in dieser Mischung aus einer gewissen Bodenhaftung und auch Zukunftsblick, da steckt ganz viel drinnen, was wir heutzutage auch brauchen.
00:02:36: Herzlich willkommen.
00:02:37: Ja, moin, würde ich sagen.
00:02:40: Ist richtig, du bist aus dem hohen Norden hier.
00:02:44: Liebe Wiebke, deine berufliche Laufbahn hat
00:02:48: Auch wenn ich jetzt schon gesagt habe, du bist KI-Strategien eigentlich nicht im Rechenzentrum begonnen oder in dem Bereich, sondern in der Hotellerie im
00:02:57: Tourismusmanagement.
00:02:58: hast in München studiert, Tourismusmanagement mit Schwerpunkt Hotellerie und Tagungswesen und hast da auch, sage ich mal, klassische Karriere aufgebaut in dem Zweig.
00:03:09: Die hat aber dann eine Wendung genommen, diese Karriere in Richtung Daten und Digitalisierung, nämlich spätestens als du für
00:03:17: BCG begonnen hast zu arbeiten, denn dort bist du tiefer in diese Themen Analytics, KI und im weiteren Sinn und Knowledge Work und Business Development eingetaucht und hast da auch
00:03:28: die Faszination zwischen den Schnittstellen oder der Schnittstelle zwischen Zahlen, Technologie und Geschäftsmodellen für dich entdeckt.
00:03:38: Und nach etlichen Jahren bei BCG hast du dann noch einige Stationen in Beratungshäusern mitgenommen, wo wir uns unter anderem in einem
00:03:45: auch bei einem Projekt kennengelernt haben vor ein paar Jahren, bevor du dann zum Thema KI All-In gegangen bist und mit deinen Kollegen und Kolleginnen bei AI.IMPACT als Chief
00:03:57: Transformation Officer Unternehmen durch die ganz praktische KI Einführung begleitest.
00:04:05: Und was sehr schön ist, dabei argumentierst du natürlich sehr klar für
00:04:09: KI als einen Hebel, aber du romantisierst das Ganze auch nicht, was ich sehr spannend und sehr gut finde.
00:04:16: Und neben all den Dingen wie Arbeit, Hippiehof und Politik, die ich übrigens noch nicht erwähnt habe, du bist auch für die Grünen aktiv, hast du jetzt auch wieder begonnen zu
00:04:26: studieren und machst gerade deinen MBE in Philosophie, Politik und Wirtschaft an der LMU in München.
00:04:35: Deshalb du auch heute hattest du schon eine Uni.
00:04:39: Oha, ganz genau.
00:04:40: Brave Studentin.
00:04:42: Und deswegen treffen wir uns auch hier im Büro, das was mich sehr freut.
00:04:47: Und darauf kommen aber noch zu sprechen.
00:04:50: Zuerst würde ich gerne zu den AB-Fragen kommen, durch die alle müssen.
00:04:56: meine erste Frage ist aber, weißt du Bescheid, worum es geht bei den AB-Fragen?
00:04:59: Nee, ich habe keine Ahnung.
00:05:00: Okay, also ich stelle dir…
00:05:02: Ich stelle dir in dem Fall jetzt fünf Fragen zum Thema Digitalisierung und du entscheidest dich.
00:05:06: Es gibt zwei Wahlmöglichkeiten für A oder B.
00:05:11: Bereit?
00:05:11: Ja.
00:05:12: super.
00:05:13: Also Bildung online oder offline?
00:05:15: Offline.
00:05:16: Automatisierte oder menschliche Entscheidungsfindung?
00:05:22: Kann ich Mitte sagen?
00:05:24: Sonst am Ende menschlich, ja.
00:05:26: Menschlich, okay.
00:05:28: Stärkere Regulierung oder mehr Freiheiten für Unternehmen?
00:05:33: Ist auch so eine Teils-Teils-Frage.
00:05:38: Ich glaube, bisschen mehr Freiheit wäre okay.
00:05:42: Vierte Frage.
00:05:43: Vollkommener Schutz persönlicher Daten oder weniger Datenschutz zur Wahrung der Sicherheit und des Wohls der Allgemeinheit?
00:05:51: Datenschutz ist sehr wichtig.
00:05:55: Und last but not least, Webmeetings oder persönliche Treffen?
00:05:59: Also wenn es geht, persönlich.
00:06:01: Okay.
00:06:02: Dann lassen wir uns mal reingehen.
00:06:03: Warum hast du dich für Bildung offline entschieden?
00:06:05: Das kam ja wie aus der Pistole geschossen.
00:06:09: Es ist wirklich was anderes, weil die, also natürlich gibt es, also so rum, es gibt tolle Anbieter für Online-Bildung.
00:06:19: Die funktioniert, wie ich finde, wirklich hauptsächlich intellektuell.
00:06:23: Also wenn ich wissen soll, wie berechnet man A mal B oder wenn ich einen Überblick haben möchte, werde ich jetzt im nächsten Mal irgendwie mehr Design Workshop, Design Thinking
00:06:35: Methoden, das kann man online machen.
00:06:38: Aber wenn ich mir komplexe Dinge merken möchte, dann ist es gut, so viele Eindrücke wie möglich dazu zu haben, weil ich mir das dann besser merken kann.
00:06:47: Also was jeder ja kennt ist, wenn ich mir etwas per Hand aufschreibe, dann geht das ja durchs Auge in den Kopf, in den Arm, in die Hand, auf das Papier, ich höre Kratzen und was
00:06:59: auch immer und ich merke mir das gut.
00:07:02: Und wenn dabei noch ein Kommilitone jetzt irgendwie einen Witz macht, dann habe ich das im Kopf Ende.
00:07:08: Außerdem bin ich fokussiert.
00:07:09: Und wenn ich das online mache, habe ich viel weniger Gehirnaktivität, ja, das da funktioniert.
00:07:16: Ich kann es mir viel schlechter merken, ich bin viel schneller abgelenkt.
00:07:19: Und tatsächlich ist es ja meistens so, dass ich mir vornehme, online was zu lernen.
00:07:23: Dann kommt der Hund, das Kind, was auch immer.
00:07:26: Und drei Wochen später ist man beim Online-Kurs immer noch in Stufe 1.
00:07:30: Deswegen, ich bin immer sehr dafür, dass man harte Grenzen setzt.
00:07:33: Und deswegen mache ich auch diesen MBA jetzt in München und nicht in Hamburg, weil
00:07:38: Ich setze mich in den Zug, ich fahre nach München, jetzt bin ich Student.
00:07:42: Und dann fahre ich zurück und dann arbeite ich wieder und dann kommt das Kind und der Hund und dann mache ich das.
00:07:48: Und dann lernt man, glaube ich, wirklich.
00:07:50: Okay.
00:07:51: Studenten leben im Süden, Berufsleben im Norden.
00:07:54: Ja, hier bin ich halt wirklich.
00:07:56: Ich kann hier abends mit dir rumsetzen und noch ein bisschen gucken und so.
00:08:01: Das würde ich in Hamburg nicht so getrennt bekommen.
00:08:03: Da kommt man abends nach Hause, dann ist irgendwie der Alltag da, dann muss ein Baum gefällt werden oder die Hühner sind ausgebrochen.
00:08:09: Und dann, was machst du?
00:08:11: Hühner fangen.
00:08:12: Und dann hast du wieder nichts gelernt.
00:08:13: Nee, nee, nee.
00:08:14: Wenn es irgendwie geht, wirklich persönlich Grenzen setzen und dann durchziehen.
00:08:19: Naja.
00:08:20: Bei der zweiten Frage hast du gesagt, am Ende doch menschliche Entscheidungsfindung.
00:08:25: Ja, weil ich glaube, der Punkt, dass man sagt,
00:08:29: KI darf keine Entscheidung treffen.
00:08:31: Das ist zwar schön gedacht, aber das wird so nicht passieren.
00:08:36: Das ist nicht praktikabel, weil ich einfach häufig Entscheidungen habe, die ich auch heute schon strukturiert auslagern kann.
00:08:46: Also was ist eine Entscheidung?
00:08:47: Das wäre jetzt auch eine philosophische Frage, aber
00:08:50: Wenn die Entscheidung ist, jemand möchte irgendwie seinen Bleistift zurückschicken und der kostet 50 Cent, dann kann ich mir überlegen, ob ein Mensch entscheiden soll, kann der
00:08:57: Bleistift zurückgehen und der kostet mich dann, während er das macht, 10 Euro und der Bleistift kostet 50 Cent und ich kann vielleicht noch rauslesen, dass die Beschwerde
00:09:06: berechtigt ist.
00:09:07: Ja gut, dann werde ich halt sagen, liebe KI, du hast hier einen Entscheidungsfreiraum von bis zu 10 Euro oder bis zu 100 Euro.
00:09:14: Mach mal.
00:09:14: Und dann lege ich da noch ein Netz dahinter, das irgendwie prüft, ob meine
00:09:18: Kreaturen irgendwie richtig hochgehen oder ob irgendwie die Kosten hochgehen, das ist okay.
00:09:26: Und auch Gen.ai hat ja deutlich mehr Zugriff auf andere Entscheidungen, auf Wissen in Summe und kann mir als Mensch also sehr helfen, eine gute Entscheidung zu finden.
00:09:41: Also ich werde jetzt nicht mehr hergehen und tausend Bücher lesen, ich frage halt per Plexity, was sind die zehn besten Quellen für mein Problem?
00:09:48: suchen wir da mal einen Abstract raus und die besten drei lese ich und fertig.
00:09:52: Also ist sie auch an Entscheidungen beteiligt.
00:09:55: Mit einem Risiko natürlich, weil es natürlich sein könnte, dass sie die allerbeste Quelle aus Gründen, weil ihr Erschaffer das nicht will, weglässt.
00:10:04: Deswegen brauche ich Grundbildung, um das möglicherweise zu sehen.
00:10:08: Ist sie dabei.
00:10:11: Aber es wird immer Entscheidungen geben, die
00:10:14: ein Mensch treffen sollte.
00:10:15: Und das ist entweder, wenn es eine emotionale oder eine wichtige Entscheidung ist oder wenn sie sehr teuer sein kann oder jemand die Verantwortung übernehmen muss, den sind
00:10:24: Unterschriften und so weiter.
00:10:26: Deswegen im Zweifel der Mensch, aber unter guten Voraussetzungen, mit klaren Regeln und so weiter kann das durchaus ausgelagert werden, ohne dass man ein ethisches Problem hat mit
00:10:41: dieser Entscheidung.
00:10:44: Und jetzt kommen wir auch zum dritten Punkt, mehr Freiheiten.
00:10:48: Du warst auch so, hm, sollte eigentlich so eine Mischung sein?
00:10:53: Also ich gehöre zu denen, die die meisten Dinge, die im AI Act festgelegt sind, eigentlich sehr gut findet.
00:11:02: So, natürlich kann man sagen, in den USA können man mehr ausprobieren und mit weniger Problemen und man kommt schneller voran.
00:11:11: Aber wenn man sich
00:11:14: was passiert in den Dingen, wo wir an den AI Act ran docken sozusagen.
00:11:21: Da muss ich sagen, dass ich meistens nach diesem kleinen Gedanken-Action-Exkurs denke, hm, nee, finde ich gut.
00:11:29: Finde ich gut, dass das nicht erlaubt ist und sollte man auch nicht machen.
00:11:33: Ist halt blöd, dass die anderen das tun, aber nur weil andere etwas tun, heißt es ja nicht, dass wir das hier tun sollten.
00:11:39: Und DSGVO haben wir auch gut.
00:11:42: rausgebracht aus Europa und es ist ja auch in vielen Ländern wirklich als positiver Standard festgestellt worden.
00:11:50: Wenn man guckt, was Menschen in anderen Ländern an AI-Scam schon passiert und wie wenig bei uns passiert, muss man auch sagen, haben wir eigentlich ganz gut gemacht.
00:12:00: Was ich verstehe ist, dass es manchmal entweder unklare Regulierungen gibt oder konkrete Punkte, wo Unternehmer dann sagen, also ich würde das gerne machen und das
00:12:11: finde ich auch ethisch vertretbar.
00:12:14: Und da werden wir sowieso viel lernen müssen, denn im Moment ist der AI-Act nicht viel als runtergeschriebene Ethik, also wie gefindet sollte man nicht tun.
00:12:23: Aber du hast dann vielleicht eine Idee und sagst aber so wäre es okay.
00:12:27: Und da werden wir viel lernen müssen.
00:12:28: Und da wäre es zum Beispiel gut, wenn man stark daran arbeitet und einfach möglicherweise eine Tür öffnet, sagt hier, unternehmer, wenn du eine Idee hast, verstöß dagegen, schick
00:12:37: das mal ein, wir prüfen das und sagen ja, approved, so kannst du es machen.
00:12:42: Okay.
00:12:43: Und dann warst du bei Frage 4 ganz schnell auch zu Datenschutz.
00:12:47: Hab ich jetzt auch schon ein bisschen rausgehört, dass du ja den AI Act auch ganz gut findest.
00:12:53: Wieso jetzt vollkommener Datenschutz?
00:12:55: Also statt weniger?
00:12:57: Ist das Hand in Hand einfach?
00:13:00: Ja, weil ich also ich muss sagen, ich bin andersrum wirklich erschreckt, ja.
00:13:07: Wenn ich
00:13:08: Vor ein paar Tagen habe ich mal ausprobiert und habe der Chat-GPT in dem Fall gefragt, sag mal, was glaubst du denn, was ich für ein Persönlichkeitstyp bin?
00:13:16: Und dann kam die richtige Antwort und da habe ich gedacht, oha.
00:13:20: Ich frage jetzt nicht nach, was dann rauskommt.
00:13:22: Ich habe es schon wieder vergessen, irgendwie Mediator oder sowas, das kann man mich richtig fragen, ist okay.
00:13:28: Aber das Erschreckende daran ist ja, dass ich die Tools tatsächlich nur eigentlich für Vorbereitung von LinkedIn-Posts, für
00:13:38: Recherche für die Arbeit, ein paar Texte und so benutze.
00:13:42: Ich bespreche mit dem nicht mein Privatleben.
00:13:45: Und offensichtlich reicht das schon, die Art und Weise, wie ich zum Beispiel über KI nachdenke, hat dem schon gereicht.
00:13:50: Ich hab dann auch nachgefragt, wie kommst du da drauf und wie hast du das so rausgefunden?
00:13:54: Und dann sagt er, ja, du denkst ja in meinen großen Systemen und du machst dir ja immer viele Gedanken und so weiter.
00:13:59: Und dann kann man schon sehen, das müsste das sein und das und deswegen hab ich gesagt, das da.
00:14:04: So.
00:14:05: Und da kommt man dann schon ins Grübeln und denkt sich,
00:14:08: Wow, also ich gebe dir echt nicht so viel und du weißt das.
00:14:13: Und was denn, diese Informationen am besten noch mit Name, Geburtsdatum und so weiter, ist ja nicht, also Namen weiß der auch schon von mir, weil ich immer sage, guck hier mal, da
00:14:25: ist mein Profil oder so.
00:14:28: So, und wenn das jetzt einfach fröhlich rumverteilt wird, das weiß ich schon viel zu viel.
00:14:33: ist das gefährlich.
00:14:35: Und es ist auch gefährlich, wenn ich zum Beispiel im Betrieb oder für Marketingzwerge oder so, wenn ich da sehr viel rausgebe und das auch noch legitimiere, dann werden Menschen,
00:14:45: die das noch weniger verstehen, wirklich in eine große Manipulationsfalle gelockt.
00:14:50: Also man weiß ja jetzt schon, dass wenn man, ich mal, geschickte Verkäufer oder eine KI freilaufen lässt und einfach sagt, was du immer du willst, um dem Menschen jetzt ein paar
00:15:01: neue Schuhe zu verkaufen,
00:15:03: dann ist Gen.i schon deutlich besser in der Manipulation als Menschen.
00:15:08: Und deswegen glaube ich, da müssen wir ganz genau drüber nachdenken, was Unternehmen speichern dürfen und was nicht, um einfach Missbrauch einzudämmen.
00:15:19: Und last but not least, persönliche Treffen statt Webmeetings.
00:15:24: Weil das auch Offline-Lernen so ähnlich ist wie Offline-Lernen statt digital.
00:15:32: Also ich hab gerade gestern, aber es wollte leider niemand mit diskutieren.
00:15:35: Ich hab mal so eine Hypothese reingeschmissen und ich hab gesagt, könnte es sein, dass in Zukunft die einzigen Menschen, die noch Menschen brauchen, Sadisten sind?
00:15:49: Maschine fühlt keinen Schmerz, Sadist braucht leidenden Menschen.
00:15:53: Sadist braucht also immer einen Menschen.
00:15:57: Wer noch?
00:15:58: Warum noch?
00:15:58: uh
00:16:00: Das ist ja ein bisschen dystopisch, ja?
00:16:02: Aber die These stimmt und ich glaube, die kann man auch nachweisen, dass ein Sadist immer einen Menschen brauchen wird.
00:16:11: Aber wenn du mal überlegst, andersrum, in die gute Richtung, dann empfinden Menschen, die in Isolationshaft sind, also die wirklich in Isolationshaft sind, das ist schlimmer als
00:16:23: Folter, weil die foltern sich schon selbst.
00:16:25: Also wer als Mensch komplett isoliert ist, der
00:16:28: habe ich zumindest gelesen in Studien jetzt, ich habe mich damit ein bisschen beschäftigt.
00:16:32: Den muss man nicht wehtun, die hauen den Kopf selber gegen die Wand, sich noch irgendwie bisschen selber zu spüren.
00:16:37: Und das ist ja ein Extrem.
00:16:40: Wenn wir immer weniger in direkten Austausch gehen, isolieren sich die Menschen immer mehr selbst.
00:16:46: Es gibt auch, wenn man die Kurven nebeneinander legt, und das ist nicht statistisch nachgerechnet von mir, keine Ahnung, aber einfach nur mal reingucken, Anteil der
00:16:54: Einzelwohnungen in Deutschland.
00:16:56: und Anstieg von psychischer Belastung.
00:16:59: Und die laufen im Prinzip parallel.
00:17:01: Fände ich mal spannend, wenn jemand, besser Statistik hat als ich, mal anschaut.
00:17:05: Also es sieht für mich, irgendwie ist da Correlation, ja, ob Causation, also weiß ich nicht, aber ich glaube schon.
00:17:12: So.
00:17:13: Und deswegen, und weil es auch einfach Freude macht, weil man auch merkt, es geht einem danach besser, Konflikte, die vielleicht vorher mal da waren, sind weg und so weiter, das
00:17:23: geht nur im persönlichen
00:17:25: Und ich kann dir sagen, ich wohne in der WG.
00:17:28: Und wenn wir zu lange keine WG-Sitzung haben, und das reicht auch, irgendwann einfach zusammensetzen.
00:17:33: Man setzt sich an Tisch und entweder jemand stellt einen Wein dazu oder einen nicht, egal.
00:17:39: Danach einfach nur dadurch, dass man zusammengesessen hat, ist die Stimmung besser und sind viele Konflikte, wo ich vorher reingegangen würde, dem erzähl ich das noch mal mit
00:17:48: der Spülmaschine.
00:17:50: Das geht gar nicht.
00:17:51: Und dann sitzt man da nebeneinander und dann denkt man sich, ist ja auch ganz in Ordnung, na, scheiß auf die Spülmaschine, ich hab jetzt gar keinen Bock auf den Stress.
00:17:57: Und so, ach, was soll's, Prost.
00:17:59: Und dann ist das einfach durch die Anwesenheit des anderen Menschen ja häufig weg.
00:18:05: Deswegen glaube ich, es ist so ein Trade-off, ja, viel CO2-Ausstoß und Menschen treffen.
00:18:11: Man muss ja nicht wegen jedem Kleinkram irgendwie von A nach B reisen.
00:18:16: Aber ab und zu mal persönlich treffen ist nicht zu ersetzen, glaube ich nicht.
00:18:21: Sehr gut.
00:18:23: Jetzt hast du gerade auch dein WG-Treffen angesprochen und ich habe es ja schon erwähnt.
00:18:28: Hippiehof, für Länderhof.
00:18:29: stelle den Link auch in die Show Notes.
00:18:31: Kannst du machen.
00:18:33: Für alle, interessiert sind, wie es dort ausschaut und was dort passiert.
00:18:36: uh
00:18:40: Ja, es ist viel Natur, viel Garten, WG, also ein ziemlicher Kontrast eigentlich zu dem, was du ja beruflich machst auch, ja?
00:18:47: Auf Konferenzbühnen stehen, bei Kundenprojekten sein und so weiter und so fort.
00:18:53: Und jetzt hast du die WG-Sitzung auch erwähnt beim Thema Persönliches Treffen.
00:18:57: Welche Rolle spielt denn für dich der Hof persönlich oder auch beruflich?
00:19:03: Also ich finde, ist, also ich meine einerseits wohne ich da und ich mag die Leute auch, die da wohnen.
00:19:09: Es ist eine WG mehr oder weniger.
00:19:11: Mit jedem hast du einen Moment, wo du denkst, Alter, was soll das jetzt?
00:19:15: Und dann redet man miteinander und dann ist es wieder gut eigentlich.
00:19:20: Es ist einfach schön, Menschen zu haben, die man häufiger trifft und die auch ganz unterschiedliche Leben haben.
00:19:32: Also ich kenne es
00:19:34: aus Persönlichkeitsrechten, ja jetzt nicht zu viel über die Geschichten meiner Mitbewohner sprechen, aber die machen halt ganz unterschiedliche Dinge.
00:19:42: So und das erdet auch.
00:19:43: Und wenn ich zurückkomme und ich war vielleicht irgendwie in drei Städten und hab dies und jenes gemacht, so, und dann kommt hier, du kannst aber auch mal Hühnerstahl jetzt mal
00:19:52: machen, So, ja, kann ich.
00:19:55: Kein Problem.
00:19:57: Oder man setzt sich dann zusammen und grillt und
00:20:00: Ja, also es ist ein guter Schutz davor, diesen Beratertunnel zu kommen.
00:20:07: Und ich habe sehr gerne bei BCG gearbeitet.
00:20:10: Das hat mir Riesenspaß gemacht und mir hat auch das durch die Gegend jetten gefallen.
00:20:13: Also ich habe Projekte gemacht in Südafrika, Botswana, sonst wo hin.
00:20:18: Was einem da schon auffällt ist, man ist wirklich in der Bubble.
00:20:21: Also man ist mit einem kleinen Team zusammen.
00:20:24: Alle haben eine krasse Denkgeschwindigkeit.
00:20:27: Die Gespräche gehen irgendwann noch.
00:20:28: Hast du?
00:20:29: Jo.
00:20:29: Und?
00:20:30: Sicher.
00:20:31: Ja, check.
00:20:32: Fünf?
00:20:32: Ja, in fünf.
00:20:33: So.
00:20:34: Also man redet kaum mehr und man ist die ganze Zeit da unterwegs und möglicherweise arbeitet man die ganze Zeit für diese runde Ablage.
00:20:41: Kann passieren, ja.
00:20:45: Und das kann mir jetzt echt nicht mehr passieren.
00:20:46: Nur wenn ich zurückkomme, dann geht's ab ins echte Leben.
00:20:49: Wir haben eine Diele, da muss man mit dem Kamin heizen.
00:20:51: Die hat keine normale Heizung, dann wird's dann nochmal kalt.
00:20:55: Und ja, ich mag aber auch die Kontraste.
00:20:57: Das bringt einem viel, weil
00:21:01: Auch bei Kunden ist es ja nicht nur die Chefetage, sondern jeder hat ja auch irgendwas, ob es eine Produktion ist oder ein Laden oder irgendwas.
00:21:09: Und ja, ich sehe das ja jeden Tag, wie man im Zweifel so ein Gerät repariert, ein Auto oder welche Werkzeuge man nimmt, wie schwer das ist und wie lange das dauert.
00:21:22: da bin ich auch sprachfähig.
00:21:24: Sehr gut.
00:21:25: Ich finde es schön, dass du das gerade erwähnst, auch das Thema Erdung.
00:21:28: ist für mich jetzt
00:21:30: auch immer im Urlaub, dass wir halt mit dem Bus unterwegs sind und aufs Minimum reduziert sind, weil zu viert in einem VW-Bus ist es.
00:21:42: Musst du dich reduzieren.
00:21:44: Und das ist aber immer ganz schön und abwechslungsreich im Vergleich zu dem, sage ich mal, Beraterleben im Hotel, hier da essen gehen, und jenes.
00:21:51: das bringt einen auch immer wieder ganz gut zurück, finde ich.
00:21:57: Ja.
00:21:58: In der Intro habe ich es auch erwähnt.
00:22:00: Du hast eigentlich im Tourismus begonnen, bist aber dann irgendwann, du hast die Kurve Richtung Daten und KI gemacht.
00:22:07: Was war denn der ausschlaggebende Grund dafür oder wie kam es überhaupt dazu?
00:22:14: Also das kann man eigentlich mit einem Satz erklären und der ist von den faulen Leuten Lernstes Arbeiten.
00:22:23: So ist das bei mir.
00:22:24: ich habe eine große Abneigung dagegen, Dinge zweimal zu tun.
00:22:27: Wenn ich sie dreimal machen muss, ist es schon richtig schlimm.
00:22:29: Reisekosten ist die Hölle.
00:22:33: Immer wieder das Gleiche ohne intellektuellen Input, ohne dass man das System verbessern darf.
00:22:37: Man darf es nur genauso lassen, wie es ist.
00:22:39: Das ist mir unerträglich.
00:22:43: ich habe aus dieser Faulheit Dinge mehrmals zu tun.
00:22:48: Habe ich ein bisschen VBA schreiben gelernt und
00:22:53: In der ersten Firma, wo ich war, ging es dann um CAM und dann habe ich irgendwann gedacht, war ich zwei Jahre da, dachte ich mir, könnte ja mal weitergehen und dann war da diese
00:23:03: Stellenausschreibung von der BCG, wo sie gesagt haben, du kannst im Prinzip, stand da drin, du kannst den ganzen Tag Rätsel lösen und wirst dafür bezahlt.
00:23:11: Und das war eine gute Idee.
00:23:12: Okay, naja, klingt gut, klingt gut.
00:23:17: Und jetzt
00:23:18: ist 23 AI Impact gegründet worden und ist auch Teil der AI Group.
00:23:25: Was macht ihr bei AI Impact beziehungsweise was ist auch eure Rolle in dieser ganzen Gruppe?
00:23:30: Ihr habt ja verschiedene Themen in der Gruppe und ihr seid ja der Beratungszweig.
00:23:36: Ja, das kann man so sagen, genau.
00:23:38: Also ich bin nicht zur Gründung dabei gewesen und ein bisschen später.
00:23:41: bin dann im Sommer 24, wenn ich es richtig weiß, dazugekommen.
00:23:46: Ja, muss 24 gewesen sein.
00:23:48: Oder?
00:23:48: Nee, jetzt haben wir Profil 24, glaube ich.
00:23:50: Laut LinkedIn-Profil, du solltest JetGPD fragen, das weiß mir.
00:23:53: Ja, ich habe mein Handy nicht hier.
00:23:57: Wie soll ich denn antworten ohne meine KI?
00:24:01: Ja, kommt aber hin.
00:24:02: Genau.
00:24:06: was wir machen in der AI Impact ist, dass wir sagen, idealerweise von der Strategiefindung, was wollt ihr mit KI tun oder gerne auch
00:24:18: ein bisschen Weltbild, ethisch, wie soll KI, wie wollt ihr mit KI das Unternehmen gestalten?
00:24:24: Ja, dass wir dann schauen, welcher Use-Case macht wirklich Sinn.
00:24:29: Und das bauen wir auch gerne aus bis zum POC oder auch größer dann mit Partnern.
00:24:34: Also wir sind ja eine kleine Gruppe, haben auch ein paar Leute aus der AI Group, die wir auch einsetzen können oder darüber Partner und ansonsten Freelancer, wenn es größer werden
00:24:44: soll.
00:24:44: Das ist so der eine Fall.
00:24:47: Und der andere Fall wäre eben, ein Kunde schon genau weiß, welchen Use-Case er hat und den gerne umsetzen möchte, können wir das auch tun.
00:24:54: Das mache natürlich nicht ich, weil mit ein bisschen VBA und Excess-Kennnissen ist man da eher schnell abgehängt.
00:25:02: Aber meine Kollegen sind da technisch dann deutlich versierter und die machen dann solche Umsetzungen.
00:25:08: Und du bist aber dann in der strategischen Seite drin, wenn du mit der Strategie beginnst und dann die Use-Cases ableitet.
00:25:14: Genau.
00:25:14: Also Strategie, Change.
00:25:16: und PMO, solche Dinge.
00:25:19: Und das ist auch häufig sehr sinnvoll, da bin ich natürlich nicht Vollzeit mit da drin, sondern eher, dass ich so vor den Terminen mal einchecke oder dass ich so bisschen
00:25:29: dranbleibe, weil die Kommunikation zwischen Entwicklern und so einem C-Level oder auch so jemandem aus dem Fachbereich
00:25:40: Das kann klappen und das kann auch schwierig werden.
00:25:42: Und ganz ehrlich, wenn, also ich darf das sagen, weil er weiß das auch, wenn mein Kollege Rutger wirklich anfängt, über seine Arbeit zu sprechen, bin ich raus.
00:25:50: Das ist dann ein Gespräch zwischen Rutger, Chet Chippity und mir.
00:25:55: Oder wenn ich Glück habe, noch ein Kollege dazwischen, der mir dann sagt, was das bedeutet.
00:26:02: Das ist ein studierter Teilchenphysiker, der auch als Professor mal gearbeitet hat, wenn der völlig in seinen abstrakten Welten unterwegs ist.
00:26:09: Da komme ich nicht mit, ganz ehrlich, aber irgendjemand muss das ja einsammeln, muss das zusammen schreiben, in einen Business Case bringen und dem Geschäftsführer sagen, mach
00:26:20: das, was Rutger sagt, weil dann verdienst du Geld.
00:26:25: Dann sagt er, was sagt er nicht?
00:26:28: Ich kann es dir gerne sagen, aber dann werden wir beide nicht glücklich, aber high level ungefähr das.
00:26:33: Und dann sagt man, okay, passt schon.
00:26:37: Der wird das schon wissen und drei andere, die das Thema kennen, haben gesagt, ja, lass den mal machen.
00:26:42: Da kommt man ins letzte Detail irgendwann nicht mehr mit rein.
00:26:48: Und das ist aber wichtig, dass man das tut, weil wenn der Geschäftsführer da noch schlimmer, wenn der Finanzern nicht weiß, was man tut und warum das sehr wahrscheinlich
00:26:56: was bringt, dann ist der Geldhand ganz schnell zugedreht und dann wird das Projekt nicht fertig.
00:27:01: Und dann geht das in diese, was sind das, 98 Prozent und die 95 Prozent.
00:27:05: der gescheiterten Projekte, nicht weil das Projekt schlecht war, sondern weil es schlecht erklärt war.
00:27:10: Das wäre natürlich sehr schade.
00:27:11: Und da bin ich dann eben auch dazwischen.
00:27:13: Also du bist die Erklärerin da in dieser...
00:27:16: Der Erklär-Bär.
00:27:18: Genau.
00:27:18: Ich bin auch wichtig.
00:27:21: Ich kann zwar nicht viel, was die Technik angeht, aber ich bin auch wichtig.
00:27:24: Ich kann es verstehen.
00:27:25: Also ich kann das vollkommen nachvollziehen, das Thema erklären, weil es ist ja doch sehr abgefahren, was auch passiert und vor allem technologisch.
00:27:35: folgend, aber wahrscheinlich sehr wenige.
00:27:37: Allein kriegen wahrscheinlich die wenigsten, sagen wir mal, auch keine Ahnung, was, sage ich mal, GPD alles kann und wie das aufgebaut ist.
00:27:44: Und das aber so zu erklären, dass es verständlich ist, ist, ich, tatsächlich echt eine spannende Rolle.
00:27:50: Das kann ich mir auch sehr schwer vorstellen.
00:27:53: Ja, das ist ganz witzig.
00:27:55: Ich mache das ja schon lange.
00:27:56: Ich habe das bei der BCG schon gemacht, dafür IoT und was haben wir noch gemacht?
00:28:03: Blockchain.
00:28:04: Und jetzt weiter, und ich kann mal Beispiel geben.
00:28:07: Wir haben ein Kundenprojekt eben auf den IT-Tagen vorgestellt.
00:28:13: Und da ging es Agentsic AI.
00:28:16: Und zwar darum, dass unser Kunde in dem Fall gerne wollte, dass wir damit Tabellen vergleichen.
00:28:21: Ja, da sagt ja jeder, boah, Tabellen mit Gen.ai.
00:28:25: Ich weiß nicht, was der Österreicher sagen würde, aber der Hamburger würde halt sagen, so ja, jo, ne, viel Spaß.
00:28:34: Ja, aber es ist zwar eigentlich nicht die richtige Technologie dafür, aber es geht und der Wert ist in dem Fall sehr hoch.
00:28:49: ja, da musste also in dem Fall die Xenia, unsere Data Scientistin, musste mit mir, ich glaube bis abends 10 haben wir telefoniert und wir haben halt immer wieder so, okay, habe
00:28:58: ich das jetzt richtig verstanden?
00:28:59: Wenn man das so und so, nein, okay, nochmal.
00:29:03: Aha, okay.
00:29:04: Also wenn das jetzt...
00:29:05: Und dann gehen wir halt immer durch.
00:29:09: Ja, die Arme musst du da wirklich hart arbeiten, bis wir endlich ein Bild gefunden haben, dass ich dann verstanden habe, ah, wir generieren also mit diesem React-Agent, also
00:29:19: Python-Code, und der ist ja unsicher.
00:29:24: Also nehmen wir den und packen den in eine Sandbox.
00:29:28: Und dann hatten wir schon noch Missverständnis, weil ich hab zwar Sandbox verstanden, aber nicht...
00:29:33: wie die Daten da reinkommen und so, bis wir das dann besprochen hatten mit, ich werf dir die Spielzeuge da rein und dann kannst du da drin, kannst du dann damit spielen und die
00:29:41: Sandburg bauen und dann machen wir davon Bild und schicken das wieder raus.
00:29:44: Ah, okay, gut.
00:29:46: So, also dieser Prozess waren irgendwie, ich glaub, vier, fünf Stunden haben wir gebraucht, bis ich's verstanden hab.
00:29:51: Aber dann hab ich's verstanden.
00:29:53: Und dann konnten wir es zurück erklären.
00:29:57: Und dann war auf der anderen ach so, das macht ihr die ganze Zeit?
00:29:59: Ja, das ist ja voll schlau.
00:30:01: Ja, voll gut.
00:30:02: Weiter machen, ja.
00:30:03: Das haben wir dann da vorgestellt und dann freut man sich auch wirklich, wenn andere Leute verstehen, es sind in dem Fallen best for data scientists erklärt und die haben nämlich
00:30:13: erst gesagt, die wollten schon fast gehen, glaube ich, als wir gesagt haben, wir machen hier Tabellenvergleich mit Gen.ai und die waren so ungefähr, ja, Chalkacow, ist ja völlig
00:30:21: falsch.
00:30:22: Aber dann konnten wir erklären, nein, das ist wichtig, weil die Mitarbeitenden brauchen halt Stunden dafür und mit diesem Weg können wir halt innerhalb von wenigen Minuten
00:30:30: zeigen, was in zwei Tabellen unterschiedlich ist und dann lesen sie es eh nochmal durch, weil das ist nicht die Wahrheit, das haben die verstanden.
00:30:37: Also ja, okay, gut.
00:30:38: Dann ist das halt wichtig, dann müssen wir es halt machen.
00:30:40: Ah, so habt ihr es gemacht.
00:30:41: Ja, das ist ja schlau, merke ich mir.
00:30:43: Ich hatte erst auch ein Interview im Podcast mit der Julia Zuckregel.
00:30:47: Vielleicht sagte die auch was, die jetzt das Data Storytelling Lab.
00:30:51: Data Storytelling Lab, glaube ich so heißt.
00:30:55: In Linz hat sie gegründet und da geht es auch darum, wie verkaufe ich denn auch so Datenprojekte.
00:31:01: Also es ist ja, dass man da halt Storytelling mit reinpackt und dass das extrem sinnvoll ist, da halt die Emotionen zu packen und die Leute da anzubekriegen.
00:31:14: Wenn du jetzt sagst, KI und Transformation, digitale Transformation und so weiter und so fort, was ist denn deine Empfehlung eigentlich an Menschen, an Unternehmer, die sich damit
00:31:24: beschäftigen möchten oder auch beschäftigen?
00:31:28: Wenn ihr das machen wollt, dann überlegt euch oder geht an das Thema so und so ran.
00:31:33: Ja, das ist eigentlich ganz einfach.
00:31:35: Ignoriert einfach bitte, dass das Genie-Eye ist und geht da dran, wie ihr an Projekte seit 20 Jahren rangeht.
00:31:42: Businessproblem.
00:31:44: definieren, Wert ausrechnen, also was will ich mit meinem Unternehmen verändern, was darf das kosten, weil ich diesen Wert rausreiche und dann mit der Technik sprechen und fragen,
00:31:55: ob es geht.
00:31:57: Das wird häufig vernachlässigt, weil wir so viele Nachrichten jeden Tag bekommen.
00:32:03: Oh, Jenny, I kann jetzt dies und der kann jetzt das und man kann ein Video und so.
00:32:08: Und dann fangen die Leute an zu denken, brauche ich Video, brauche ich
00:32:12: Automatisierung, brauche ich einen Roboter, brauche ich dies, brauche ich das?
00:32:16: Und man ist völlig verwirrt, weil man natürlich gar kein Video braucht, wenn man irgendwie Plastikbecher herstellt oder so.
00:32:23: Völlig egal.
00:32:24: Und ganz normal überlegen, was tut mir weh, was würde ich gerne verbessern?
00:32:32: Kann man das mit Gen.ai lösen?
00:32:33: Ja oder nein?
00:32:34: Was kostet das?
00:32:36: Business Case, ja, lohnt sich, super machen.
00:32:40: Und wenn du jetzt an diese ganzen Projekte mal denkst, was ist aktuell so die größte Diskrepanz zwischen dem technologischen Potenzial, das wir haben und auch der realen
00:32:52: Umsetzung?
00:32:53: Wo ist denn da so?
00:32:55: Also ich glaube, das ist wirklicherweise ein deutsches Problem, aber ich habe keinen richtigen globalen Überblick.
00:33:03: Aber das, wir immer wieder erleben, ist, dass man im ersten Gespräch sagt, ja ja, 80-20 ist schon okay.
00:33:10: Und dann macht man ein Prototyp und dann wird gesagt, so und wir kriegen die letzten 20 Prozent und dann sagst du, naja die letzten 20 gar nicht.
00:33:16: Also vielleicht kommen wir auf 95, so, mit ganz viel Arbeit auf 99.
00:33:23: Und dann sagt man, sein Rotgeil meistens, ja wir können vielleicht auch 100, aber da brauchen wir so drei Jahre.
00:33:31: Und dann ist halt ein Riesen Schock, es zumindest
00:33:36: sehr vielen Deutschen sehr schwer fällt zu akzeptieren, dass Gen.i eben keine klassische Automatisierung ist mit einer hundertprozentigen Erfolgsquote, sondern etwas, wo man in
00:33:49: Prozessen denken muss und einfach sagen muss, bei diesen einfachen Fällen, wie ich vorhin gesagt habe, hier Bleistift und so weiter, akzeptieren wir einfach eine Fehlerquote von
00:34:00: irgendwie drei Prozent, weil dann werden die Bleistifte halt geschickt und wir sparen immer noch Geld.
00:34:06: Und bei den anderen Sachen lassen wir das vorbereiten und dann gehen wir darüber.
00:34:11: Und ich glaube, das ist wirklich was, was uns hier auffällt.
00:34:15: Ja, dass man denkt, wir schaffen 100 Prozent Dunkelverarbeitung.
00:34:20: Okay, also da ist ein Missverständnis noch immer irgendwie da.
00:34:24: Ja, also das erste Verständnis ist immer, ja, ja, ich weiß schon, erst mal 80, 20.
00:34:29: Aber es ist wie diese Erwartung, dass man in der Phase zwei dann 100 Prozent
00:34:36: macht.
00:34:37: Und es ist ja gar nicht so schlimm.
00:34:39: Also mit, wie wir das gerne planen, da haben wir jetzt ja auch eine Sache veröffentlicht mit Fröhlich und Kaufmann, wo wir einfach gesagt haben, lasst uns überlegen, wo die
00:34:51: Übergabepunkte sein müssen.
00:34:53: Und nicht nur, wie viel Kontext die KI bekommt, sondern wie viel Kontext der Mitarbeiter zurückbekommt, damit er mit einem Blick sagen kann, ja, das passt.
00:35:05: Nein, das ändere ich.
00:35:07: Und darüber haben wir natürlich einen Prozess, wo die KI zum Teil in dem Fall Texte gut kürzt und manche nicht so gut kürzt.
00:35:15: Aber bei den meisten, die gut sind, kann der Mitarbeiter sagen, passt, passt, passt.
00:35:21: Und an den Stellen, wo nichts passieren darf, also wir haben da so bibliografische Daten unten drin, also weiß das Buch kostet und wie groß das ist und so, darf die KI nicht
00:35:28: reinfuschen, deswegen nehmen wir das mit Pysonscript raus, packen das genauso wieder rein.
00:35:33: sagen, down touch, kann doch nichts kaputt gehen.
00:35:36: Also das ist self.
00:35:38: Und die sind ja trotzdem viel schneller, weil sie einfach jedes einmal durchchecken und dann erwarten, da wird ein Fehler sein und das verbessern sie.
00:35:45: Und wenn wir die Prozesse so denken, kann man mit Gen.i relativ schnell Erfolge erzielen.
00:35:51: Wenn die gesagt hätten, macht uns ein Produkt, das dann eine fertiges, druckbares Produkt rausschneidet.
00:35:58: Wenn wir weit davon weg jetzt da irgendwas fertig zu machen, so haben wir das für um die 10.000 Euro tatsächlich fertig gemacht.
00:36:04: Das ist nicht so schlimm.
00:36:07: Jetzt habe ich in der Vergangenheit oftmals im Podcast auch, ich mal, Frage oder, sage ich mal, angesprochen, dass ich so bisschen das Gefühl habe, dass das Thema KI ganz stark vom
00:36:21: einigen wenigen in der Tech-Bubble irgendwie getrieben wird.
00:36:24: sage, okay, Digitalisierung und KI und
00:36:27: zukünftig machen wir nur auch alles und wir brauchen ja keinen persönlichen Kontakt mehr.
00:36:32: sprechen nur noch mit dem Roboter, was auch immer.
00:36:35: Was brauchen wir die Menschheit so auf der Art?
00:36:39: Ich habe da das Gefühl, dass das ein paar wenige sind, die aber irgendwie die Gesellschaft abhängen und dass die überfordert ist, die Gesellschaft oftmals mit dem Thema.
00:36:47: Und jetzt studierst du ja auch Philosophie wieder.
00:36:52: Daher meine Frage an dich, wie siehst du das Thema?
00:36:55: Also ich glaube, dass das ein Zukunftsbild ist, das nicht richtig ist.
00:37:04: So.
00:37:05: Also ich glaube nicht daran, dass KI alles lösen wird.
00:37:10: Und ich kann es dir auch im ersten Schritt mal mit so einem kleinen Beispiel herleiten.
00:37:16: Also wenn du jetzt sagst, KI sollte die gesamte Arbeit machen, dann würdest du ja sagen Entscheidungen.
00:37:22: Und kleine Entscheidungen haben wir besprochen, aber wenn man jetzt sagt,
00:37:25: So, ich habe das jetzt alles vorbereitet, deine Firma und KI sagt jetzt, wir machen einen neuen Standort in Warschau und ich kauf das.
00:37:35: Da würde man ja direkt schon sagen, nee, also große Entscheidungen, das könnte sie vielleicht, ja, aber ich will das gar nicht abgeben.
00:37:43: Das heißt, da würden wahrscheinlich die Unternehmer schon einfach mal sagen, nein, es ist mir egal, dass das technisch möglich ist.
00:37:48: Ich will das nicht.
00:37:49: Sie kann mir das vorbereiten.
00:37:50: Ich möchte das nicht.
00:37:53: Und
00:37:56: Jetzt muss ich ganz kurz überlegen, das möchte ich nicht.
00:38:00: Was macht die KI noch?
00:38:02: Genau.
00:38:04: Oder verkauft zum Beispiel, ja.
00:38:06: Ich finde es total in Ordnung, wenn ich als Kunde eine Entscheidungsvorlage bekomme, kriege ich jetzt auch schon Sales, Marketing, irgendwie diese Dinge.
00:38:15: Aber wenn ich ein B2B-Kunde bin, dann habe ich ja meistens ein bisschen mehr zu verhandeln.
00:38:21: Und da
00:38:23: möchte ich als Mensch in der Regel jemanden haben, der mir auch in die Augen guckt und sagt, jo, das machen wir.
00:38:28: Dem ich da auch vertraue, da ist jetzt eine KI, die vielleicht auch einen Fehler macht oder die auch nicht mein Ansprechpartner ist, mit der ich keine Beziehung habe, ist ein
00:38:39: Problem.
00:38:39: Und ich weiß, dass auch viele Unternehmen da eben drauf setzen, dass sie sagen, wir wollen persönliche Bindungen aufbauen zu unseren Kunden, die
00:38:48: natürlich auch einen echten Wert haben, weil ich mich darum kümmere, weil ich eben andere Gedanken habe als eine KI.
00:38:56: Und darauf setzen die, langfristige Bindungen zu haben.
00:39:00: ich weiß nicht von einigen.
00:39:02: Was man aber auch immer im Kopf behalten muss, also bei aller Faszination von dem, was so eine Jenny allplötzlich kann, oder wie ich vorhin gesagt habe, dass die mein
00:39:12: Persönlichkeitsprofil da daraus gerechnet hat.
00:39:15: Die Technologie bleibt ja so, dass sie
00:39:18: Daten nimmt, die viele kluge Menschen irgendwo mal erstellt haben, die diese Daten im Prinzip klein schneidet.
00:39:26: Und ich sage mal, so ein Embedding, also es ist so eine Art riesige Mindmap, wirft ja.
00:39:32: Und dann schickt man im Prinzip den Hunden mit einem Stöckchen und sagt, hol mal das, Und dann bringt der da was zurück, bisschen umformuliert.
00:39:40: Und das bedeutet aber auch, dass diese Technik gewisse Grenzen gesetzt sind.
00:39:45: Natürlich, man baut das dann aus, man baut eine Grafdatenbank rein.
00:39:48: Man verknüpft, dass man baut Tools, die noch mehr Dinge können.
00:39:52: Aber im Endeffekt ist es schon etwas, das begrenzt ist und was den intellektuellen Verstand der meisten Menschen überschreitet, weil wir einfach nicht so viel wissen und
00:40:01: erinnern können.
00:40:03: Aber es fehlen zwei Dinge.
00:40:05: Das eine ist natürlich die echte Emotion, weil sie das sehr gut nachbilden kann, aber nicht selber führen kann.
00:40:12: So biochemische Prozesse, die funktionieren ein bisschen anders.
00:40:14: Und auch die soziale Komponente.
00:40:18: Da gibt es ja auch genug Studien zu, wo man sagt zum Beispiel, ja, ich kann eine Schmerztablette nehmen, aber echt das Handhalten.
00:40:27: so echte Haut auf echte Haut, am besten noch von jemandem, dem man gerne mag, aber im Zweifel reicht auch irgendwie so warm body, jemand, irgendwo arbeitet.
00:40:35: Das ist wichtig.
00:40:37: Wir brauchen das, wir wollen das auch und es ist auch nicht zu ersetzen.
00:40:41: Das ich ja vorhin schon gesagt, echte Isolationshaft, die Leute foltern sich im Zweifel selbst.
00:40:45: Und das geht auch in die Firmen rein.
00:40:47: Wir brauchen eigentlich diese Verbindung aus Dingen, die die KI sehr gut kann.
00:40:50: eine sehr gute Wissenserfassung, sehr gute Zusammenfassung, kennt viele Strukturen, kennt viele Muster und ein lebendes fühlendes Wesen, andere Dinge kann.
00:41:05: Zum Beispiel wirklich Dinge überspringen, Überblick, verschiedenste Quellen in Verbindung bringen, die man gar nicht auf dem Schirm hat da sonst.
00:41:14: Also zum Beispiel
00:41:16: der Schneesturm draußen in Verbindung mit dem, was eigentlich für die Produktion geplant war an dem Tag, würde bedeuten, man ist jetzt ganz anders, kann aber die Maschine in ihrem
00:41:25: abgeschrumpten Raum überhaupt nicht einsehen.
00:41:28: Und was anderes, was man auch, glaube ich, ignoriert gerade in dieser Debatte, wenn Leute so viel Chagitti machen und denken, damit die Welt zu retten, ist, das kostet richtig
00:41:38: Geld.
00:41:42: Das ist schon noch eine Weile hin, dass wir einfach sagen können, ich haue alles, was ich habe in die KI und ich habe genug Energie, genug Rechenpower, aber vor allem auch genug
00:41:51: Geld diese ganze Tokenisierung, die ganzen Prozesse, Strom und was auch immer da dranhängt, auch zu bezahlen, sodass das wirtschaftlich sinnvoll ist.
00:42:00: Ich glaube, Porsche hat gerade, habe ich hier auf der Machine Learning Week gehört, die haben ganz viel wieder ausgemacht, was sie hatten, was auch funktioniert hat, weil einfach
00:42:08: die Kosten höher waren als das Payback.
00:42:10: Also da muss man schon
00:42:11: Okay, spannend.
00:42:12: Ein bisschen langsam sein und sagen, ja, es ist eine neue Technologie, die ist faszinierend, die kann viel.
00:42:17: Aber bis die wirklich Leute in großem Stil ersetzt, also im großen Stil, nicht in einzelnen Work Packages, das dauert schon noch ein bisschen.
00:42:25: Und das wird auch, glaube ich, nicht ganz passieren.
00:42:28: Wie siehst du das Thema Komplexität?
00:42:30: Schaffen wir uns nicht auch durch das, was wir jetzt da alles machen mit AI und die Leute, das ist...
00:42:37: können das ja gar nicht mehr nachvollziehen oder wie auch immer, ist ja auch gewisse Komplexität schaffen wir da nicht doch etwas, was wir dann gar nicht mehr beherrschen
00:42:45: können.
00:42:47: Also es wird ja immer gerne dieses Schreckgespenst gemalt von der KI, die dann so die Menschheit auslöscht.
00:42:54: Ja, vielleicht ist das so ein bisschen, wo du drauf anspielst.
00:42:57: Ja, also es geht halt darum, dass wir teilweise gewisse Sachen vielleicht auch nicht mehr nachvollziehen können und vielleicht dadurch auch eine Entfernung zwischen Mensch und
00:43:06: Technologie stattfindet, ja, im negativen Sinn, ich sag, wie du schon sagst, ich krieg Angst, ich hab die Kontrolle nicht, wie auch immer.
00:43:17: Und Menschen lieben ja auch einfache Lösungen, wie wir es leider auch eher in der Politik sehen heutzutage.
00:43:28: Und da laufen wir auch in eine Lage, die bescheiden ist, sehr bescheiden ist und die auch teilweise nicht nachvollziehbar ist.
00:43:34: Könnte es sein, dass wir da auch technologisch und mit KI auch da in so eine Lage laufen, die könnte echt viel, aber ja.
00:43:43: Ja, also ich glaube, das sind
00:43:45: verschiedene Dinge.
00:43:46: Aber ich glaube, die Sache mit dem Nachvollziehen der Technologie, das ist keine neue Frage.
00:43:51: Die Frage haben die Leute auch gestellt, als man damals das Fließband eingeführt hat.
00:43:57: Und da hat man wahrscheinlich auch gesagt, Mensch, jemand, jetzt so ein Auto nicht von vorne bis hinten zusammenbauen kann, sondern nur einzelne Bereiche, da verliert man ja den
00:44:08: Überblick.
00:44:09: Und das stimmt ja auch.
00:44:11: Aber das lässt sich, glaube ich, ganz gut in den Griff bekommen, weil da haben wir schon Muster.
00:44:18: Wir wissen schon, wie kriege ich das hin.
00:44:21: Da habe ich halt einen Experten auf einmal, der alles weiß über irgendwie Lenkräder.
00:44:28: Und da muss halt der kommen, wenn das Lenkrad irgendwie komisch ist.
00:44:32: Aber wir hätten ja gar nicht die Möglichkeit gehabt, wenn jeder immer ein ganzes Auto im Kopf haben müsste, hätten wir den technischen Fortschritt.
00:44:39: bei Autos gar nicht so hinbekommen, weil wir niemanden hätten, in seinem begrenzten menschlichen Kopf so eine Expertise für Lenkräder hätte entwickeln können.
00:44:47: Wir sind ja alle doch begrenzt.
00:44:50: Das finde ich weniger besorgniserregend.
00:44:54: Ich glaube eher, dass das eine neue Welle von Kreativität anstoßen wird, weil junge Mitarbeiter, die jetzt in eine Firma kommen, müssten sich mit anderen Fragen
00:45:04: auseinandersetzen als das
00:45:06: Ich bin ja auch jetzt schon nicht mehr die, also als ich angefangen habe, ja, da musste man noch andere Dinge im Blick behalten.
00:45:13: Und jetzt hat man dafür viele Dinge schon, wie Waren, Piepser oder so.
00:45:17: Und ich muss mich zum Beispiel, wenn ich einen neuen Berater einarbeite, muss ich dem nicht mehr unbedingt beibringen, wie mache ich eine Storyline, weil das kann Gammap-App
00:45:25: halt super.
00:45:26: Dann sag ich, komm, mach das direkt und dann kannst du dir mal angucken, wie man das machen kann.
00:45:31: Und dann setzt du es halt um.
00:45:32: So, super.
00:45:33: Musst ja nicht mehr lernen.
00:45:35: Aber dafür müssen wir neue Dinge lernen.
00:45:36: Wie prüfe ich eine Quelle?
00:45:38: Wie kriege ich gute Daten raus?
00:45:41: Wie kann ich das noch ein Level höher aggregieren?
00:45:45: Das erwartet man ja mittlerweile schon, dass man nicht mehr irgendwie zwei Wochen Zeit für Research irgendwie verkauft, sondern das muss halt in zwei Stunden gehen.
00:45:54: Und in den zwei Stunden muss ich sehr gut denken und sehr gut abgleichen und sagen, hey, das nehmen wir, das nehmen wir nicht.
00:46:00: So, da entwickeln wir neue Skills.
00:46:01: Das wird eine neue kreative Welle auslösen.
00:46:03: Das passt.
00:46:04: Und zu dem einen Punkt, den ich vorhin angesprochen habe, ich glaube, das Risiko ist viel mehr.
00:46:11: Also gar nicht eine KI, die uns irgendwie plötzlich was Böses will.
00:46:14: Das könnte passieren, will ich nicht ausschließen, weiß ich nicht.
00:46:18: Viel wahrscheinlicher ist ein böser Mensch, weil davon gibt es halt viele, der mithilfe dieser Technologie einfach viel schneller Schlimmes tun kann, als das er das vor 100
00:46:28: Jahren konnte oder vor 50 Jahren.
00:46:31: Und das ist wirklich ein Risiko, wenn man auch guckt, welche Daten rauskommen, je nachdem, welche KI man nutzt und in welchem Land die geschrieben wird und wie sich auch Inhalte
00:46:38: ändern und Informationen gestreut werden darüber.
00:46:41: Das ist eine reelle Gefahr.
00:46:43: Was man da genau machen kann, weiß ich nicht.
00:46:46: gut nachdenken und kritisch hinterfragen, ist auf jeden Fall eine gute Lösung.
00:46:51: Was wird aus deiner Sicht im öffentlichen Diskurs dann noch zu wenig diskutiert und berücksichtigt, wenn es Thema KI geht?
00:46:58: Also ich glaube wirklich das Thema Kosten.
00:47:01: wird komplett ignoriert, weil die Stimmen, also ich will jetzt niemanden persönlich angreifen, aber wenn ich sage, wenn ich gucke, wer spricht besonders laut, dann sind das
00:47:14: in der Regel Leute, die technisch nicht genau verstehen, was da passiert und die gar nicht mal hochgerechnet haben, ob ihr kleiner MVP, mit TGPT und ein bisschen NLN oder so, ja,
00:47:28: drei Sachen hochbringt.
00:47:30: ob der skaliert.
00:47:32: Und wenn man das nämlich rechnet, und das haben wir ja schon gemacht für Kunden, und dann sieht, wenn ich das einfach so mache mit Standardmitteln, was das kostet, dann kann ich es
00:47:41: nur ausschalten.
00:47:42: Man kann aber auch mit guten Architekten hergehen und sagen, guckt mal bitte an, was jeder Schritt kostet, lass mal überlegen, machen wir das in-house, kann man das sogar selbst neu
00:47:54: bauen und so weiter, und dann kann man die Kosten signifikant senken, dann geht das auch.
00:47:57: Aber das wird
00:47:59: Also dieser Teil, das ist ein Teil, ist echt unangenehm.
00:48:03: Data Engineering und BWL zusammen in einer Jobdescription.
00:48:08: Das ist nicht das, für das die meisten Menschen ausgebildet sind.
00:48:13: Aber das muss man machen.
00:48:14: man damit weiterkommen will, müssen dann plötzlich die Data-Architekten hergehen und ausrechnen, was kostet das?
00:48:22: Und jemand anderes muss sagen, ja das geht oder das geht nicht.
00:48:24: Das fehlt, es fehlt
00:48:26: wirklich zum Teil dieses Verständnis, dass nicht nur Sadisten, sondern auch normale Menschen andere Menschen brauchen.
00:48:35: Und was auch noch komplett fehlt, ist gerade so in Richtung HR und Personal das Nachdenken, wie wir die Arbeit in Zukunft gestalten wollen.
00:48:45: Denn, also das kennst du sicher auch, wenn ich, keine Ahnung, drei Tage auf einer Konferenz rumrenne und jeden Tag intensiv mit Menschen spreche und viel nachdenke.
00:48:55: denke, weil ich auch schwierige Fragen gefragt werde oder irgendwelche Vorträge mache oder so, bin ich platt.
00:49:02: Oder auch wenn man für einen Tag einen Workshop gegeben hat, wo man sich wirklich tief reinarbeiten musste und mit vielen Menschen sprechen, den ganzen Tag, dann merkt man einen
00:49:13: Tag danach, talked out, dann kann ich nicht mehr.
00:49:19: Aber unsere Arbeit wird sich ja viel mehr mit diesen Aufgaben beschäftigen in Zukunft, weil die repetitiven Dinge, setze mich mal drei Stunden hin und fülle mal dieses
00:49:29: Excel-Sheet aus oder jetzt schreibe ich das mal in Ruhe runter oder so, das wird ja alles zusammengeschrumpft.
00:49:35: Die Zeit brauchen wir nicht mehr.
00:49:37: Bis dann zehn Minuten fertig ist das da.
00:49:38: Jetzt musst du schon wieder denken.
00:49:40: Und dieses kreative, feste Nachdenken ist wahnsinnig anstrengend.
00:49:44: Und dann müssen wir uns überlegen, wie gestalten wir das?
00:49:48: Sagen wir zum Beispiel, in Zukunft haben die Leute zwei Stunden Power-Block-Zeiten im Kalender und danach machen wir, weiß ich nicht, Entspannungsmeetings oder wollen wir
00:50:03: überhaupt noch, dass die Leute acht Stunden arbeiten oder sagen wir, nee, mach mal lieber zweimal am Tag zwei Stunden, weil das so anstrengend ist, dass dann auch nur noch Käse
00:50:12: dabei rauskommt oder sechs Stunden oder so.
00:50:14: Also die Debatte fehlt mir eigentlich noch komplett.
00:50:16: Ich bin da kein Experte, aber ich merke selber, wie das bei mir ist.
00:50:21: Acht Stunden irgendwas abarbeiten, wenn du nicht Routine-Tätigkeiten machen kannst, ist wirklich schwierig.
00:50:26: Ja, wenn du hoch konzentriert arbeiten musst und so weiter, das macht einen dann schon platt.
00:50:32: Aber es wird auch ganz spannend, weil du auch gerade erwähnt hast, H.R.
00:50:37: Ich habe gestern am Podcast vorgehört, die letzte von Wunderpanik.
00:50:42: Ich weiß nicht, ob du den Podcast kennst.
00:50:44: wo es HR ging auch noch einmal, was ja eigentlich diesen ganzen Bewerbungsprozess zum Einheitsbrei macht.
00:50:52: sage es jetzt einmal so, alle können jetzt schönes Anschreiben machen, ist alles korrekt und so weiter und so fort, direkt auf die Bewerbung eingehen etc.
00:51:01: Und wo man auch irgendwie in Studien gesehen hat, dass es dann zu einem Preis-Kosten-Drop kommt und die Leute weniger verdienen und so weiter und so fort.
00:51:12: Was ich finde, ganz spannend ist, dass sich Prozesse ja komplett ändern werden.
00:51:17: Ich kann jetzt so einen HAA-Prozess vollkommen automatisieren, das Recruiting.
00:51:22: Die Frage ist, kriege ich dann aber wirklich immer die besten Leute, die ich brauche?
00:51:27: ist es, KI bereitet alles vor, KI sortiert aus?
00:51:32: Ja, ich sage es jetzt mal so und dann spuckst du dir was aus und da tue ich mir relativ schwer.
00:51:39: Also ich habe diese Diskussion sehr spannend gefunden im Podcast.
00:51:44: Wie müssen wir denn gewisse Dinge überhaupt neu denken?
00:51:47: Also es ist jetzt nicht nur, dass ich eine Lösung habe und du sagst, ja wir können Excel-Sheets einfach einfachen, wir können das schnell analysieren und das alles geht.
00:51:53: Aber wie kriege ich danach noch mal die Differenzierung vielleicht hin als Unternehmer oder in den einzelnen Prozessen?
00:52:00: Und ich glaube der Prozess ist hier genau die Frage, weil wir, das wird oft sehr mechanistisch gemacht.
00:52:09: Also es wird
00:52:10: Das ist, muss man sagen, machen viele Tools meiner Meinung nach nicht gut, weil sie gucken, was ist der menschliche Prozess und dann dort aus diesem menschlichen Prozess die
00:52:21: intellektuellen Schritte rauslösen und die emotionalen Teile gar nicht sehen.
00:52:30: das ist ja sowas, wenn ich jetzt, also mal ein Negativbeispiel, wie du es gerade gesagt hast, Recruiting wird jetzt runtergebrochen auf
00:52:39: Gibt es irgendwie ein Ranking der Hochschulen und gibt es irgendwie ein paar Punkte für jedes Berufserfahrungsjahr und so weiter.
00:52:46: Und das wird durchgerasselt.
00:52:49: Und im schlimmsten Fall wird wirklich der ganze Lebenslauf reingepackt.
00:52:52: Und im allerschlimmsten Fall hat man noch gesagt, brauchen noch Trainingstarten, wollen wir mal irgendwie alle Entscheidungen, hier alle jetzigen Mitarbeiter packen wir rein.
00:53:01: Das ist hier jetzt so unsere Zielgröße.
00:53:03: Und jetzt gucken wir noch, wie die vom Charakter her sind, so super, dann schmeißen wir von denen mal ein paar E-Mails da rein, so wissen wir, wie die sind, passen die nächsten
00:53:09: da auch so super rein, ne?
00:53:11: So.
00:53:12: Was machst du?
00:53:14: Erst mal hast du Scheißdaten, ja?
00:53:16: Weil du natürlich den Bias, deine letzten drei Personalchefs hatten, jetzt kodifiziert hast.
00:53:25: ich, mache direkt mal das Beispiel immer wieder, ich hatte meine Kollegin, die konnte ich nicht leiden.
00:53:29: So.
00:53:30: Ja?
00:53:30: Und
00:53:32: Diese Kollegin hatte natürlich einen Vor- und Nachnamen und ein Gesicht und eine Frisur und so weiter.
00:53:38: Und ganz ehrlich, jemand, der so aussieht wie die, die werde ich nicht einstellen.
00:53:42: Wenn ich das Foto einmal gesehen habe, und ich meine, jeder von uns ist so, ja, du lachst, aber man hat ja auch so, boah, irgendwie das Kind, was einen in der Schule immer gejagert
00:53:50: hat, ne?
00:53:51: So und so sah das aus, wenn jemand aussieht wie der, so, oh, nee, geht gar nicht.
00:53:56: Aber das bedeutet auch, dass in den Trainingsdaten, also in deiner gesamten HR-Chefkarriere,
00:54:02: dass dabei sein wird, der so aussieht wie der Kollege, den du nicht mochtest.
00:54:07: Also, wenn du dann auch noch Fotos mit reinlädst und die KI findet das Muster, das wird ganz schön schwer rauszufinden, warum so eine Person nicht eingestellt wird.
00:54:17: Aber KI sagt ja auch nicht, KI sollte die draußen und du sagst, weil du bist ja dieselbe Person, sagst du, ja, mega Auswahl.
00:54:22: Genauso hätte ich das auch gemacht.
00:54:24: Obwohl hat hochgradig unfair, hochgradig falsch und so weiter.
00:54:28: Aber unsere ganzen anderen Vorteile darauf laufen auch mit rein.
00:54:31: Also muss ich mir ja erst mal überlegen, was ist wirklich der Prozess?
00:54:34: Was sind wirklich Kriterien, die ich brauche?
00:54:38: Also Skill.
00:54:40: Wenn ich, keine Ahnung, wenn ich ein Ingenieur einstellen will, am besten noch irgendjemand mit irgendwelchen Zertifikaten, dann kann ich auf die Zertifikate nicht
00:54:48: verzichten.
00:54:48: Das ist total okay.
00:54:49: Also kann ich ja ohne irgendwas Verwerfliches zu tun sagen, mein neues Programm soll bitte durchchecken und jeder, der dieses Zertifikat nicht hat, kriegt von mir aus noch nie mal
00:54:59: eine E-Mail.
00:55:00: Haben Sie vergessen, das Zertifikat mitzuschicken?
00:55:02: Ja, nein, ja, schade, tut mir leid.
00:55:04: Muss Voraussetzungen.
00:55:06: Wenn ich jetzt aber zum Beispiel gesagt habe, ich gucke jetzt mal, meine Charakter, wie die Charakterverteilung in meiner Firma ist, dann stelle ich nur immer wieder das Gleiche
00:55:15: ein.
00:55:16: Und das kann sein, dass sich deswegen meine Firma überhaupt nicht weiterentwickelt, weil ich ja gar nicht mit berücksichtige, wie entwickelt sich der Markt, welchen neuen Service
00:55:24: das brauche ich, aber vielleicht auch was ein guter Personaler wahrscheinlich machen würde, der würde ab und zu mal sagen, nee,
00:55:31: Die Person ist jetzt irgendwie anders als alle anderen, aber finde ich gut.
00:55:35: Lass mal dem Team vorstellen.
00:55:36: Und die sagen, Mensch, die Energie, dieser Mensch hereingibt oder die Ruhe, die dieser Mensch hier hergebracht hat, die brauchen wir.
00:55:41: So.
00:55:42: Fällt komplett weg, wenn wir das so standardisieren.
00:55:45: Und das sind aber Sachen, die wir im Moment ohne es zu erklären tun.
00:55:51: Es gibt viele Dinge, die machen wir ja ohne, dass wir es sagen können, sondern das ist die Intuition.
00:55:55: Also ich gucke diese ganzen Lebensläufe durch und sage, Mensch, das wäre ja auch mal frischer Wind.
00:56:01: pack ich mit rein.
00:56:02: Das verlieren wir.
00:56:03: Da müssen wir genau überlegen.
00:56:04: Du bist ja auch so ein Prozessmensch.
00:56:06: Du musst nicht überlegen, wie ist der Prozess, sondern wie wäre es gut?
00:56:10: Und welche Dinge sollte ich berücksichtigen?
00:56:12: Und dann eben genau die Frage Kontext.
00:56:15: Was zeige ich den Leuten?
00:56:16: Welche Profile zeige ich?
00:56:17: Warum zeige ich die?
00:56:18: Und dann habe ich eine menschliche Komponente da drin, das Team.
00:56:20: Und dann bleibt es halt bunt.
00:56:22: Trotzdem Zeit gespart, aber nicht mit...
00:56:24: Also das eine ist ja sogar strafbar.
00:56:26: Wenn ich tatsächlich aussortiere anhand von
00:56:30: Merkmalen wie falsche Haarfarbe.
00:56:33: Man kann nicht leiden, wenn es kodifiziert ist, dann ist es nachweisbar.
00:56:36: Das ist keine gute Idee.
00:56:39: Wenn wir jetzt diese Idee einmal weiterspinnen in die ferne Zukunft und KI, alle nutzen KI, weil alle können es und die digitale Transformation ist so weit fortgeschritten.
00:56:52: sind richtig gut alle.
00:56:55: Jetzt ist ja das Thema Bios und Beeinflussung, weil KI bevor zu KI und dieses jenes kommen wir dann nicht auch irgendwie in ein Fahrwasser, wo alle Unternehmen gleich ticken, weil
00:57:06: alle die gleiche Gen.i nutzen und ich sage jetzt mal am Ende, ja, das Sales Prozess bei allen automatisiert ist und ich sage jetzt ich habe zehn Unternehmen und alle verwenden AI
00:57:18: und haben den gleichen Sales Prozess und alle AI können das gleiche und sind
00:57:23: überzeugend und manipulierend, im gleichen Maße.
00:57:29: Wo kommen wir als Unternehmen hin oder wie kann man sich dann zukünftig denn auch als Unternehmen dann auch noch mal differenzieren?
00:57:37: Jetzt geht es vielleicht noch über ich nutze KI, aber wenn wir dann so weit sind, dass ganz viele KI nutzen in den Bereichen, wie kriege ich dann noch mal diese Nuance hin, dass
00:57:46: ich sage, ich bin halt anders, ich kann es doch besser.
00:57:50: Ja, aber ich glaube, genau das ist der Punkt.
00:57:51: Also ich habe jetzt zwei Möglichkeiten eigentlich.
00:57:54: Nehmen wir an, ich habe ein Unternehmen mit 100 Leuten.
00:57:56: Dann bedeutet das ja, dass die Umsätze, die ich im Moment mache oder das, ich im Moment verdiene, genug ist, 100 Leute zu bezahlen.
00:58:05: Stand heute.
00:58:07: Das heißt auch, dass wenn ich jetzt sage, ich automatisier zum Beispiel Zeile vom Sales-Prozess und zwar die, wo die Sales-Mitarbeiter sagen, ja bitte nimm das.
00:58:18: Ich habe keine Lust, mein Meeting irgendwie runterzuschreiben.
00:58:22: Ich würde es dir gerne einsprechen und ich hätte gern, dass du das in meinem CAM an die richtige Stelle speicherst.
00:58:26: Also diese Prozesse.
00:58:28: Jetzt kann ich natürlich entweder sagen, ich schmeiße dir halb die 5 Sales raus oder ich sage mir, ich habe jetzt hier Zeit gewonnen.
00:58:36: Wie kann ich diese Zeit wertschöpfend einsetzen?
00:58:40: Und eigentlich ist das ja genau das, was ein Unternehmer tut, zu überlegen.
00:58:45: Hey Kollegen aus dem Sales, ihr habt jetzt, das ist, postet ihr auch nicht von heute auf morgen, aber ihr habt jetzt eine Stunde mehr Zeit, ihr habt jetzt zwei Stunden, habt jetzt
00:58:52: vier Stunden mehr Zeit.
00:58:53: Was machen wir damit?
00:58:55: Und dann geht das ja meistens relativ schnell.
00:58:56: Dann sagen die einen, ja Mensch, ich wollte schon lange mal irgendwie eine Analyse machen, warum wir diese Drucker so schlecht verkaufen.
00:59:03: Oder der nächste sagt, ja Mensch, ich wollte mal Sales Tour machen in Italien oder so.
00:59:09: Und genau diese Energie müssen wir nutzen, uns weiterzuentwickeln.
00:59:12: Gen.ai wird nicht diese persönliche Verbindung zum Beispiel aufbauen.
00:59:16: Das wird auch nicht komplett neue Produkte erfinden.
00:59:19: Dafür ist es nicht ausgelegt.
00:59:20: durch Zufall vielleicht mal kann passieren.
00:59:23: Aber das ist nicht so sehr wahrscheinlich.
00:59:26: Und ich weiß jetzt nicht, was wir in Zukunft tun werden.
00:59:31: als die ersten Dampfmaschinen kamen oder als das Feuer erfunden wurde oder was auch immer.
00:59:38: haben die Leute auch gedacht oder das beste Beispiel ist Haushalt, Das beste Beispiel ist Haushalte, da kann das jeder sich sofort vorstellen.
00:59:44: Wenn du heute eine Hausfrau von, sagen wir mal, 1700 sagen würdest, ich habe so einen Stress, dann würde die sagen, bist du bescheuert?
00:59:51: Wie kann das denn sein?
00:59:52: Du hast hier laufenden Staubsauger.
00:59:55: Du hast, weiß ich nicht, eine Spülmaschine.
00:59:58: Du hast das.
00:59:59: Du kannst ja im Haushalt nicht mal mehr als eine halbe Stunde brauchen.
01:00:02: Und was machen wir Menschen?
01:00:04: Wir ...
01:00:05: suchen uns Arbeit.
01:00:06: Wir machen Kindergeburtstage, wo wir drei Tage vorher dekorieren.
01:00:10: Wir machen, keine Ahnung, manche Leute besticken irgendwie die Schuhe selber oder backen dann wieder wie 1950, weil wir jetzt haben die Zeit.
01:00:21: Also Menschen finden Dinge irgendwie, die andere Menschen toll finden, sobald die Zeit da ist.
01:00:28: Und das verkaufen die auch.
01:00:30: Wie hat man das so überlegen?
01:00:31: Mit dem Blick aus 1800 bis so sagen
01:00:34: Wir haben Menschen, die Geld damit verdienen, dass sie sich zu Hause filmen.
01:00:38: Ja, das ist komplett absurd, aber ist so.
01:00:41: Und in 20, 30 Jahren werden die Leute Dinge tun, wo wir denken, dass man damit Geld verdienen kann.
01:00:47: Wahnsinn.
01:00:48: Aber die Ideen werden kommen.
01:00:49: Menschen sind sehr kreativ.
01:00:52: lass mal gucken.
01:00:53: Also, kann nachher wettenabschließen, aber...
01:00:56: Wär ich entspannt.
01:00:59: Führt das zu einer...
01:01:01: aus deiner Sicht doch zu einem...
01:01:02: negative Entwicklung unserer Gesellschaft, das ganze Thema?
01:01:06: Ich meine, du sprichst dir jetzt ganz viel an persönlicher Kontakt und so weiter und so fort, dass wir das brauchen.
01:01:14: Aber hast du die Angst, das auch, sag ich mal, diese Technologie uns auch so negativ beeinflussen kann, dass wir als Gesellschaft eigentlich auch abdriften?
01:01:24: Ich sag's jetzt mal hart.
01:01:27: Ja, also ja, so ein Thema, also dieses Thema Dystopie.
01:01:29: Ich ja immer wieder gerne diskutiert, wie könnte es sein, wenn alles schief läuft, so ungefähr.
01:01:37: Und da kann man ja mal ins Extrem denken und sagen, wenn Technologie alles so macht, wie ich das gerne mag, wie könnte das denn enden?
01:01:49: Und eigentlich könnte das ziemlich krass sein, weil ganz ehrlich, so ein echter, eigener Partner ist schon anstrengend.
01:01:59: Also, wäre schon manchmal ganz gut, wenn man einfach sagen könnte so, nee, heute hab ich keinen Bock, geh mal in die Ecke da und nächsten Tag so, ja, machen wir mal...
01:02:08: Knopf abschalten, ne?
01:02:09: Ja, mach mal Knopf abschalten, hab ich jetzt keine Lust drauf und hier, mal Frühstück.
01:02:12: Weil könnte ja alles passieren, dass man sagt, ach, und weißt du, heute wär mir so ein großer, schöner Mann irgendwie ganz lieb und morgen hätte ich lieber so Nachdenklich und
01:02:22: dann tausche ich das halt aus.
01:02:23: Könnte ja passieren.
01:02:24: Also vielleicht brauchen wir keine echten Beziehungen mehr, wenn wir das ganz hoch treiben.
01:02:28: Und vielleicht gehen wir auch gar nicht mehr raus, weil es so Wetter und kalt und so.
01:02:33: Vielleicht setzen wir uns lieber in so eine Box.
01:02:36: Also ich glaube, das einzige, was mir einfällt ist, in eine Box zu Also könnte ja alles sein so matrixmäßig.
01:02:43: Also das einzige, mir einfällt, wo ich sage, da könnte mich jetzt, glaube ich, keine KI der Welt überzeugen, wäre so, also mein Kind ist mein Kind.
01:02:51: Also auch wenn der gerade dreckig und richtig krezzig und
01:02:55: richtig schlecht draußen ist und vielleicht noch ein Auto hinterher wirft, würde ich trotzdem sagen, ich nehme das und nicht die KI-optimierte Vision.
01:03:01: Also vielleicht ist das so eine Grenze, vielleicht auch nicht für alle, wo man sagt, so Blut, Familie, eigene Familie, eigene Kinder, da würde man vielleicht noch dran bleiben.
01:03:13: Aber das würde natürlich schon ein sehr schlimmes Bild abgeben, weil eigentlich dieser echte Kontakt wichtig ist.
01:03:20: Man wird immer konfliktscheuer.
01:03:22: Also mit meinem eigenen Partner streiten macht man dann ja, also wenn man einen hat.
01:03:27: mit Kollegen, aber es wird ja auch immer weniger, dass Leute bereit sind wirklich mal einen kleinen Konflikt, kleinen Streit auszutragen.
01:03:36: Und je mehr man sich einigeln kann und je mehr man sich in diese Wattewelt selber setzen kann, wo man sagt, ach nee, wenn ich den streiten müsste, dann mache ich den aus.
01:03:46: Und so.
01:03:47: Das heißt, das könnte natürlich sein, dass Leute gar nicht mehr
01:03:51: kommunikationsfähig sind und wirklich in ihren kleinen Boxen vertrocknen und dann haben die wahrscheinlich alle das schnell relativ schnell Depressionen und dann wird es
01:04:01: furchtbar.
01:04:02: Aber es muss ja nicht so sein.
01:04:05: Wir können ja jetzt überlegen, wie wir das gestalten wollen.
01:04:08: Und wenn ich das aussuchen kann, würde ich sagen, nein, wir machen das eben genau andersrum.
01:04:11: Wir geben ab in die KI, was man abgeben sollte, nämlich repetitive Dinge, intellektuelle Dinge, anstrengende Dinge, vielleicht auch gefährliche Dinge.
01:04:19: gerade in der Industrie, solche Sachen wie Bereiche, wo man sich wirklich hart verletzen kann, dem Roboter schweißt du den Arm wieder an und so, das abgeben und bei den anderen
01:04:31: Dingen wirklich hart darauf achten, dass Menschen im Austausch mit Menschen bleiben oder mit Haustieren oder so, weil wir nur dann, glaube ich, gesunden Geist behalten.
01:04:44: Aber das ist natürlich nur ein Risiko, was besteht.
01:04:47: Du kommst ja in Unternehmen ja sicher auch oft in solche Diskussionen rein.
01:04:51: Was sollen wir, was können wir, wie weit dürfen wir es auch treiben, das Ganze?
01:04:54: Wie gehst du da vor mit den Unternehmen dann, wenn es solche Diskussionen geht?
01:04:59: Also ich habe sogar ein Video, das kann ich dir noch schicken.
01:05:03: Das habe ich mal gemacht mit Kant und da lasse ich ihn darüber philosophieren und da gibt es nämlich eine sehr schöne Stelle, wo er
01:05:13: Ich glaube, das habe ich gesehen.
01:05:14: Das hast du gepostet.
01:05:15: Ja, ich gesehen, ja genau.
01:05:16: Aber die Idee ist einfach sehr schön dahinter und auch sehr eingängig, wenn man einfach sagt, jedes Ding hat einen Preis oder eine Würde.
01:05:24: Und alles, einen Preis hat, das kann man gerne automatisieren.
01:05:29: Also das sind alle Dinge so mit Schlagzahl und Geschwindigkeit und so weiter.
01:05:33: hängt halt kein Herz dahinter.
01:05:34: Aber alles, was eine Würde hat, ist eben über diesen Preis erhaben.
01:05:38: oh
01:05:40: Das sollte beim Menschen bleiben.
01:05:42: Und das sind eben diese Dinge wie Austausch, wie unangenehme Nachrichten überbringen, schöne Nachrichten überbringen, Dinge aushandeln, besprechen, entwerfen, kreativ sein.
01:05:55: ich weiß, das ist ganz interessant, weil diese Begriffe, Preis und Würde klingen so abstrakt, aber eigentlich versteht jeder sofort, was man meint und sagt, ja stimmt, da
01:06:05: kann ich mich gut dran langhangeln.
01:06:07: Das ist der erste Entscheidungspunkt.
01:06:08: Was hat eine Würde, was hat einen Preis?
01:06:11: Individuell in diesem Unternehmen, da gibt es keine Blaupause, dass das immer so ist, für dieses Unternehmen ist das dann halt so.
01:06:19: Und dann muss man bei diesen Preisaufgaben immer noch mal gucken, kann man das lösen mit KI oder kann man das nicht lösen?
01:06:25: Da gibt es genug Dinge, wo man sagt, das wäre schön, wenn wir das nie wieder machen müssten.
01:06:29: Zu teuer kann die Technik nicht, was auch immer.
01:06:33: Aber von dem Ansatzpunkt aus kommt man da eigentlich gefühlt relativ schnell weiter.
01:06:39: Ja, es ist ein schöner Ansatz.
01:06:42: Bevor wir jetzt Richtung Ende kommen, noch eine Frage.
01:06:45: Wie hältst du denn eigentlich persönlich die Balance zwischen dieser technischen Faszination, die ja bei dir drinnen ist, auch was Neues und hier und da, was können wir
01:06:53: alles und auch der kritischen Reflexion dem Ganzen gegenüber, das, was wir jetzt ja auch relativ häufig oder viel besprochen haben?
01:07:02: Ich glaube, das halte ich gar nicht auseinander.
01:07:05: Ehrlich gesagt, nee.
01:07:07: Weil ...
01:07:09: Ich glaube, im ersten Moment ...
01:07:11: Ich bin ja auch Hundetrainerin, ja?
01:07:13: dann ...
01:07:14: Das hab ich nicht gefunden, sonst hätt ich's erwähnt.
01:07:17: Das steht ja gar nicht drin.
01:07:19: Aber was ich mir damals gemerkt hab aus den Büchern ist, zumindest bei Hunden kann man das sagen und vielleicht kann man das Menschen übertragen, die sind vorsichtig positiv.
01:07:30: Ja?
01:07:30: Das bedeutet ...
01:07:31: Wenn du als Hund Hunger hast und da liegt was, was gut aussieht wie Essen, dann glaubt man immer ein bisschen mehr ans Glück als an eine Falle.
01:07:45: Aber man ist nicht völlig verrückt, so das...
01:07:48: Aber vorsichtig positiv, ist, ich, ein guter Ausdruck.
01:07:52: Und so, finde ich, sollte man auch an so Technologien reingehen, vorsichtig positiv.
01:07:57: Also, das glitzert, cool, ja.
01:08:00: Kann ich das mal ausprobieren?
01:08:02: Ja, wie geht das?
01:08:05: Aber immer auch ein bisschen vorsichtig so, was passiert denn?
01:08:08: Und wenn ich das groß denke, was passiert dann?
01:08:11: Und das muss ja eigentlich in einem ganz engen Austausch passieren.
01:08:16: ist dann so, hä, aber wenn ich da jetzt alle Daten reinlade, das ist ja cool, aber wo geht denn das dann hin?
01:08:22: Und dann in diesem Gespräch und in diesem vorsichtigen Austesten, ja, also man darf sich von der Begeisterung mit
01:08:31: reißen lassen, aber nicht komplett kopflos.
01:08:33: Ich glaube, mit dem Bild kommt man ganz gut durch.
01:08:36: Schön.
01:08:38: Und jetzt zum Abschluss, was sind so drei Learnings, die du den Zuhörerinnen mitgeben würdest?
01:08:44: Können beruflicher oder privater Natur sein?
01:08:51: Also ich glaube, eine ist wirklich, neugierig bleiben und Spaß haben, ist eine richtig gute Sache, ja.
01:08:59: also wie gerade schon gesagt, man muss immer aufpassen, dass man nicht alle Daten rausgibt und komplett kopflos wird, mit ein bisschen, bisschen Blick aufs Wesentliche macht das
01:09:14: einfach Spaß und da soll man es einfach ausprobieren und
01:09:17: mit Datenschutz im Hinterkopf, also im Zweifel mal Namen rausnehmen und keine Kreditkartennummern in die KI schmeißen, also nicht verrückt sein.
01:09:24: Da kann man vieles ausprobieren und sich begeistern lassen und dann kann man immer noch mal nachfragen.
01:09:30: Ich glaube wirklich, ich kann das gar nicht oft genug sagen, glaube Kontakt mit anderen Menschen ist wirklich essentiell, nicht durchzudrehen.
01:09:39: Und gerade wenn man sich sehr für Dinge begeistern kann und viel arbeitet,
01:09:46: Dann Kontakt mit anderen Menschen heißt nicht, dass man im Büro sitzt und jemand anderes sitzt auch irgendwo und danach geht man wieder nach Hause.
01:09:52: Das ist kein Austausch, sondern egal wie Leute finden, mit denen man sich menschlich auseinandersetzen muss, um den Bezug zur Wirklichkeit und aber auch Freude und Spaß und
01:10:09: Blödsinn und was man alles hat zu erleben,
01:10:12: Das passiert schnell, dass man da rausrutscht und dann wird es schnell traurig.
01:10:16: ich glaube, wird immer viel über so Mental Health und so weiter gesprochen, finde ich auch wichtig.
01:10:24: Ich glaube, die meisten Probleme wären nicht da, wenn die Leute weniger einsam wären.
01:10:29: Deswegen hat das mit KI gar nichts zu tun.
01:10:32: das ist einfach oder doch, weil KI noch mehr die Möglichkeit eröffnet, sich abzuschotten.
01:10:41: Und das soll man nicht tun.
01:10:42: Also man glaubt es mir, man braucht andere Menschen, auch wenn sie manchmal nerven und stinkend und doof sind, ja.
01:10:48: Und das letzte, also zumindest habe ich das jetzt seit langer Zeit so gemacht und das hat sich wirklich bewährt, ist, wenn ich von einer Entscheidung stehe und mich entscheiden
01:10:58: muss, machen oder nicht machen, dann mache ich es.
01:11:05: das ist wirklich, ja, das ist immer gut.
01:11:09: Also ich habe vor ein paar Jahren aufgehört, mir zu überlegen, was gewünscht ist oder richtig ist oder was andere für mich zu erwarten und einfach gesagt, LandWG mit fünf
01:11:24: Männern, sieht ein bisschen schlimm aus hier, finde ich gut, mache ich.
01:11:30: War das nachvollziehbar, verhersehbar?
01:11:32: Nee, aber war gut.
01:11:35: Ja, macht keinen Spaß hier, ist jetzt ein bisschen verrückt.
01:11:39: Ja, bin ich raus.
01:11:41: Okay, bin ich raus.
01:11:43: Keine Ahnung, was ist denn dein Plan?
01:11:44: Weiß ich nicht.
01:11:45: Egal.
01:11:46: Am Ende ist immer gut gegangen, wenn man da nicht so viele Kompromisse macht.
01:11:52: Und das kann ich wirklich nur empfehlen.
01:11:55: Zweifel machen.
01:11:55: Macht's einfach.
01:11:56: Man fragt sich sonst Ewigkeiten.
01:11:58: Und bisher war es immer so, es kommt ein nächster Tag und zwischendurch ist man schlecht.
01:12:03: Aber es kommt dann auch noch ein Tag und noch ein Tag und die Dinge renken sich auch wieder ein.
01:12:07: Und am Ende lohnt sich das.
01:12:10: Bisschen kompromisslos, bisschen mutig sein, machen.
01:12:13: Finde ich gut.
01:12:14: Machen, einfach mal machen.
01:12:15: Einfach machen und eher bin ich auch so, also wenn es war bei mir auch so beruflich, wenn es dann einfach nicht gepasst hat, ich bin nicht der Typ, der dann sagt, okay, ich fahre
01:12:23: immer nach dem Motto, change it, accept it or leave it und ich probier's, accepten, da bin ich ganz schlecht drin und dann ist es halt, leaving, also irgendwie zu gehen, ja.
01:12:36: Oder einfach auch mal Sachen neu zu probieren.
01:12:38: Der Podcast ist tatsächlich auch so entstanden.
01:12:40: Einfach mal zu sagen, ich habe eigentlich Bock drauf, ich mache jetzt einfach mal.
01:12:44: Es heißt ja nicht, dass man bei jedem kleinen Kram sofort hinschmeißen muss.
01:12:47: Das wäre ja auch falsch.
01:12:49: Es gibt genug Dinge, wo man sagt, hey, und das ging mir schon leider auch oft so, dass ich, dass man einfach in einem Meeting sitzt und sagt, was soll das?
01:13:00: Aber dann sagt man, okay, nee, es gibt so eine Militärregel, einmal drüber schlafen sollte man tun.
01:13:06: Dann geht man nach Hause, dann geht man eine Runde laufen mit so einem Krawatte.
01:13:10: Dem zeige ich es morgen und läuft eine Weile und dann denkt man sich irgendwie, naja, oder naja, möglicherweise, vielleicht hat er das auch recht und so.
01:13:16: das ist mir Die Emotionen müssen noch mal runter.
01:13:19: Ja, und ehrlicherweise oft haben auch die Leute mit mehr Erfahrung dann auch recht.
01:13:24: Und das nervt mich dann auch immer, wenn es heißt, oh, jetzt wird jetzt entscheidet wieder der bestbezahlte Mensch im Raum.
01:13:31: Und dann denkt man sich ja, aber das liegt auch daran, dass er viel Erfahrung hat und schon alles erlebt hat.
01:13:35: Das ist gar nicht so verkehrt, muss man auch sicher mal wieder bisschen runter regeln.
01:13:39: Andere Leute können es manchmal auch besser.
01:13:41: Aber wenn das nicht solche Dinge sind, sondern wirklich was Grundsätzliches ist, dass man sagt, das passt einfach nicht oder nicht mehr zu mir.
01:13:50: weg, weiter.
01:13:52: Da bin ich beide.
01:13:53: Also so handhab ich es auch.
01:13:55: Man muss schon, finde ich, die Energie reinsetzen, sagen, ich verändere es auch, ich probiere es auch.
01:14:01: Man muss aber auch dann halt sagen, okay, gut, ich eck halte auch vielleicht an, ja.
01:14:05: im Sinne des Guten.
01:14:06: möchte es jetzt im Positiven verändern.
01:14:08: Und wenn es nicht funktioniert, dann muss man halt die Entscheidung treffen.
01:14:13: Ja, cool, Wiebke.
01:14:14: Du, ich habe jetzt für mich auch einiges mitgenommen.
01:14:17: Ich finde es ganz spannend, dass du auch gesagt hast, hier das Thema Kosten wird viel zu wenig mitgedacht.
01:14:22: Sollten wir vielleicht im Curriculum bei uns an der Hochschule auch entsprechend nochmal verstärken, dass wir da die BWL bei den Wirtschaftsinformatikern etc.
01:14:29: reinhaben?
01:14:30: mehr bemühen.
01:14:33: Es ist auf jeden Fall ein Thema, dass das doch in einigen Unternehmen anscheinend der Fall ist.
01:14:38: Das zweite ist auch, dass du, du hast das jetzt auch in deinen Learnings noch einmal erwähnt, persönlicher Kontakt und so weiter, aber dass das auch was ist, wo sich
01:14:47: Unternehmen differenzieren können aus deiner Sicht, weil das sind so Sachen, persönlicher Kontakt, die Beziehungen aufbauen, das wird über die KI schwierig.
01:14:57: Das letzte, was ich auch sehr gut gefunden habe, war das Thema in Unternehmen.
01:15:01: Was sollen wir eigentlich machen, das so ein bisschen an diesen Begriffen Preis und Würde festzumachen?
01:15:06: Was hat einen Preis für mich und was hat eine Würde für mich und hat es eine Würde, dann lasse ich es lieber den Menschen, hat es einen Preis, dann packe ich es in die Technologie
01:15:16: rein, sage ich mal, in die Automatisierung.
01:15:18: Habe ich super spannend gefunden.
01:15:19: Eine Sache habe ich gerade ganz kurz nachgeworfen, weil das habe ich nicht gesagt, das habe ich nur im Kopf.
01:15:26: Warum sind die Menschen so wichtig?
01:15:27: Weil die auch diese Impulse geben.
01:15:30: Das macht eine KI nicht.
01:15:31: Also die KI wird fleißig das tun, was du ihr sagst.
01:15:34: Sie wird ja auch berichten.
01:15:36: Aber sie ist kein Impulsgeber.
01:15:38: Also sie sagt nicht, wie ich vorhin gesagt habe, hey, jetzt kommt ein Schneesturm.
01:15:43: Jetzt müssen wir alles anders machen.
01:15:46: Oder ich hab eine Idee.
01:15:48: Ich bin da lang gelaufen.
01:15:49: Ich hab das gesehen, lass uns das ausprobieren.
01:15:51: So.
01:15:52: Und
01:15:53: Ein richtig gutes menschliches Team wird eben genau diese Komponente der KI hinzufügen.
01:15:58: Also das eine läuft sauber, erweitert die Fähigkeiten und wir geben Impulse und haben Ideen und bringen das Unternehmen darüber halt weiter.
01:16:05: Was auch immer diese Ideen sind, weiß ich nicht.
01:16:08: Aber das wollte ich gerade nochmal sagen, das ist vielleicht nicht toll, aber es rausgekommen.
01:16:12: Der Impuls durch kreative Menschen, durch Austausch, durch weitermachen, den müssen wir liefern.
01:16:20: Finde ich spannend, was du gerade sagst.
01:16:22: kann man schon vorstellen, dass er Schneesturm könnte.
01:16:24: Die KI wahrscheinlich schon, wenn ich sage, ich speise sie mit den Daten, mit den Wettervorhersagen, dann kriege ich das vielleicht noch hin, dass er das sagt.
01:16:29: Aber ich finde den anderen Punkt ganz spannend, die du gerade gesagt hast.
01:16:32: Ich gehe irgendwo spazieren und sehe was und bekomme da auf eine Idee, dass was vielleicht möglich wäre, was die KI vielleicht nicht hinkriegt, die jetzt nicht automatisch dann nach
01:16:43: Ideen sprudelt oder irgendwas oder ich sage, ok, pass auf, denk mal.
01:16:49: dieses Ding, dieses Thema aus der Richtung und so weiter.
01:16:51: Da siehst du was, dann kann ich sie wieder benutzen, um da was rauszufinden, aber immer zu sagen, ich muss sie ja auch prompten und ich muss sagen, was ist denn der prompt mit einer
01:17:02: neuen Idee?
01:17:03: Mit einer neuen Idee Speise.
01:17:04: Also irgendwo das Neue, das muss ja irgendwo herkommen und man kann nicht jede Funktionalität, die die KI macht, braucht irgendwie Tokens und alles musst du ihr schon in
01:17:15: irgendeiner Form sagen, dass sie anfangen soll.
01:17:17: Du kannst dir eine
01:17:18: Automatismus, eine Regelmäßigkeit, kannst du alles machen.
01:17:22: Aber wer will denn eine KI, die von allein das Geschäftsmodell ändert?
01:17:26: Das hätte ich jetzt auch nicht so gerne.
01:17:27: Nee.
01:17:28: Und deswegen brauchen wir halt dieses Zusammenbringen und diese ganz neuen Ideen.
01:17:33: Und sei es, dass man irgendwie sagt, wir brauchen jetzt in Wohnungen irgendwelche Dinge, die rumfliegen und die Wände neu streichen alle paar Minuten.
01:17:40: Was weiß ich, ob wir das brauchen?
01:17:43: Das ist Blödsinn im Moment, aber das brauchen wir für Menschen.
01:17:45: Das ist die menschliche Aufgabe da.
01:17:48: Ja, spannend.
01:17:49: Finde ich cool.
01:17:50: Super.
01:17:51: Danke, danke, dass du gekommen bist nach einem ganzen Tag Uni.
01:17:57: Ich weiß, dass das nicht einfach ist zuzuhören und dann auch noch mal in den anderen Modus zu gehen und auch noch mal Fragen zu beantworten und so weiter.
01:18:05: Herzlichen Dank.
01:18:05: Freut mich sehr, dass du mich besucht hast hier in München, in dem Podcast-Eckerl hier.
01:18:12: Und ich würde sagen, wir machen jetzt hier das Thema
01:18:18: Entscheidung machen oder nicht machen, wir machen einfach, weil persönliche Beziehung ist das, was der Mensch auch kann.
01:18:23: Wir gehen jetzt einfach nochmal schön was abends essen und lassen den Abend ausklingen bei einer Pizza und einem Bier oder was auch immer.
01:18:31: Mega, machen wir.
01:18:32: Vielen Dank für die Einladung, hat voll viel Spaß gemacht und ich bin ja auch froh, zu mal in München zu sein, dass das so gepasst hat in richtig tolles Studio.
01:18:41: Herzlichen Glückwunsch dazu.
01:18:43: Danke.
01:18:43: Wir werden schauen, dass du jetzt hier mal Studentenleben wieder genießen kannst.
01:18:46: Ja voll, auf jeden Fall.
01:18:49: Komm wir gehen feiern.
01:18:53: Du steigst erst in den nächsten Tagen wieder in den Zug, also Zeit den Rausch auszuschlafen hast du.
01:18:58: Ja, drei Tage waren es.
01:19:02: Not.
01:19:02: Aber wenn du zu Hause bist, musst du den Hühnerstall machen, nicht vergessen.
01:19:06: Ja, genau, dann geht es wieder los.
01:19:10: Sehr gut, super.
01:19:11: dann bis bald.
01:19:12: Bis bald.
01:19:14: Das war die Folge mit Wiebke Apitzsch von AI.IMPACT.
01:19:17: Wie bereits im Intro erwähnt findet ihr sämtliche Infos zu Wiebke und AI.IMPACT in den Show Notes.
01:19:23: Nachdem in zwei Wochen Feiertages wird die nächste Folge wahrscheinlich etwas früher erscheinen, damit ihr über die Feiertage auch neuen Stoff für eure Ohren habt.
01:19:35: Bis dahin alles Liebe und genießt die Adventszeit.
Neuer Kommentar