Dr. Philipp Schlenkhoff - Ist der KI-Hype zu Ende oder geht es jetzt erst richtig los? #85
Shownotes
Hallo und willkommen zu Folge 85, in der ich im Epizentrum der deutschen KI-Forschung, dem DFKI, zu Gast bei Dr. Philipp Schlenkhoff war, einem der Gründer des AI Transformation Institutes. Philipp und ich – wie könnte es an einem solchen Ort anders sein – haben natürlich über KI gesprochen. Und das nicht nur ein bisschen, nein, wir haben richtig ausgeholt und über die Basics, den aktuellen Stand sowie die Herausforderungen bei Schulung und Implementierung gesprochen. Besonders spannend fand ich den Exkurs zum AI Act der EU. Philipp hat mir seine Sicht darauf erklärt und vor allem aufgezeigt, worauf Unternehmen achten müssen. Viele rutschen, ohne es zu wissen, in den Entwicklerstatus und haben dann etliche Compliance-Themen am Hals. Für mich war dieses Interview definitiv eine Lernreise, und ich bin sicher, dass es auch für euch eine sein wird. Viel Spaß mit der neuen Folge!
Mein Gast:
Dr. Philipp Schlenkhoff, LL.M. (LinkedIn)
Feedback & Wunschgäste:
Über mich:
Transkript anzeigen
00:00:01: auf einmal bin ich nicht mehr ein Betreiber, ein Nutzer der Technologie, auf einmal bin ich Anbieter geworden.
00:00:09: Und wenn ich das dann noch mit einem Modell mache, was vielleicht sozusagen ein generativen Modell, was systematische Risiken hat, also was sehr sehr groß ist, dann habe
00:00:15: ich auf einmal die ganzen Themen, sinnvollerweise so ein Open AI in der Bank haben, so Red Teaming, Hardware Security, die muss ich mich dann kümmern.
00:00:29: Herzlich willkommen zu Business Unplugged, dem Treffpunkt für Tradition und Zukunft.
00:00:34: Mein Name ist Johannes Pohl und ich spreche mit UnternehmerInnen, GründerInnen und stillen HeldInnen des Business Alltags, die unsere digitale Zukunft formen.
00:00:43: Business Unplugged ist die Bühne für Visionäre der Digitalisierung und soll Brücken zwischen Start-ups und etablierten Unternehmen bauen.
00:00:50: Hier erhältst du wertvolle Impulse und Inspiration.
00:00:55: Hallo zu Folge 85, in der ich im
00:00:58: Epizentrum der deutschen KI-Forschung, dem DFKI, zu Gast bei Dr.
00:01:03: Philipp Schlenkhoff, einem der Gründer des AI Transformation Institutes.
00:01:08: Philipp und ich, wie kann es anders sein, an einem solchen Ort, haben natürlich über KI gesprochen.
00:01:14: Nicht ein bisschen, nein.
00:01:15: Wir haben mal richtig ausgeholt und von Basics über den aktuellen Stand und die Herausforderungen bezüglich Schulung und Implementierung gesprochen.
00:01:23: Spannend fand ich dann auch den Ausflug.
00:01:26: in den AI Act der EU.
00:01:28: Philipp hat mir seine Sicht darauf erklärt und vor allem worauf Unternehmen aufpassen müssen, denn viele rutschen ohne es zu wissen in den Entwicklerstatus und haben dann
00:01:38: etliche Compliance-Themen an der Backe.
00:01:41: Für mich war das Interview definitiv eine Lernreise und ich kann euch versprechen, das wird es für euch auch.
00:01:47: Viel Spaß mit der neuen
00:01:51: Lieber Philipp, Servus zu Business Unplugged.
00:01:53: Ich freue mich, dass wir uns jetzt seit, ich glaube, mehr als fünf Jahren ist es her, wieder mal treffen und vor allem live sehen, so ohne Kamera und Bildschirm hier am DFKI.
00:02:05: Herzlichen Dank, Johannes.
00:02:06: Vielen Dank, dass du hier bist und dass wir uns ein bisschen über das Thema KI unterhalten können.
00:02:11: Am DFKI und für die, die es nicht kennen, ist, sind wir heute zu Gast beim Deutschen Forschungszentrum für Künstliche Intelligenz.
00:02:19: Du hast es jetzt schon vorweggenommen, Philipp, das hätte ich sonst hier auch noch einmal erwähnt, wofür das die FKI steht.
00:02:28: Und wir werden uns gleich über das Thema KI, also künstliche Intelligenz unterhalten.
00:02:34: Aber zuvor mal ganz kurz noch zu dir.
00:02:36: Du hast ja beruflich, muss man sagen, bisschen pivotiert in deiner Karriere.
00:02:41: Du warst eigentlich im Bereich der Restrukturierung unterwegs.
00:02:46: Sprich dort, wo wir uns auch kennengelernt haben in einer der Beteiligungen von Aurelius, bist aber dann, also wie schon gesagt, zum Entreprenneur pivotiert mit Fokus KI und hast
00:02:59: Anfang 2023 das AI Transformation Institute mitgegründet und da möchte ich heute Chance nutzen, dass wir gemeinsam ein bisschen über das Thema KI sprechen, wo stehen wir in der
00:03:14: Gesellschaft.
00:03:15: Was kann KI tatsächlich?
00:03:17: Ist es noch ein Hype oder sind wir schon vorbei?
00:03:20: Wohin geht die Reise und so weiter und so fort?
00:03:22: Bevor wir da aber tiefer einsteigen, möchte ich gern mit dir die AB-Fragen durchgehen, die ich mit allen meinen Interviewpartnerinnen durchgehe.
00:03:34: Du kennst das AB-Spiel?
00:03:36: Ich bin neugierig.
00:03:37: Also ich stelle eine Frage mit zwei möglichen Antworten und du entscheidest dich für eine.
00:03:44: Also wenn ich jetzt sage,
00:03:45: Berlin oder München?
00:03:47: Kapiert.
00:03:48: Keine Antwort ist nötig.
00:03:52: Verstanden.
00:03:53: Gut, dann starten wir Bildung online oder offline.
00:04:00: Das ist aber wirklich schwierig.
00:04:05: besser ist immer offline, ja von Mensch zu Mensch.
00:04:09: Okay automatisierte oder menschliche Entscheidungsfindung?
00:04:15: Also grundsätzlich ist das immer hybrid.
00:04:18: Aber am Ende des Tages muss der Mensch entscheiden.
00:04:21: Stärkere Regulierung oder mehr Freiheiten für Unternehmen?
00:04:26: Ganz klar, mehr Freiheiten für Unternehmen.
00:04:30: Vollkommener Schutz persönlicher Daten oder weniger Datenschutz zur Wahrung der Sicherheit und des Wohls der Allgemeinheit?
00:04:42: Das sind alles Themen, wir als Gesellschaft einen Kompromiss finden müssen.
00:04:47: Das Pendel ist zurzeit ein bisschen in Richtung sehr Datenschutz ausgeschlagen und das vermindert einfach sozusagen oder ermöglicht wirklich sinnvolle Anwendungsfälle und aus
00:04:58: meiner Sicht aktuell eher weniger Datenschutz, sondern mehr Datennutzung.
00:05:05: Last but not least, Web-Meetings oder persönliche Treffen?
00:05:08: Ja, ganz klar persönliche Treffen.
00:05:12: Du hast jetzt einen Punkt, gerne noch mal tiefer eingehen Das Thema Bildung online oder offline.
00:05:17: Du hast dich für offline entschieden.
00:05:19: Wieso?
00:05:21: Wie lernen wir?
00:05:23: Das assoziieren wir ganz häufig, wenn wir in unsere Schulzeit zurück erinnern, mit den Personen, die uns das beigebracht haben.
00:05:30: Daran können wir uns erinnern.
00:05:32: Und das ist, glaube ich, ganz wichtiger Punkt.
00:05:34: kann man alles auch online machen, live.
00:05:38: Funktioniert aus meiner Sicht aber nicht so gut.
00:05:40: Auf anderen Seite hat natürlich online wahnsinnig viele andere Vorteile.
00:05:45: Distanz, muss irgendwo hinreisen.
00:05:47: Insofern besser ist es schon live vor Ort, funktioniert aber auch.
00:05:54: Die anderen Fragen, glaube ich, gehen wir im Laufe der Zeit eh noch bisschen tiefer drauf ein.
00:05:58: Dann lassen wir uns doch jetzt gleich ins Eingemachte gehen.
00:06:01: Ich habe es bereits erwähnt, dass du das AI Transformation Institute mitgegründet hast.
00:06:07: Du quasi pivotiert bist von der Restrukturierung Richtung KI und Entrepreneurship.
00:06:12: Wie kam es eigentlich dazu und was bietet ihr dann im Detail an?
00:06:17: Also wie kam es ganz ursprünglich dazu, du hast ja vorhin schon gesagt, ich war Geschäftsführer in einem
00:06:23: Unternehmen eines Private Equity Houses und irgendwann habe ich für mich gesagt...
00:06:28: und habe dann über den persönlichen Kontakt Hans Utsko weit kennengelernt, einer so der ja Gründungsvater, Väter der KI in Deutschland, kann man glaube ich schon so sagen, der
00:06:39: damals ein Spin-off aus dem deutschen Forschungszentrum für Künstliche Intelligenz gemacht hat und wie das manchmal bei Technologen oder bei Wissenschaftlern so ist, eine tolle
00:06:51: Technologie hat, aber so bisschen die Frage, welches Problem löse ich damit, das war noch nicht so ganz klar und ich fand
00:06:57: Die Technologie war wirklich spannend.
00:06:58: Ich habe die Probleme gesehen und dann bin ich da reingegangen, habe da rein investiert und habe das dann auch geleitet und wir konnten dann relativ schnell in der Tat Kunden
00:07:07: dafür gewinnen und das dann letztendlich auch an den strategischen Investor verkaufen.
00:07:13: Dann war die Frage, ich musste noch ein Jahr Post Merger Integration dabei bleiben, dann war die Frage, okay, Chatt GPT, generative KI, was machen wir mit dieser Technologie?
00:07:24: Und wir haben gesagt, naja, also was auf jeden Fall passieren wird, ist, wenn diese Technologie wirklich auf den Arbeitsmarkt treffen wird, wird es einen massiven Aus- und
00:07:32: Weiterbildungsbedarf nach sich ziehen.
00:07:35: Und dann haben wir gesagt, okay, das ist unsere Wette.
00:07:38: Deswegen haben wir das AI Transformation Institut gegründet, den Menschen dabei zu helfen, diese Technologie wirklich sinnvoll für sich einzusetzen.
00:07:46: Und so sind wir losgelaufen.
00:07:48: Und deine Frage zu beantworten, was machen wir?
00:07:51: Das kann man gar nicht so strikt trennen, es immer so bisschen Beratung und Schulung.
00:07:55: Am Anfang hast du meistens in den Unternehmen so einen Beratungsbedarf.
00:07:58: musst erst mal erklären, was kann ich damit machen?
00:08:00: Dann ist es fast schon wieder Schulung.
00:08:02: Und wo fange ich an und wie rolle ich es aus?
00:08:05: Projektbegleitung und welche Use Cases und so weiter und so fort.
00:08:08: Und dann hast du auch ganz schnell ein Schulungsthema, weil am Ende des Tages willst du ja die Technologie nicht nur in die Führungsebene kriegen oder in eine Stabsstelle im
00:08:18: Unternehmen, sondern du willst die Technologie ja
00:08:21: dahin bringen, sie was bewirkt.
00:08:22: Und das sind am Ende des Tages die Mitarbeiter, die im Unternehmen in und an den Prozessen selber arbeiten.
00:08:29: Und das ist sozusagen unser Ziel, dass wir die Kompetenz dahin kriegen, wo sie wirklich was bewirken kann.
00:08:34: Wie unterscheidet ihr euch jetzt als AI Transformation Institute von anderen Schulungsanbietern?
00:08:40: Es gibt ja ganz viele am Markt.
00:08:42: Vielleicht jetzt nicht nur rein Fokus auf KI, aber was macht ihr anders?
00:08:48: Also wir haben uns die, als wir gestartet sind, gab es zu dem Thema KI noch gar nicht so viele Angebote.
00:08:53: Wir haben uns angeschaut, was gibt es da draußen und wie würden wir eigentlich so eine Schulung machen wollen, wenn wir sozusagen unsere eigenen Kunden werden.
00:09:05: Und haben uns dann umgeschaut, haben auch ein paar Schulungen selber gemacht, eher so in den USA und haben uns da dann sozusagen rausgegriffen, was wir gut fanden, was wir nicht
00:09:13: so gut fanden, haben uns dann natürlich auch didaktische Unterstützung geholt.
00:09:17: und haben dann aus unserer Sicht eine gute Mischung aus Theorie und Praxis auf die Straße gebracht und bislang kriegen wir eigentlich immer sehr, sehr gutes Feedback auf unsere
00:09:25: Formate.
00:09:27: Dann lass uns doch gleich mal zum Anfang gehen.
00:09:30: Ihr macht KI, es gab auch jetzt nicht zu viele, die in dem Bereich unterwegs waren und ihr habt so einen Fokus auf künstliche Intelligenz.
00:09:40: Was ist denn aus deiner Sicht künstliche Intelligenz und was ist es nicht?
00:09:47: Ja, das ist natürlich eine hochspannende Frage.
00:09:50: fragst du sozusagen hier auf dem Flur des DFKI's, fünf Leute, zu was ist eigentlich KI, da kriegst du sechs Antworten.
00:09:57: Und da gibt natürlich ganz viele verschiedene Technologien, die unter künstliche Intelligenz zusammengefasst werden.
00:10:03: Was aus unserer Sicht die einzig Richtige ist, ist sozusagen, das war Elaine Ritsch, die hat irgendwann mal gesagt, naja, künstliche Intelligenz ist eigentlich die Kunst einer
00:10:12: Maschine, das beizubringen, was ein Mensch im Moment noch besser kann.
00:10:17: Und das ändert sich im Zeitablauf.
00:10:20: Vor paar Jahrzehnten, so Richtung Postleitzahlen, war es ein Riesenthema, eine Acht als eine Acht zu erkennen.
00:10:26: War damals künstliche Intelligenz.
00:10:28: Würde man heute, das ist ein OCA-Problem, eher sozusagen Fachbereich der Informatik, würde man gar nicht mehr so als künstliche Intelligenz auffassen.
00:10:34: Und genauso muss man es betrachten.
00:10:36: KI ist sozusagen die Speerspitze der Informatik, wenn man so will.
00:10:40: die beschäftigen sich mit verschiedenen Themen, die dann sozusagen irgendwann zu Fachbereichen der Informatik werden.
00:10:46: Insofern ändert sich das im Zeitablauf richtig an der Technologie sozusagen festhalten kann man.
00:10:52: unserer Sicht kann man das gar nicht wirklich definieren.
00:10:56: Was aber ganz wichtig ist, ist es grundsätzlich ein probabilistisches System.
00:10:59: Es basiert auf Wahrscheinlichkeiten.
00:11:02: Und das muss man immer im Hinterkopf behalten.
00:11:04: In der KI gibt es eben keine 100 Prozent.
00:11:07: Da gibt es, ich komme vielleicht sehr schnell auf 80 Prozent, dann auf 95 Prozent zu kommen wird es relativ teuer, aber die 100 Prozent
00:11:14: die werde ich nicht erreichen und das ist in allen Anwendungsstellen, die man sich anschaut, ist extrem wichtig.
00:11:21: Also du sagst, es ist, sag ich mal immer, im Wandel der Zeit ändert sich das, was jetzt unter KI zu verstehen ist.
00:11:31: Wo stehen wir aktuell?
00:11:32: Was ist der aktuelle Stand dann, die Speerspitze?
00:11:36: Ja, also das ist die, also ja, so steht, chat GPT, generative pretrained
00:11:42: Transformer, also der generative, kann man es generieren, sozusagen vortrainierte Transformer.
00:11:48: Und was ist dieser Transformer?
00:11:50: Er ist ja eigentlich ein Kinderspielzeug.
00:11:51: Ich weiß nicht, hast du da früher mitgespielt?
00:11:53: Mit Transformern tatsächlich nicht, aber ich kenne sie ja.
00:11:57: Also es gab auf jeden Fall eine Gruppe bei Google, die sich mit neuen Architekturen von neuronalen Netzen beschäftigt hat.
00:12:04: Und Teil dieser Gruppe war eben auch der Sohn von Hans-Ozgoreit.
00:12:08: Erste Spin-Off hier am DFKI, der sozusagen
00:12:11: diese Architektur mitentwickelt hat und das Gerücht geht dass er als Kind einfach so gerne mit Transformern gespielt hat und dass sie das deswegen in Klassennamen für diese
00:12:21: Technologie fanden.
00:12:22: Und dann haben die das veröffentlicht und auf der Basis, auf dieser Transformer-Architektur-Basis ist dann JetGPT entstanden und alle anderen generativen KI,
00:12:32: die da so im Umlauf sind.
00:12:35: da ist natürlich gerade die Frage, was ist das aktuellste Modell, wer kann was?
00:12:41: die ganzen Themen, also da passiert ja gerade wahnsinnig viel, da kann man quasi alle zwei Wochen kommt ein neues Thema raus, da ist sehr viel Bewegung drin.
00:12:51: Und wenn du jetzt in einer Schulung bist und dich fragst, was macht denn jetzt ein Transformer tatsächlich?
00:13:00: Wie funktioniert das?
00:13:02: Wie kannst du das einfach oder wie erklärst du einer Person das einfach und
00:13:08: so dass es leicht begreiflich ist oder verständlich wird.
00:13:12: Ja, also da ist ganz grundsätzlich wichtig, wenn man so ein Sprachmodell in der Transformarchitektur sich betrachtet, ist es im Prinzip die Wahrscheinlichkeit fürs
00:13:20: nächste Wort.
00:13:22: Und das ist, wenn man das einmal verstanden hat, ist das, wird auch gleich klar, warum ich den Dingern so viel Kontext geben muss beim Prompt, damit ein vernünftiges Ergebnis bei
00:13:31: rumkommt.
00:13:32: Denn die Wahrscheinlichkeit fürs nächste Wort braucht einfach Kontext.
00:13:34: Wenn ich dir jetzt sage, ja, da ist die Bank.
00:13:38: fragst du dich, naja, okay, welche Bank meint er jetzt?
00:13:40: Wenn ich dir sage, du, langer Spaziergang, herrlicher Park, da ist die Bank, dann weißt du aus dem Kontext, welche Bank ich meine.
00:13:48: Wenn ich aber sage, ja, Berlin, lass uns Mittagessen gehen, keiner nimmt hier Bargeld, ich hab nix mehr, da ist die Bank, dann weißt du wieder, der meint jetzt eine ganz andere
00:13:58: Bank.
00:13:59: Und genauso ist das bei diesen Modellen auch, die brauchen quasi den ganzen Kontext vorher, diese sozusagen Wörter oder...
00:14:08: in der Technologie Spat Tokens, die Wahrscheinlichkeit des nächsten Wortes, die Berechnung für die Wahrscheinlichkeit des nächsten Wortes mit einzubeziehen.
00:14:16: Und so kann man sich das eigentlich relativ gut erklären, wo dann auch die Probleme mit dieser Technologie liegen.
00:14:21: Du sprichst es gerade an die Probleme mit der Technologie, es schwirrt ja immer wieder herum, die Halluzinieren, die tun dies und jenes.
00:14:31: Halluzination ist ein...
00:14:33: Phänomen oder nicht Phänomen, sondern das ist einfach das was gegeben ist oder das ist ja keine Halluzination eigentlich in dem Sinn, sondern man muss wissen, dass da jetzt nichts
00:14:42: falsches ist eigentlich, sondern nur die Art und Weise wie dieser Algorithmus funktioniert oder?
00:14:48: Ja da hast du vollkommen recht.
00:14:50: Ein Kollege von uns, der Joshua Burkhardt, da auch was zu geschrieben.
00:14:53: Das ist auch ein paar Tageszeitungen gekommen, aber dieses Thema Halluzinieren, hat sich jetzt eingebürgert.
00:14:58: Eigentlich ist ein ganz falsches Begriff.
00:15:00: Ganz falscher Begriff, denn diese Sprachmodelle
00:15:03: Die sind ja nicht krank und wir müssen sie heilen, sondern die funktionieren so.
00:15:09: Wenn wir uns jetzt vorstellen, die Wahrscheinlichkeit für das nächste Wort, und die höchste Wahrscheinlichkeit für das nächste Wort ist 70%, dann liege ich halt zu 30 %
00:15:18: daneben.
00:15:19: Und wenn die Wahrscheinlichkeit auf Basis meines Kontextes die höchste Wahrscheinlichkeit für das nächste Wort vielleicht nur 20 % ist, dann liege ich halt zu 80 % daneben.
00:15:27: Das klingt aber immer noch gut.
00:15:29: Das heißt, die Dinger sind nicht krank, die funktionieren so.
00:15:33: Und wenn du jetzt sagen willst, du willst diese Krankheit heilen, wenn die so funktionieren, wird das schwierig.
00:15:38: Dass die so funktionieren ist die eine Sache.
00:15:40: Die andere Sache ist, hast du ja auch schon gesagt, der Kontext, mit dem ich die Modelle fütter.
00:15:45: Der hat ja auch ziemlich Einfluss drauf.
00:15:48: Also ich hatte ja auch ein Gespräch mit Elisabeth Laurence, die sehr stark über das Thema oder da haben wir sehr stark über das Thema Bias gesprochen.
00:15:56: Wie siehst du das Thema Bias bei den aktuellen Modellen?
00:16:01: wie man das vielleicht auch umgehen kann oder worauf man aufpassen muss.
00:16:06: Ja, also in der KI geht es ja immer Daten und welche Daten wurden verwendet, solche Modelle zu trainieren.
00:16:11: Und jetzt müssen wir uns vorstellen, wenn ich so ein aktuelles Modell von Google nehme, mit wie vielen Daten wurde es trainiert, sich das so bisschen vorstellen zu können.
00:16:19: Jetzt rechnen wir das mal in die Bibel, jetzt ganz streng Einheitsausgabe.
00:16:25: Und, Jonas, denkst du, wie viele Bibeln sozusagen an Textmaterial sind da reingeflossen?
00:16:33: ziemlich viel trillionen wahrscheinlich also ganz so viel dann doch nicht aber es sind 88 millionen biblen so pimal daumen also ich habe immer auf die fassung an welche die
00:16:46: langfristige altes testament neues testament also also also ich habe ja schon problem das ding einmal durchzulesen jetzt fangen wir an bei 88 millionen biblen daraus
00:17:01: zu sortieren, was ist jetzt ein unguter Bias?
00:17:04: Und da müssen wir uns natürlich darüber unterhalten, was ist jetzt ein guter oder ein unguter Bias?
00:17:09: In der Bibel, ich weiß es jetzt gar nicht mal, aber würde mal sagen, These kommen mehr Männer als Frauen vor.
00:17:15: Zack, hast du einen Bias dann?
00:17:16: Willst du dann die Bibel umschreiben?
00:17:19: Wäre das dann noch richtig?
00:17:20: Also ich muss wissen, dieser Bias ist da und den kriege ich auch nur sehr begrenzt aus den Trainingsdaten raus.
00:17:28: Ich muss einfach damit umgehen können.
00:17:30: Ja, also wenn ich jetzt sage, mach mir ein Bild von einem CEO-Meeting, und da kommen dann nur die Herren, kommen nur alte weiße Männer, ja, ich muss wissen, dass das Ergebnis
00:17:41: kommt, ja, und da kann ich natürlich auch sagen, wenn ich das weiß.
00:17:44: Jetzt mach mir bitte ein Bild von einem C-Level-Meeting, Hälfte Männer, Hälfte Frauen.
00:17:50: Vielleicht auch noch ein paar sozusagen unterschiedliche Ethnien, wenn ich eine Marketing-Abteilung hab, die da sehr darauf erpicht ist.
00:17:56: Und dann habe ich sozusagen immer ein gutes Ergebnis.
00:17:59: Ich muss nur einfach wissen, dass dieser Beiß da ist.
00:18:01: Du kannst den als Modellhersteller versuchen zu reduzieren, aber so ganz rauskrifft er ihn einfach nicht.
00:18:07: Man kann so sagen, wie willst du den Beiß rausnehmen?
00:18:12: Weil am Ende des Tages, Frauen sind tatsächlich unterrepräsentiert in C-Level Positionen.
00:18:19: Die sind daher auch auf Bildern von C-Level Meetings unterrepräsentiert.
00:18:24: Und damit zeigen uns diese Modelle nicht die Welt, wie wir sie gerne hätten, sondern eher die Welt, wie sie den Trainingsdaten repräsentiert ist.
00:18:34: Und da ist natürlich wieder die Frage, wenn ich jetzt versuche eine komplett BIOS-freie Welt zu schaffen, dann müssen wir uns darüber antworten, was ist denn eine BIOS-freie
00:18:42: Welt?
00:18:42: Geht gar nicht.
00:18:43: Das heißt, in irgendeine Richtung werde ich immer einen BIOS drin haben, ich muss das wissen und das muss ich bei der Anwendung berücksichtigen.
00:18:49: Und da eben sozusagen gegen anpompt.
00:18:52: Das bedeutet aber, ich muss den BIOS kennen.
00:18:56: Ich muss sensibilisiert sein, dass er da ist.
00:18:59: Ich muss einfach wissen, dass so Problem sein kann und muss meine Ergebnisse daraufhin analysieren.
00:19:05: Aber das würde ja auch bedeuten, wenn ein Bios da ist, macht der Bios auch was aus, wenn der in eine gewisse Richtung geht?
00:19:12: Kriege ich eine gewisse Richtung mit dem richtigen Prompt noch wieder raus?
00:19:17: Oder bleibt der mir auch, ich, nehmen wir das Beispiel Sea-Level-Meeting,
00:19:22: Männer, Frauen, unterschiedliche Ethnien etc.
00:19:27: pp.
00:19:28: Kommt dann das raus, was ich prompte, wenn ein bestimmter Bios da ist oder kann da auch was rauskommen, was ich sage, ok gut, ich habe jetzt nach bestem Wissen und Gewissen mit
00:19:39: dem Bios gearbeitet, suche zu prompten, aber der ist einfach stärker.
00:19:44: Also ich muss natürlich sozusagen einfach natürliche Intelligenz, ich muss die Ergebnisse überprüfen, mir anschauen.
00:19:49: Das was ich gerade beschrieben habe hat Google auch probiert.
00:19:51: Die haben gesagt, mach mir nicht nur alte weiße Männer, sondern Männer und Frauen.
00:19:56: Mach mir nicht immer nur alte weiße Männer, sondern sozusagen bringe ein paar unterschiedliche Ethnien rein.
00:20:00: Und das gab einen riesen Skandal.
00:20:02: Das war dann der farbige Wehrmachtsoldat, der dann auf einmal aufgetauscht ist, weil es eben nicht immer nur ein alter weißer Mann war.
00:20:08: Und da kann man nur sagen, das Gegenteil von gut ist gut gemeint.
00:20:11: Ich kann versuchen, sowas rauszunehmen, aber ich muss mir die Ergebnisse trotzdem anschauen, wenn es in dem Bereich ein kritischer Bereich ist.
00:20:18: Und jetzt kommen wir schon mal ein bisschen auf den AI-Act, das hat der Gesetzgeber auch eigentlich gar nicht so schlecht berücksichtigt.
00:20:25: Da möchte ich gerne später nochmal drüber sprechen über den AI-Act, lass uns den mal hinten anstellen.
00:20:34: Wie siehst du zum Thema BIOS?
00:20:36: dem Gespräch mit der Elisabeth Lorange kam auch vor, dass sie sagt, wenn wir immer künstlich generierte Daten auch nutzen, den Algorithmus zu trainieren,
00:20:46: so eine Art Habsburger Effekt auf.
00:20:49: Wie siehst du dieses Thema?
00:20:53: Wie kann man dem entgegenwirken oder wirken auch aktuell die großen Anbieter von diesen Modellen dem schon entgegen?
00:21:00: Ja, also da kann ich dir aus meinem persönlichen Kontext wirklich ganz aktuell ein Beispiel geben.
00:21:05: Meine Frau ist Controllerin und die hat jetzt bei LinkedIn gerade vor drei Tagen eine Anfrage gekriegt von einem Datenanotierungsunternehmen, ob sie nicht Lust hätte, was
00:21:14: nebenbei zu verdienen und als Controllerin gewisse Use Cases oder bzw.
00:21:20: gewisse wie sie Daten analysieren würde sozusagen als Trainingsdaten zu annotieren.
00:21:25: Das heißt, es werden natürlich viele Aufgaben durch diese Modelle überflüssig, aber es wird und die
00:21:33: Das Problem was du gerade beschrieben hast, du trainierst auf deinen Daten die du garniert hast und irgendwann geht die Performance runter, das ist schon so.
00:21:40: Die Modellhersteller sind natürlich nicht blöde, die wissen das.
00:21:44: Daher wird es auch in Zukunft viele Leute geben, einfach sozusagen wirklich Content erzeugen.
00:21:48: Nicht Content zu erzeugen, sondern Trainingsdaten zu schaffen.
00:21:52: Aktuell ist das Thema seit ungefähr einem Jahr, dass wahnsinnig viele Fachexperten angeboren werden.
00:21:59: Also nicht irgendwelche günstigen Clickworker, sondern wirklich Fachexperten, die dann sozusagen
00:22:03: für die Modellhersteller zum Beispiel komplexe Probleme in ihre Einzel, Lösungsschritte zerlegen und diese dann lösen, damit diese Modelle das auch besser können.
00:22:13: Jetzt sind wir schon mitten drinnen zum Thema, wie kann ich denn die Modelle verbessern?
00:22:18: Jetzt hast du ein Beispiel gebracht, gibt es auch noch andere Themen?
00:22:21: Ja, Stichwort 88 Millionen Bibeln, mehr Daten, bessere Daten.
00:22:25: Das ist natürlich was, wenn ich einen sehr langen Text reinpompte in einer
00:22:29: in dem Modell was umsonst ist, ist das die alte Regel, wenn das Produkt nicht kostet, bist du das Produkt bzw.
00:22:35: deine Daten.
00:22:36: Da muss man natürlich schon aufpassen.
00:22:37: Und das passiert auch, wenn ich zum Beispiel meine Unternehmensstrategie in so Modell reinpompte und die Antwort gefällt mir nicht und ich sage, das ist aber eine blöde
00:22:46: Antwort, mach mal eher in die Richtung.
00:22:47: Wenn man so will, kommt das dann bei den Modellherstellern in so ein Bearbeitungsstapel, denn diese sozusagen, wird die Konversation korrigiert, dass sie gut wäre und dann wird
00:22:56: das wieder als Training für eine sinnvolle
00:22:59: ...Konversation genutzt und werden damit die Modelle trainiert.
00:23:02: Und wenn ich aufpasse, ist meine Unternehmensstrategie dann sozusagen ...
00:23:05: ...in das Modell eingeflossen.
00:23:07: Das muss ich einfach vermeiden.
00:23:08: Also wenn ich sozusagen mit ...personenbezogenen und personenbeziehbaren Daten und auch mit ...unternehmenssensitiven Daten arbeite, muss ich einfach in einer sicheren Umgebung
00:23:17: arbeiten.
00:23:18: In den Enterprise Versionen oder eben in einer Umgebung, wo das eben nicht passiert.
00:23:23: Ich habe es am Anfang schon kurz angeteasert.
00:23:26: Thema AI-Hype.
00:23:30: Handelsblatt hat getitelt, der Hype ist vorbei oder so ähnlich.
00:23:36: Wie siehst denn du das ganze Thema?
00:23:38: Sind wir noch im Hype oder sind wir schon am Tipping Point oder sind wir schon am Weg hinunter?
00:23:43: Also das Handelsblatt macht grundsätzlich eine super Berichterstattung.
00:23:46: Also das Team Larissa Holz geht, das macht da wirklich eine richtig gute Arbeit.
00:23:49: Warum das dann so, das war Mitte Juli glaube ich, dass die diesen sozusagen das gebracht haben, warum die das gesagt haben, ich verstehe es nicht so ganz.
00:23:59: Denn aus meiner Sicht, natürlich ist es ein Hype, war beim Internet auch so, dort kommt Bubble und die ist geplatzt, aber am Ende des Tages hat das Internet auch in Verbindung
00:24:08: mit dem Smartphone unser tägliches Leben schon massiv geändert.
00:24:11: Und genauso wird es mit dieser Technologie passieren.
00:24:13: Die Frage ist eigentlich, sind wir schon auf dem Höhepunkt des Hypes oder im Abschwung oder gibt es so eine kleine Hype Extension, wenn man so will, also sind noch nicht ganz
00:24:21: da.
00:24:22: Und dazu muss man wissen, sozusagen die Weiterentwicklung der Modelle, dass da noch wahnsinnig viel passiert.
00:24:30: Und es gibt ein herrliches Video, so circa zwei Monate her, von Eric Schmidt, dem ehemaligen Google CEO, der an der amerikanischen Uni einen kleinen Studenten sozusagen
00:24:40: eine kleine Frage-Anfot-Runde gegeben hat.
00:24:43: Und der sagte eben auch, ja, bis vor einem halben Jahr hätte er gedacht, wir befinden uns sozusagen auf so Plateau der Leistungsfähigkeit.
00:24:48: Das geht jetzt erstmal nicht mehr weiter.
00:24:50: Und dann sagt er, naja...
00:24:52: Mittlerweile sieht das anders.
00:24:53: Basis von noch mehr Compute, auch vor allem von mehr Trainingsdaten wird es schon noch Modelle geben, ein viel größeres Kontext-Window haben.
00:25:03: Die viel mehr Kontext, mehr Kontext, bessere Wahrscheinlichkeit fürs nächste Wort, verdauen können.
00:25:09: Das Thema Agenten und Text-to-Action wird ein Riesenthema.
00:25:12: Da munkelt man auch, dass OpenAI vor Weihnachten vielleicht sogar noch was rausbringt.
00:25:17: Also nach dem Motto nicht nur
00:25:20: Schreibe mir die email sondern sende sie auch oder sozusagen Gabsel diesen hochs mit dem mit dem rabbit dass du bestell mir eine pizza bei mit einer pizza beim lokalen pizza
00:25:33: webshop Dass diese modelle dann auch verstehen wie man so eine so eine website ist also dass dann nicht mehr juix juaise oder ein mxmi Optimiert werden dass die dann sozusagen
00:25:43: wenn die pizza bestellung ausführen da sind wir gar nicht mehr so weit von weg und das wird natürlich noch mal ein gigantisches potenzial
00:25:50: Das ist jetzt ganz spannend.
00:25:52: Wie AI aufgekommen ist, am Anfang hieß es ja immer so, die Tätigkeiten der Blue Color Worker sind die, die irgendwie eingespart werden durch Automatisierung und künstliche
00:26:02: Intelligenz.
00:26:02: Wie dann künstliche Intelligenz aufgekommen ist, war so irgendwie so die Eingebung, es sind eher die Tätigkeiten der White Color Mitarbeiter, die ja hier betroffen sind, vor
00:26:14: allem wie dann JGPD aufkam und so weiter und so fort.
00:26:19: Und jetzt wenn du sagen, es ist noch, sag ich mal, kontextmäßig Text-to-Action und so weiter und so fort, wird es da ja bei White Color noch mehr werden.
00:26:31: Wie sieht es denn zum Thema Blue Color?
00:26:33: Siehst du da auch was kommen?
00:26:37: Ja, auf jeden Fall.
00:26:38: das ist, ja Thema White Color ist natürlich, ist...
00:26:42: gigantisch ja und vor allem das war ja nie so dass es wirklich so dem white-collar in kragen ging das ist jetzt neu ja aber wenn man diese technologie mit robotik verbindet und
00:26:50: deswegen sehen wir ja auch gerade open ai wir sehen nvidia die selber mit robotern experimentieren wir sehen Elon Musk, da wahnsinnig viel macht.
00:26:59: du diese technologie mit robotik verbindest kommst du sehr schnell auf ergebnisse die vorher gar nicht menschendenkbar waren und ich bei bmw in spättenberg
00:27:10: gibt Figure-O2 von OpenAI, experimentieren die schon mit dem Einsatz dieses Roboters am Band rum.
00:27:16: Ein humanoider Roboter, der wirklich relativ viel kann und das wird eine massive Entwicklung geben und das wird extrem spannend werden.
00:27:24: Woin Sie es gehen in dem Bereich?
00:27:27: Wie weit werden die, sag mal, Tätigkeiten übernehmen und vielleicht, wo werden sie es nicht?
00:27:35: Das geht jetzt natürlich in den Bereich der Spekulation.
00:27:37: Ich habe mit dem Ding nicht gearbeitet.
00:27:38: Ich weiß nicht wirklich, was er kann.
00:27:39: Aber die These steht schon im Raum, dass das eher einfache Maschinenbestückung oder einfache Tätigkeiten sind, wo ich das dann einsetzen kann.
00:27:49: Vielleicht nicht die komplexesten Aufgaben.
00:27:52: Aber das wird auch die Welt, wie so ein Workshop aussieht, das wird es massiv verändern.
00:28:01: Das wäre spannend, wenn wir da tiefer einsteigen.
00:28:03: Das wir aber dann im Nachgang machen, weil ich hatte erst das Gespräch mit Max Steinhoff von Streiser, wo wir auch beide der Meinung sind, dass der Mensch definitiv nicht
00:28:13: verschwinden wird vom Shopfloor, aber die Tätigkeiten sich ändern werden und die Aufgabengebiete sich ändern werden.
00:28:21: Die Frage ist auch, wie sich dann, du weißt ja, ich komme aus der Produktionsecke, was das dann tatsächlich auch für die Prozesse bedeutet, welche Auswirkungen das...
00:28:30: was die Prozesse haben wird.
00:28:32: Also eins ist klar, wird sich wahnsinnig viel ändern.
00:28:34: Ich bin ja Kind des Ruhrgebiets, ja, und da liegt mir immer der Spruch auf den Lippen, ja, der Tierpfleger vom Gobenpony, der fand das mit der Dampfmaschine auch nicht so dürfter.
00:28:42: Wenn er dann aber umgelernt hat in der Schlosserei auf Dampfmaschinenführer, hat hinterher mehr verdient.
00:28:47: Und das wird eigentlich die ganz große Herausforderung.
00:28:49: Deswegen haben wir auch das Air Transformation Institute gegründet, weil wir müssen die Leute ja mitnehmen, wir müssen sie umschulen.
00:28:54: Und der Kollege Ajocha Burkhardt, ist in der Presse relativ viel unterwegs, hat neuesten Post oder so ein Fernsehinterview gemacht, wo er sagt, naja, auch der mittelmäßige
00:29:02: Investmentbanker, auch den werden wir umschulen müssen.
00:29:04: Und das war natürlich, habe ich erstmal sozusagen innerlich schallend gelacht, ja, aber da ist was war es dran.
00:29:11: Dann lass uns doch gleich einmal auf unsere Gesellschaft kommen oder auf die Unternehmer, wenn du schon sagst, wen wir alle umschulen müssen.
00:29:16: Wo stehen wir denn als Gesellschaft bzw.
00:29:19: auch die Unternehmen im Bezug auf AI, wenn wir so...
00:29:24: Beide haben ja im Beratungshintergrund auch das Thema Reifegradmodell hernehmen.
00:29:30: Wo stehen wir?
00:29:31: Was können wir?
00:29:36: ich bin jetzt versucht zu sagen, still day one.
00:29:40: Auf der anderen Seite sehen wir auch teilweise Unternehmen, wo wir dann sind, aber das ist wieder so bisschen Adverselektion.
00:29:46: Da wo wir sind, die beschäftigen sich mit dem Thema, da wo wir nicht sind, die vielleicht nicht.
00:29:50: Aber da gibt es auch durchaus mittelständische Unternehmen in der Größe, wo man sich denkt,
00:29:53: Boah, sind die weit.
00:29:54: Das hätte ich jetzt nicht erwartet.
00:29:56: Ganz grundsätzlich kann man schon sagen, dass viele wirklich noch am Tag einstehen.
00:30:03: dass das jetzt eine dringende Aufgabe wird, sich mit dieser Technologie zu beschäftigen.
00:30:09: Denn die Arbeiten werden sich verändern.
00:30:12: Und wenn ich das einfach nur über mich ergehen lasse, das ist nicht gut.
00:30:15: Ich muss das verstehen, was da passiert.
00:30:17: Und ich muss das aktiv in eine richtige Richtung steuern.
00:30:19: Und vor allem, muss die Menschen mitnehmen.
00:30:21: Weil das ist eigentlich die ganz große Herausforderung bei dieser Technologie.
00:30:25: Wenn wir so ein Unternehmen kommen, ist das Management, die Technologie ist so ein bisschen Aladins Wunderlampe, ich rubbel ein bisschen dran und alle meine Probleme sind
00:30:32: gelöst.
00:30:33: Das ist natürlich Quatsch.
00:30:35: Und für die Mitarbeiter ist das dann eher die Büchse der Pandora.
00:30:38: Da steigt der Terminator raus und der sagt I want your job.
00:30:43: Die haben da gar keine Lust, mich sich mit zu beschäftigen, weil sie vielleicht nicht technologieaffin sind.
00:30:48: Oder weil sie auch sagen, wenn ich mich damit beschäftige, vielleicht wird mein Job ja obsolet.
00:30:52: Und das sind wirklich ernstzunehmende Befürchtungen und mit denen müssen wir umgehen.
00:30:58: Denn nur wenn wir diese Transformation schaffen, wir sozusagen die Möglichkeiten, die diese Technologie verspricht, auch nutzen.
00:31:07: Und da machen wir immer zwei Dinge.
00:31:09: Das erste ist immer zu sagen, entmissifiziert.
00:31:12: Wir müssen erklären, wie diese Technologie im Grundsatz funktioniert.
00:31:15: Das ist ein bisschen wie bei meinen Kindern.
00:31:16: Ja, mach ich nachts die Tür zu, ist dunkel, haben wir Angst, lasse ich die Tür so ein bisschen auf Eck.
00:31:21: Kommt ein bisschen Licht rein, dann ist alles gut.
00:31:23: Und genauso ist der Mensch halt.
00:31:24: Wir möchten schon ein bisschen verstehen, warum gewisse Dinge wie funktionieren.
00:31:28: Und dann ist in der Tat meistens so dieser Endmystifizierung-Effekt, naja, es ist auch nur Technologie, eine Technologie wie jeder andere.
00:31:34: Kann ich für die gewissen Dinge einsetzen, funktioniert so und so, deswegen kann ich sie für gewisse Dinge nicht einsetzen.
00:31:39: Und dann ist schon mal so bisschen so eine Grundentspannung drin.
00:31:44: Und das andere ist, was ganz wichtig ist, wenn ich dann die Technologie in so Unternehmen reinbringe, eigentlich nichts Neues.
00:31:50: Das in jedem Change-Projekt so.
00:31:51: Ich habe vielleicht ein oder zwei Pfeile im Köcher, Stichwort Use-Case.
00:31:55: Also ich kann ein oder zwei Sachen in die Organisation reintragen.
00:32:00: Und wenn die beide nicht funktionieren, dann habe ich keinen dritten Pfeil mehr.
00:32:04: Dann wird die Organisation das ablehnen.
00:32:08: Und deswegen ein Grundsatz in der KI.
00:32:10: Groß denken, think big.
00:32:12: Start Small Iterate Often.
00:32:14: Also Großdenken, Kleinen anfangen, häufig iterieren und dann erstmal mit Use Cases anfangen, die direkt funktionieren, wo die Mitarbeiter direkt eigene Erfahrungen sammeln
00:32:22: und sagen so, ok, das hilft mir tatsächlich.
00:32:25: Ich sag dann immer, das ist euer Freitagnachmittag.
00:32:29: Und wenn sie dann merken, es hilft mir und in gewissen Bereichen funktioniert es, und in gewissen nicht, und es ist aber nie 100 Prozent,
00:32:35: Dann ist auch die Akzeptanz für einen großen Use Case, der mit eigenen Unternehmensdaten gebaut wird, wo eigene Prozesse gebaut werden, viel höher.
00:32:45: Das ist persönlich, ich weiß es nicht, aber der einzige Grund, wie ich mir diesen Handelsblattartikel erklären kann, wo viele große Konzerne reingegangen haben,
00:32:55: reingegangen sind, allerdings Wunderlampe, irrsinnig viel Geld auf den Tisch gelegt haben, große Projekte an der Kernwertschöpfung gestartet haben und gemerkt haben,
00:33:05: Also 80 % kriege ich mit dieser Technologie sehr sehr schnell hin, aber ich brauche, damit ich sie wirklich einsetzen kann, brauche ich halt 97%.
00:33:14: Und die letzten Prozentpunkte an Performanzen sind in der KI immer die allerteuersten und dann funktionieren gewisse Themen nicht, weil ich vielleicht auch meine eigenen Daten
00:33:23: nicht im Griff habe.
00:33:24: Klassische Frage bei uns in Schulungen, wer von euch, welches Unternehmen von euch hat seine Daten im Griff?
00:33:30: meldet sich nie einer und wenn sich dann doch einer meldet, dann sag ich, okay, fang bei euch an, ich will dringend lernen, wie das funktioniert, es hat nämlich keiner, auch ein
00:33:36: Google Adress, es hat keiner seine Daten wirklich im Griff.
00:33:39: Und das ist natürlich dann, wenn ich wirklich eigene Anwendungsfälle baue, ein Problem.
00:33:43: So, was hat das mit dem Artikel zu tun?
00:33:45: Naja, ich hab neulich mit einem CEO gesprochen, der sagte, ich frag meine Mitarbeiter nur noch, ich am Anfang so euphorisch, mittlerweile frag ich nur noch, where's the money?
00:33:52: Ja, das heißt, diese ganzen tollen Ideen, die kommen nicht so wirklich in die Nutzung.
00:33:57: Die bleiben irgendwie in der Pilotphase hängen und dann sozusagen bis sie wirklich ausgerollt werden, das ist halt aufwendig und teuer.
00:34:03: Und deswegen funktioniert das nicht.
00:34:05: Und das könnte ich mir vielleicht vorstellen, dass das so ein bisschen eine Enttäuschung in dem einen oder anderen Unternehmen ist, was dann vielleicht zu diesem
00:34:12: Handelsblattartikel geführt hat.
00:34:14: Aber das ist, wie gesagt, ist reine Spekulation.
00:34:16: Im Gefühl hat die Industrie einfach aus der Vergangenheit nicht gelernt.
00:34:21: Egal, welche Technologie aufkommt, man möchte immer gleich alles sofort, einen großen Sprung.
00:34:25: Und das Thema Mensch.
00:34:27: Alle reden darüber, und das ist immer meine Sache, ich immer sage, alle reden darüber, wie wichtig es ist und wie wichtig der Mensch ist, mitzunehmen.
00:34:35: Und am Ende tut es aber keiner, weil keiner sich vielleicht auch die Zeit nimmt dafür, Menschen noch entsprechend mitzunehmen, weil es ihnen dann immer zu langsam geht.
00:34:44: Das ist doch der alte Klassiker.
00:34:45: Ich führe irgendeine Software im Unternehmen ein.
00:34:47: Alte Grundregel, 50 Prozent der Kosten für die Neuenschaffung und Integration der Software, 50 Prozent für die Schulung der Mitarbeiter.
00:34:54: Hast du schon mal gesehen, dass irgendwo tatsächlich mit 50 % des Geldes für die Schulung und das Omboding der Mitarbeiter ausgegeben wurde?
00:35:02: Ne.
00:35:04: Das ist immer so nach dem Motto, ja passt schon, wird schon gehen.
00:35:07: Das ist genau der Punkt, wenn ich die Menschen nicht mitnehme, dann komme ich bei den Innovatoren und den Early-Doptern, die kriege ich vielleicht noch irgendwie sozusagen
00:35:19: abgeholt, aber die Leute, die nicht so...
00:35:23: digital affin sind und nicht so gerne mit solchen Dingen rumspielen, die es irgendwie spooky finden, die habe ich dann einfach abgehängt und dann kriege ich auch ganz schnell
00:35:31: Widerstand.
00:35:32: Das ist immer so mein Paradebeispiel der Klassiker in so einer Vertriebsorganisation, der 55-jährige Rainmaker.
00:35:39: Der kennt seine Topkunden, ist sozusagen der stärkste Umsatzbringer und auch meistens als Vertriebscharakter sozusagen der Meinungshührer in so einer Organisation der Informelle,
00:35:50: wenn der sagt
00:35:51: Nach dem ersten Mal oder nach dem zweiten Pfeil, du ganz ehrlich, es funktioniert doch alles nicht.
00:35:55: Was will er?
00:35:56: Ja, dann habe ich verloren.
00:35:59: Dann kriege ich das nicht an die Leute, die vielleicht noch unentschlossen sind.
00:36:03: Das heißt, ich muss wirklich die Menschen mitnehmen, ich muss Dinge machen, die direkt funktionieren.
00:36:07: Start small.
00:36:09: Und das ist sozusagen, ja, Management Allmacht Fantasien.
00:36:11: Ich weiß nicht, wo es liegt.
00:36:12: Immer direkt die große Lösung und jetzt packen wir es an und jetzt geht es richtig los.
00:36:16: Damit die Zuhörerinnen sich da ein bisschen was vorstellen können, wenn du sagst, start small.
00:36:20: Was ist klein in dem Zusammenhang?
00:36:23: Was ist Kleinstaaten?
00:36:25: Geht es nur darum, ich sage, ich baue mir einen Bot, der mir meine E-Mails noch analysiert oder die E-Mails kurz zusammenfasst?
00:36:36: was ist wirklich klein?
00:36:38: Ja, das ist wie in der KI, ist jetzt sozusagen Hard-Kontext bezogen.
00:36:42: Was ist klein?
00:36:44: Aber zum Beispiel, zum Beispiel in einer
00:36:50: In der Marketing Abteilung, was ist klein, E-Mail an die Kunden formulieren.
00:36:56: Verschiedene Personas sich überlegen mit Hilfe der KI und dann sozusagen an diese drei Personas drei unterschiedliche E-Mails formulieren.
00:37:05: Das erstmal zu nutzen, zu verstehen, wie man grundsätzlich promptet und das dann auch tatsächlich in den einst eigenen Ansätzen zu nutzen, also die sozusagen inkrementellen
00:37:15: Effizienzgewinne.
00:37:16: wirklich erstmal anfängt diese Technologie zu nutzen, man den Zugang hat, dass man vielleicht auch weiß, was man nicht tun sollte, dass man dann eventuell in einer sicheren
00:37:25: Umgebung arbeitet, aber dass man dann einfach mal anfängt, das für die täglichen Dinge, die man vor sich her prokrastiniert.
00:37:32: Aktuell hier das Thema, was ich immer hasse, ist das Weihnachtskarten mit persönlicher Widmung.
00:37:43: Keine schreiben.
00:37:47: Definitiv, muss da eine Datensumgriff haben, aber das ist eine super Inspiration, da sozusagen bisschen individualisiert die Texte rauszubringen, wo du dir sonst vielleicht
00:37:56: sozusagen, ja, kommst du erst Mitte Januar an, weil du es vorher prokrastiniert hast.
00:38:01: Und das ist ein echter Quick-Win.
00:38:02: Okay, also das ist sozusagen small.
00:38:05: Jetzt haben wir schon darüber gesprochen, Menschen mitnehmen, wie man dran gehen kann.
00:38:09: Du hast auch vorhin erwähnt, wie stehen oder viele stehen noch
00:38:13: Schritt 1.
00:38:18: Ist das jetzt in Deutschland so oder ist es europaweit oder gibt es auch Länder wo du sagst, die sind gefühlt oder das was wir kennenlernen aufgrund dessen mit wem wir
00:38:28: sprechen, da ist die Industrie schon weiter als in Deutschland.
00:38:32: Also habe ich natürlich keinen allumfassenden Überblick und es kommt natürlich sehr sehr stark auf die Industrie an oder den Bereich Marketing ist anders als Fertigung.
00:38:41: aber ich habe zum Beispiel im Sommer war ich auf so Symposium von so einer amerikanischen
00:38:47: Vereinigung von Gewerbeimmobilienmaklern.
00:38:52: Aber das waren dann schon die Top- Immobilienmakler, hier in einem 5-Sterne-Hotel in Berlin sozusagen sich ein bisschen am Hut gehen lassen.
00:38:58: Und zur Vorbereitung war das alles, das sind Amerikaner, die sind schon super weit.
00:39:01: Am Ende des Tages kochen die auch nur mit Wasser.
00:39:05: Drei Viertel von denen hatten sich mit dieser Technologie noch nicht aktiv auseinandergesetzt und das ist drei, vier Monate her.
00:39:13: ich glaube...
00:39:14: Wir sind da in Summe gar nicht so schlecht und nochmal die anderen kochen auch nur mit Wasser.
00:39:20: Die haben die gleichen Themen, die gleiche Angst, die gleichen Berührungsängste.
00:39:25: Sind halt auch Menschen wie wir hier in Deutschland.
00:39:28: Dann lass uns den Schritt jetzt zum AI Act gehen.
00:39:33: Du hast ihn kurz schon erwähnt.
00:39:36: Du hast gesagt, dass es das gar nicht so schlecht macht, das wir vorbesprochen haben.
00:39:40: Jetzt mal generell
00:39:42: der e.i.
00:39:43: der eu Was ist aus deiner sicht gelungen was ist was notwendig und gut ja oder nein oder Ja, vielleicht müssen wir das noch so ein bisschen mit sozusagen so so kleine leicht
00:39:57: leuchttürme die relativ einfach im unternehmen bauen kann wo wir und was hat das für ein impact auf mehr also ganz grundsätzlich muss man sagen
00:40:06: Der AI-Act in irgendeiner Form war wahrscheinlich nötig, die sozusagen diffusen Ängste, wenn man das Wort künstliche Intelligenz hört, naja, der Gesetzgeber kümmert sich darum.
00:40:18: Ich bin sicher, es gibt Gesetze.
00:40:21: Und das ist wichtig.
00:40:24: Die Frage ist dann immer, wie man es macht.
00:40:25: Also was man dem AI-Act vielleicht zugutehalten kann, er hat gewisse Nutzungen verboten.
00:40:30: Das ist eine EU-Richtlinie, hat direkte...
00:40:33: auswirkung auf die mitgliedsländer und jetzt kann zum beispiel auch ein herr orban ich sag mal biometrische erkennung live in der öffentlichkeit so ein bisschen china style hätte ja
00:40:44: vielleicht auf die idee kommen können das darf der jetzt nicht das geht nicht mehr und das ist vielleicht auch das ist sicherlich gut so also das ist sozusagen vielleicht das was
00:40:51: der herr erreicht hat alles was da runter kommt da kann man sich jetzt über streiten ob das nicht alles ein bisschen kompliziert geworden ist
00:41:01: und ob das nicht viele Fallstricke beinhaltet, die vielleicht so nicht nötig geworden werden.
00:41:07: Was meine ich damit?
00:41:09: Also erstmal, mittlerweile sickert so langsam durch der Gesetzgeber, also beim EREG muss ich mir erstmal die Frage stellen, ist es KI?
00:41:16: Und im Zweifel ist es KI.
00:41:18: So und wenn es KI ist, ja dann hat der Gesetzgeber da reingeschrieben, dann brauchen deine Mitarbeiter, die das im Unternehmen einsetzen, brauchen KI-Kompetenz.
00:41:27: Also so KI-Führerschein.
00:41:31: Jetzt kann man natürlich sagen, naja, also ist eine Technologie, ja, die hat viel Potenzial.
00:41:36: Wo viel Potenzial ist, ist immer auch viel Risiko.
00:41:39: Das ist einfach so.
00:41:40: Und wenn wir diese Technologie nutzen wollen, macht es Sinn, dass die Mitarbeiter sich damit auseinandersetzen und geschult werden.
00:41:47: Kann man sich sagen, ist ein bisschen so, naja, das hätten die Unternehmen wahrscheinlich schon von allen Dingen gemacht, ist ein bisschen paternalistische Sicht auf den einzelnen
00:41:53: Bürger.
00:41:55: Ob das so nötig war, weiß ich nicht.
00:41:56: Ich als...
00:41:58: Schulungsanbieter, muss natürlich sagen, würde jetzt lügen, wenn ich ihnen sagen würde, es hätte mich nicht gefreut.
00:42:04: Also erstmal, hast diese Artikel 4, diese AI-Legacy bis Februar nächsten Jahres.
00:42:09: Das ist völlig unrealistisch.
00:42:11: Wie soll das funktionieren?
00:42:12: Ich war neulich in der Stakeholder-Anhörung im Wirtschaftsministerium.
00:42:15: Die hatten das Thema, die kümmern sich so Risikoanwendungen, die hatten das Thema so so gar nicht auf dem Schirm.
00:42:20: Das zeigt mal, dass auch die nur mit Wasser kochen und da so ein bisschen von diesen Fristen völlig überfahren.
00:42:28: Dann gibt es wieder ein paar gute Sachen im AI-Ex, Stichwort Transparenz.
00:42:32: Wann muss ich sagen, dass ich KI einsetze?
00:42:35: Schutz der öffentlichen Meinung, Vorfeld von Wahlen, extrem wichtig.
00:42:40: ist, würde ich sagen, ein Haken dran, das ist also in Ordnung.
00:42:43: Und dann kommt so bisschen dieses Thema Hochrisiko AI, KI.
00:42:46: Jetzt noch mal Rückgriff, du fängst mit QuickWinds an und dann gehst du zum Bereich Leuchttürme.
00:42:52: Leuchttürme ist dann, dass zum Beispiel...
00:42:54: gewisse Unternehmensdaten-Vilos sozusagen an so ein Chatbot anbindest.
00:42:58: Stichwort Racksystem, Retrieval Augmented Generation Assistenten, Co-Piloten, gibt es noch für Namen dafür, GPTs, wo du gewisse Daten einfach sozusagen als zu durchsuchende
00:43:12: Datenbank, die dann sozusagen den Kontext für die Antwort mitgiefert, zur Verfügung stellt.
00:43:17: Also das ist ein so typischer Anwendungsfall.
00:43:20: Andere sind dann sozusagen so Automatisierungs...
00:43:22: Prozesse, das ist jetzt bisschen zu schwierig, jetzt kommen wir nochmal auf diese Rack-Systeme.
00:43:28: Jetzt baust du sowas, und jetzt sagst du, oder sage ich, weil ich sozusagen glaube, meine Brand als Philipp, ist ja auch ein cooler Name, ja, ist jetzt das Philipp Rack für
00:43:39: KI-Anwendungen, habe ich da meine Brand draufgepackt.
00:43:41: Auf einmal bin ich nicht mehr ein sozusagen Betreiber, ein Nutzer der Technologie, auf einmal bin ich Anbieter geworden.
00:43:49: Und wenn ich das dann noch mit einem Modell mache, was vielleicht ist sozusagen einem generativen Modell, systematische Risiken hat, also was sehr sehr groß ist, dann habe ich
00:43:56: auf einmal die ganzen Themen, sinnvollerweise so eine Open AI in der Package, so Red Teaming, Cyber Security, die muss ich mich dann kümmern.
00:44:03: Also das ist so ein Punkt, wo ich so sage, das ja, kann man jetzt darüber diskutieren, macht das Sinn oder nicht, aber wo man einfach höllisch aufpassen muss.
00:44:13: Und dann Stichwort Risikoanwendung, Bias, du kannst JCPT natürlich auch
00:44:19: praktisch und theoretisch super dafür nutzen sozusagen Bewerber zu priorisieren.
00:44:25: Und da hast du natürlich dann wirklich wieder das BIAS-Thema, Gefahr, dass du nur alte weiße Männer einstellst oder irgendwelche anderen Leute diskriminierst und weißt gar
00:44:31: nicht, dass du sie diskriminierst.
00:44:34: Und das kannst du schon machen, dann hast du aber eine Hochrisikoanwendung und da musst du jetzt höllisch aufpassen, dass du auch Systeme nutzt, die speziell dafür gebaut wurden.
00:44:43: du jetzt also hingehst und einfach TGPT dafür nutzt, dann bist du wieder sozusagen in dieser
00:44:49: in diese Entwicklerrolle reingedrängt und hast du die gleichen Verpflichtungen wie so ein Open AI an der Backe, die du als deutsches mittelständisch oder großes mittelständisches
00:44:58: Unternehmen gar nicht einhalten kannst und willst.
00:45:00: Und da einfach viele viele Fallstricke zu beachten und in Summe muss ich sagen, für die sind wir ein bisschen schade, weil dann machen wir zum Beispiel gerade so einen Durchgang
00:45:09: eher Leadership, drei Vormittage und die sind alle begeistert, was mit dieser Technologie geht und dann hast du so bisschen den Downer hinten raus nach dem Motto
00:45:16: Ja und das ist der eck so funktioniert das darfst das darfst du nicht ja einmal sozusagen spritzig durch erklärt Und dann ist ein bisschen so Ja doch nicht sehr gefährlich
00:45:28: natürlich auch hohe Penalen dranhängen wieder Umsatz bezogen wie bei der dsg vo Da sage ich mal ja wir haben vorhin eine ideation gemacht also 90 prozent der them die er da dran
00:45:40: geschrieben hat die sind völlig unproblematisch Da habt ihr gar kein thema
00:45:46: Aber trotzdem ist so dieses so, gefährlich, besser Finger von.
00:45:51: Und das mit Leuten, mit denen wir jetzt sozusagen inhaltlich tief durchgegangen sind.
00:45:55: Jetzt stell dir mal vor, was für eine Compliance-Abteilung, die mit diesem Thema sozusagen, also bis auf AI technologisch inhaltlich gar keine Berührungspunkte hat.
00:46:03: Und dann haben wir schon sehen, wen vielen Unternehmen jetzt erst mal pauschal diese Technologie verbieten.
00:46:09: Daten.
00:46:11: alles gefährlich.
00:46:12: Ja, wir verbieten.
00:46:14: Und das ist natürlich ein großes Hindernis und ein großer Schulungsbedarf, das so zurecht zu rücken, dass es sozusagen in einem realistischen Licht steht.
00:46:23: Und das ist sozusagen eine ganz schwierige Signalwirkung aus meiner Sicht des RREG.
00:46:27: Ganz abgesehen davon, dass diese ganzen Hochrisikoanwendungen, viel Risiko, viel Potenzial, kann man auch Hochpotenzialanwendungen mit sich führen, das dienen, ich sag mal
00:46:37: so einen Mindeststandard oder so einen festgeschriebenen, so eine Hürde.
00:46:44: festschreiben wie so ein Unternehmen mindestens Herr Compliance in so einem Anwendungsfeld machen muss.
00:46:50: das wird natürlich für viele Start-ups, die da vielleicht erstmal locker rangehen und dann sozusagen die Compliance mit sozusagen Maturität oder hochziehen führt dazu, dass die
00:47:01: Gleiche übernimmt.
00:47:02: In dem Moment, wo sie sich mit dieser Idee befassen über so eine Compliance, eine relativ hohe Compliance-Hürde springen müssen und wenn man sich sozusagen hier so ein kleines Team
00:47:13: Jungs und Mädels am DFKI anschaut, die überlegen, ja mache ich das vielleicht, ja dann müssen die sich erstmal mit diesen paar hundert Seiten, also ein paar hundert Seiten
00:47:19: AI-Eck, müssen die sich erstmal sozusagen auseinandersetzen und rechtlichen Rat einholen.
00:47:24: Naja, vielleicht bleiben sie dann doch lieber sozusagen am DFKI und machen Projekte.
00:47:28: Das sind auch spannende Sachen.
00:47:29: Und das ist natürlich irgendwie ist das aus meiner Sicht nicht gut und hinderlich für Innovationen.
00:47:34: ist für so Microsoft, für so ein OpenAI ist das alles kein Problem.
00:47:38: Aber gerade für kleine Unternehmen ist das einfach...
00:47:41: keine gute Signalwirkung und auch praktisch nicht gut.
00:47:44: Jetzt hast du gerade Startups erwähnt, der AI Act hier bisschen Hemmschuh sein kann, überhaupt in gewisse Innovationen voranzutreiben oder überhaupt gewisse Themen anzugehen.
00:47:59: Auf der anderen Seite hast du jetzt Microsoft oder OpenAI genannt, wo man sagt, okay, gut für dieses, okay, kriegen die hin, aber was ist in der ganzen Bandbreite dazwischen, die
00:48:09: ganzen KMU?
00:48:12: wenn ich das jetzt richtig verstanden habe, sobald die beginnen, auch mit künstlicher Intelligenz zu entwickeln, sind sie in der Entwicklerrolle drinnen laut dem AI Act und
00:48:23: stehen da voll in der Haftung und müssen alle zig Themen erfüllen und so weiter und so fort.
00:48:32: Ja und die Frage ist natürlich, haben sie eine Compliance-Abteilung, die sich sozusagen inhaltlich mit der KI auseinandergesetzt hat?
00:48:38: Haben die, ich sag mal, nicht so ein...
00:48:41: Datenschutzbeauftragten, so ein KI-Beauftragten, der vielleicht auch im Personalunion sich sozusagen ein bisschen tiefrechtlich in diese Themen eingefuchst hat, der das dann auch
00:48:50: beurteilen kann, dann würde ich sagen, ist alles gut.
00:48:53: Jetzt sag mal aus deiner Erfahrung, wie viele KMUs haben so eine Rolle und jemanden, der sowas ausführen kann?
00:49:02: Also ich kenne wenige bis keine.
00:49:03: Ich kenne nur die, die sagen, okay wir haben da ein Thema...
00:49:07: sind welche in der IT, sich darum kümmern und auch vielleicht Juristen, die da mit drinnen sind.
00:49:12: der Großteil bei den Unternehmen, bei denen ich unterwegs bin, die haben es nicht.
00:49:18: Ja, da steht wahrscheinlich sozusagen, Datenschutz auch mehr so eine herre Forderung und so wirklich durchgeführt, weil wirklich die DSGVO betrachten, ich meine sowieso technisch
00:49:32: unmöglich, aber so wirklich macht es keiner und genauso wird es bei mehreren kommen.
00:49:35: Jetzt können wir uns alle zurücklehnen und sagen, du ganz ehrlich, ja DSGVO, am Anfang waren sie alle sozusagen so ein aufgescheuchter Hühnerhaufen, Riesenthema, Riesenstrafen
00:49:42: und so wirklich getroffen hat es keinen.
00:49:44: Und genauso wird sich das wahrscheinlich auch beim AI Act entwickeln.
00:49:48: Na man hat natürlich das Problem, dass wir Deutschen solche Regeln dann auch tatsächlich ernst nehmen, wenn sie an uns gestellt werden.
00:49:53: Und vielleicht andere Länder das dann eher bisschen lockerer sehen.
00:49:56: Und das ist natürlich dann, wenn du so willst, nicht gut.
00:50:00: Und insofern würde ich sagen, dieser AI Act ist zu kompliziert.
00:50:04: überreguliert, da hat man sich wahnsinnig viel Gedanken gemacht, versucht alles richtig zu machen und jetzt stehen die Unternehmen da wie in Oxfam Berg und das gleiche, das nochmal
00:50:12: abzurunden, was wir gesagt haben für Startups, das gleiche geht es zu keinem.
00:50:16: Das ist einfach ein Hindernis, ein Risiko und da wird erstmal nein gesagt.
00:50:20: Jetzt hast du da so schon ein paar Blüten, sage ich mal, Stilblüten, das hätte man ja schon fast sagen aus dem AI Act erwähnt.
00:50:30: Hast du noch irgendwo was wo du sagst, okay das ist was, echt
00:50:34: Absurd ist, was da drin steht.
00:50:37: Ja, also wenn du jetzt bei OpenAI deinen GPT veröffentlicht zu irgendeinem Thema, dann hast du eigentlich auf einmal die gleichen rechtlichen Verpflichtungen, wenn du großes
00:50:48: Modell dahinterliegt.
00:50:50: Redteaming, Cybersecurity, also das ist für mich ist das schon, kann man sagen, Rechtsanschein und so.
00:50:55: Wenn du deinen Namen drauf packst, dann ist das so.
00:50:58: Und das Gleiche gilt aber auch, wenn du das sozusagen im Unternehmen deinen Mitarbeitern zur Verfügung stellst.
00:51:03: Also da musst du wirklich schon aufpassen und das war aus meiner Sicht ist es ein bisschen zu viel des Guten.
00:51:10: Und du musst schon schauen, du wenn du sozusagen gerade wenn du so in so einem Risikocase bist, musst du vielleicht in so einem Hochrisiko, Hochpotentialanwendung musst du schauen,
00:51:18: dass du dann vielleicht auf jemanden wartest als Unternehmen sich der diesen Risikoyusecase dann sozusagen AI-act-konform in ein Produkt umsetzt, dass du sozusagen
00:51:28: diese Themen nicht mehr hast.
00:51:30: Also wenn ich jetzt ein unternehmens-eigenes GPT aufsetze, dann bin ich da auch schon drinnen oder?
00:51:37: Jaja, und das nennst du dann das Johannes GPT und Johannes ist deine Marke.
00:51:44: You've got a problem.
00:51:46: Okay.
00:51:46: Also als ich das in dem letzten Kurs gemacht habe, eine sozusagen, merkte man, war irgendwie, da fing dann an zu telefonieren.
00:51:52: Sie hat dann gleich die Kollegen angerufen und sagen so, ob's der, müssen wir den Namen ändern.
00:51:56: Okay, das würde bedeuten, auch wenn das jetzt nur intern genutzt wird, müsste ich das auch erfüllen, das abzurunden.
00:52:05: Also 25er AI-Ec, Rebranding, da kommst du ganz schnell von einer Betreiberrolle, gleich Anwender, in eine Entwicklerrolle, gleich Anbieter.
00:52:16: Und das willst du nicht.
00:52:19: Okay, ja spannend.
00:52:22: Wow, das haben wir noch ordentlichen Rundumschlag gemacht.
00:52:25: Ein Rundumschlag von was KI ist, wo wir stehen in der Gesellschaft, was da EI-Act ist.
00:52:34: Hast du eigentlich irgendein KI-Feature, dass du sagst, das kannst du nur Allzuhörerinnen empfehlen, jetzt, da du in der Materie so tief drinnen bist, auch lärst und vielleicht
00:52:46: Beispiele isst und sagst, okay, das ist was, das wäre vielleicht ganz cool, das wäre cool, wenn sie es wissen würden.
00:52:52: Also was ich persönlich liebe,
00:52:54: Wir mussten damals zu sozusagen Public Equity Zeiten, wenn wir schwierige Verhandlungen führten, mussten wir einmal zu einem Verhandlungts-Guru, mussten wir nach München anreisen
00:53:03: mit ihm üben.
00:53:04: Das war inhaltlich immer super gut, war immer persönlich war es ein bisschen unangenehm, aber er hat uns immer ordentlich in der Lust zerrissen.
00:53:10: Wir gingen dann immer top vorbereitet in die Verhandlung, aber das ist jetzt überflüssig, es gibt dieses Negotiate-GPT, also ein GPT, was OpenAI selber veröffentlicht hat.
00:53:18: Das kann ich dann sozusagen in die Verhandlungsrolle reinprompten, ich konkret gerade habe.
00:53:23: Nehme ich mal an, ich habe Preisverhandlungen mit einem Kunden.
00:53:26: Dann bin ich mit 3, 4 sozusagen mit einem guten Prompt 3, 4 setzen, bin ich da drin und das Schöne ist und das geht so seit 3, 4 Wochen, genau dieses GPT so von mir sozusagen in
00:53:35: die richtige Richtung gepromptet, kann ich dann auch auf dem Handy auf der App aufrufen und kann dann wirklich die Verhandlung dann sozusagen live mündlich führen.
00:53:45: Und ich prompte hier immer so, dass sozusagen so ein Verhandlungsberater erst sagt, okay, das ist die Antwort und der Verhandlungsberater erklärt nochmal, was er macht.
00:53:52: ist für mich, ist wirklich super.
00:53:55: Weil ich kann mal eben sozusagen, habe ich meinen Verhandlungsberater an der Hand, wenn es in schwierige Preisverhandlungen geht oder ein Kundeanruf, da kann ich mal eben und das
00:54:03: ist wirklich eine super Anwendung.
00:54:06: Negotiate GPT.
00:54:07: Da muss man noch einmal den Link schicken.
00:54:09: Packe ich auch in die Show Notes.
00:54:11: Das ist glaube ich tatsächlich sehr interessant.
00:54:13: Ja, ist natürlich das Problem.
00:54:14: Ab der 20-Dollar-Version hat man darauf Zugriff.
00:54:19: Aber die macht vielleicht sowieso Sinn.
00:54:22: da noch mal reinzugehen.
00:54:23: Wir haben jetzt viel über Open AI geredet.
00:54:25: Clot ist gerade so im Marketingbereich.
00:54:27: Marketingtexte ist mittlerweile aus unserer Sicht wirklich besser als JetJPT.
00:54:34: Immer die Frage, wie man es kommt, aber da ist man eigentlich wesentlich schneller am Ziel.
00:54:38: Also es gibt wirklich wahnsinnig viele Entwicklungen und ich mal gespannt, was da die
00:54:42: die nächsten Wochen vor Weihnachten noch für Neuigkeiten auf uns warten.
00:54:47: Super Weihnachtsgeschenke für die Community.
00:54:50: Super.
00:54:52: Philipp, obligatorisch letzte Frage, die ich allen stelle.
00:54:56: Drei Learnings, die du den Zuhörerinnen mitgeben möchtest.
00:55:00: Drei Learnings, können privater Natur sein oder auch beruflicher Natur.
00:55:04: Ja, neugierig bleiben.
00:55:06: Diese Technologie geht nicht mehr weg.
00:55:07: Wir müssen uns damit auseinandersetzen und einfach...
00:55:11: Das kostet am Anfang kein Geld, da muss man wissen, was man reinpromptet, aber das ist eine super Sache.
00:55:20: Das muss man einfach machen, sich damit auseinanderzusetzen.
00:55:23: Das zweite Thema, Kurs beim AIR Transformation Institute buchen, sich dann auch professioneller mit dem Thema auseinanderzusetzen und zu schauen, wie kriege das jetzt in
00:55:31: meiner Abteilung, in meinen Unternehmen so rein, dass es funktioniert.
00:55:34: Oder eben auch so einen AIR Literacy Kurs bei uns machen, damit ich rechtlich sauber aufgestellt bin.
00:55:39: Der letzte Punkt, was ich wirklich ein Klassetool finde ist Udio.
00:55:43: Udio.com Da kannst du, kostet auch nichts, kannst du mit einem kleinen Prompt deine eigenen Songs erstellen.
00:55:51: das ist wirklich klasse.
00:55:53: Die kannst du dann auch sozusagen per WhatsApp an irgendwen verschicken und auf der nächsten Weihnachtsfeier bist du damit auf jeden Fall der große Star.
00:56:00: Okay, guter Tipp, guter Tipp nehme ich mit.
00:56:04: Das stelle ich in die Show notes definitiv, damit alle darauf zugreifen können und die Weihnachtsfeier rocken können.
00:56:11: Philipp, danke für deine Zeit, danke für die Einladung hier ins DFKI.
00:56:17: Ich habe auch einiges mitgenommen für mich.
00:56:19: Es war super spannend, wie du auch schon erwähnt hast, von dir auch nochmal zu hören.
00:56:24: Das Thema Mensch ist extrem wichtig, ohne den funktioniert es nicht.
00:56:28: Hör ich immer.
00:56:30: Und leider erfahre ich es oftmals in den Unternehmen, dass es nicht so der Fall ist oder nicht so gelebt wird, wie immer gesprochen wird.
00:56:37: Aber es ist, ich glaube, steht da Tropfen höhlt in Stein an dieser Stelle.
00:56:41: Man kann das nur immer wieder Kunst tun.
00:56:44: Auch das ganze Thema AI Act, was man dann, sage ich mal, berücksichtigen muss als Unternehmen, sobald ich eine Anwendung habe, wo ein großes Modell dahinter ist und ich
00:56:54: brande es mit mir oder mit meinem Namen oder was auch immer, bin ich...
00:56:58: drinnen hinsichtlich Security und was dann noch alles dazu gehört, also AI Act berücksichtigen und dass das auch für dich aus deiner Sicht vom Grundsatz her der Gedanke
00:57:11: gut war, aber die Ausführung gut gemeint war.
00:57:18: Ich drücke es jetzt mal so her und dass da definitiv noch irgendwie Nachholbedarf besteht.
00:57:26: Danke.
00:57:27: Ich bin gespannt, vielleicht werde ich dann zweiten Rat auch nochmal dieses Jahr, wo sich nicht mehr aussehen, aber nächstes Jahr dann nochmal befolgen und auch mal einen Kurs
00:57:36: buchen bei euch.
00:57:38: Dann kann ich ja davon auch bei einem der Podcasts live berichten, wie es denn war.
00:57:45: Ich freue mich, dass wir uns wieder gesehen haben und
00:57:48: Ja und ich freue mich, wenn wir uns schneller wieder sehen, als dass es jetzt diese 5 Jahre gebraucht hat.
00:57:54: Hoffe ich auch, hoffe ich auch.
00:57:56: Super, also Philipp, herzlichen Dank und bis bald.
00:57:58: Cool, danke dir.
00:58:00: Das war das Interview mit Dr.
00:58:03: Philipp Schlenkhoff.
00:58:04: Infos zu Philipp, dem AI Transformation Institute sowie der Empfehlung audio.com findet ihr in den Show Notes.
00:58:10: Wenn euch die Folge gefallen hat, dann hinterlasst bitte so viele Sterne wie möglich auf eure...
00:58:15: Streaming Plattform des Vertrauens und empfehlt dem Podcast weiter.
00:58:20: Ich freue mich auf jeden Fall, wenn ihr bei Folge 86 dann wieder mit am Start seid.
Neuer Kommentar