Elisabth L'Orange - Kann KI Bias-frei sein? #74

Shownotes

Hallo oder besser gesagt moin, denn in dieser Folge spreche ich mit Elisabeth L’Orange, Co-Founderin und Chief Commercial Officer von Oxolo, einem Hamburger Start-up, das mit Hilfe von generativer KI Videos für E-Commerce- und Trainingszwecke erstellt. Nachdem Elisabeth laut Manager Magazin zu den Top 15 Frauen im Bereich AI gehört, habe ich die Chance genutzt und wir sind tief in Herausforderungen und Probleme im Zusammenhang mit generativer KI eingestiegen. Das Training der Modelle, der Bias durch die Datenquellen und die möglichen Auswirkungen durch synthetisch generierte Daten sind nur ein paar Aspekte des hochspannenden Gesprächs. Natürlich haben wir auch über den EU AI Act sowie die Bestrebungen hin zur „Allgemeinen Künstliche Intelligenz“ diskutiert, aber hört es euch am besten selbst an. Ich wünsch euch viel Spaß dabei.

Mein Gast:

Elisabeth L'Orange (LinkedIn)

Oxolo GmbH

Feedback & Wunschgäste:

podcast@peopex.de

Über mich:

LinkedIn

XING

Instagram

PEOPEX GmbH

Transkript anzeigen

00:00:01: Ich denke auch, dass Deutschland sehr viel Daten hat, die natürlich momentan nicht

00:00:05: genutzt werden aus datenschutzrechtlichen Gründen.

00:00:08: Aber die ganze Industrie, die ganze Fertigung, der ganze Mittelstand, da sind

00:00:13: riesen Data Lakes, die letztlich super interessant werden zum Trainieren für die

00:00:16: KI.

00:00:19: Irgendwann werden sich sicherlich alle bewusst sein, auf welchen Schätzen sie

00:00:22: sitzen.

00:00:29: Herzlich willkommen zu Business Unplugged, dem Treffpunkt für Tradition und Zukunft.

00:00:34: Mein Name ist Johannes Pohl und ich spreche mit Unternehmerinnen, Gründerinnen

00:00:38: und stillen Heldinnen des Business Alltags, die unsere digitale Zukunft

00:00:42: formen.

00:00:43: Business Unplugged ist die Bühne für Visionäre der Digitalisierung und soll

00:00:47: Brücken zwischen Start -ups und etablierten Unternehmen bauen.

00:00:50: Hier erhältst du wertvolle Impulse und Inspiration.

00:00:55: Hallo oder besser gesagt Moin, denn in dieser Folge spreche ich mit Elisabeth L

00:01:00: 'Orange, Co -Founderin und Chief Commercial Officer von Oxolo, einem

00:01:05: Hamburger Startup, das mit Hilfe von generativer KI -Videos für E -Commerce und

00:01:11: Trainingszwecke erstellt.

00:01:13: Nachdem Elisabeth laut Manager Magazine zu den Top 15 Frauen im Bereich AI gehört,

00:01:20: habe ich die Chance genutzt und wir sind tief in Herausforderungen.

00:01:25: und Probleme im Zusammenhang mit generativer KI eingestiegen.

00:01:30: Das Training der Modelle, der Bias durch die Datenquellen und die möglichen

00:01:35: Auswirkungen durch synthetisch generierte Daten sind nur ein paar Aspekte des

00:01:41: hochspannenden Gesprächs.

00:01:44: Natürlich haben wir auch über den EU -AI -Act sowie die Bestrebungen hin zur

00:01:49: allgemeinen künstlichen Intelligenz diskutiert.

00:01:53: Aber hört es euch am besten selber an,

00:01:55: Ich wünsche euch auf jeden Fall jetzt viel Spaß dabei.

00:02:00: Liebe Elisabeth, herzlich willkommen zu Business Unplugged.

00:02:02: Ich freue mich, mit dir eine der führenden Köpfe zum Thema EI heute begrüßen zu

00:02:08: dürfen.

00:02:09: Hallihallo nach Hamburg.

00:02:11: Hallo Johannes, vielen Dank, dass ich dabei sein darf.

00:02:14: Sehr gerne.

00:02:15: Elisabeth, du hast, wie ich finde, eine sehr spannende Vita von der Ausbildung als

00:02:21: Juristin mit Finance -Background bis zu deinem aktuellen Job als Co -Founderin und

00:02:28: Chief Commercial Officer.

00:02:30: von Oxolo, einem Hamburger Startup, das generative KI -Lösungen nutzt für die

00:02:36: Erstellung von Text -zu -Video -Anwendungen.

00:02:39: Weil du hast nach deiner Ausbildung eigentlich mal mit einem Möbelbusiness,

00:02:44: ich drücke es jetzt mal so aus, ganz flapsig, ich hoffe ich sage da nichts

00:02:50: Falsches begonnen, du warst danach CFO im Aviation -Bereich bei einem Startup,

00:02:56: nämlich Flyo.

00:02:58: Ich hoffe, das ist auch richtig ausgesprochen und danach aber wiederum in

00:03:02: einem VC -Unternehmen auch als Partnerin tätig und hast dann 2021 gemeinsam mit

00:03:11: Heiko Hubberts, der oder dem ein oder anderen wahrscheinlich durch Bigpoint

00:03:15: vielleicht bekannt, Oxolo gegründet, mit dem ihr auch super erfolgreich seid.

00:03:20: Ihr habt viele Kunden, ihr habt eine Series A gerast von 13 Millionen, ihr habt

00:03:23: diverseste Awards ab.

00:03:25: geräumt, wenn man sich das jetzt mal durchklickt, auch durchs Internet und die

00:03:30: ganzen News -Artikel und und und.

00:03:34: Und in der Zeit hast du auch, ja, bist du eine der führenden Persönlichkeiten zum

00:03:41: Thema AI geworden in Deutschland.

00:03:44: Hast auch etliche Auszeichnungen erhalten, die liest dich jetzt gar nicht auf.

00:03:46: Die findet jeder, der dich sucht im Internet.

00:03:50: Probst du gleich auf mit diesen Themen.

00:03:54: Was ich sehr spannend fand, ist diese Transformation, die du da zumindest laut

00:04:01: WITA irgendwie durchgemacht hast.

00:04:04: Wie kam es denn zu dieser Transformation oder war das eigentlich gar keine

00:04:07: Transformation, weil das Thema AI war immer schon in deinen Genen drinnen?

00:04:14: Ja, ich glaube, es war tatsächlich keine so krasse Transformation.

00:04:17: Ich war schon als Kind sehr technisch.

00:04:20: interessiert.

00:04:21: Ich habe als kleines Mädchen angefangen zu coden.

00:04:25: Ich weiß noch, wie ich stundenlang vor dem Rechner saß und Buttons designt habe.

00:04:30: Also ich hatte immer eine sehr künstlerische Ader und eben diese

00:04:34: technische Ader.

00:04:35: Und ich habe in meinen Barbie -Häusern das Licht verkabelt oder das Wasser verlegt.

00:04:43: Und daher war Tech für mich eigentlich immer der Fokus.

00:04:47: Ich habe auch meine Masterarbeit in Finance über algorithmisches Trading

00:04:51: geschrieben.

00:04:52: Das heißt, ich war eher interessiert an den Algorithmen als tatsächlich an der

00:04:57: Juristerei, die da mit zusammenhing.

00:05:00: Und so zog sich das durch.

00:05:01: Also auch bei meinem Möbelbusiness, das ist so ähnlich gewesen wie Westwing in

00:05:05: ganz, ganz klein, war ich eher interessiert am Onlineshop und am E

00:05:10: -Commerce und wie ich das optimieren kann.

00:05:12: Das heißt, ich habe die ganzen Seiten immer selbst gepflegt und so weiter.

00:05:16: Und der nächste Schritt war bei Flyo.

00:05:19: Auch bei Flyo war ich eher interessiert an der Techdor.

00:05:23: Da haben wir auch schon Machine Learning gemacht.

00:05:25: Da haben wir predictive Modelle gehabt für Flughafenwartezeiten.

00:05:30: Also wir hatten sehr, sehr viele Kunden.

00:05:33: Wir hatten also Millionen an Sign -ups.

00:05:36: Wir also ein ganz cooles Produkt.

00:05:38: Haben ein ganz cooles Produkt gebaut rund den Flughafen, was man alles so digital

00:05:41: lösen kann.

00:05:42: Und da war auch ...

00:05:44: Mein klares Interesse für Tech und ebenfalls als VC haben wir natürlich in

00:05:49: überwiegend B2B -SARS investiert.

00:05:51: Das heißt, es war immer eigentlich der gleiche Fokus.

00:05:53: Es war immer Hank zu Tech und AI und eben das Unternehmertum.

00:05:58: Ja, ja.

00:05:59: Okay, also von oben betrachtet wirkt es zu einer Transformation, aber innen drinnen

00:06:04: war doch schon immer irgendwo das Thema Tech und AI bei dir vorhanden.

00:06:09: Bevor wir jetzt dann auch auf Oxolo näher eingehen,

00:06:13: würde ich gerne kurz mit dir die AB -Fragen durchgehen, die ich mit jedem

00:06:18: meiner InterviewpartnerInnen durchgehe.

00:06:22: Hintergrund dessen, es soll den ZuhörerInnen helfen, an der einen oder

00:06:26: anderen Stelle vielleicht dich als Person und auch deine Fragen oder deine Antworten

00:06:30: auch ein bisschen besser einordnen zu können.

00:06:33: Du kennst das Spiel, bist bereit dafür oder kurze Erklärung?

00:06:38: Ganz kurze Erklärung bitte noch einmal.

00:06:39: Kurze Erklärung, ich stelle wirklich, das sind nur fünf Fragen.

00:06:42: wo du im Prinzip Option A oder B nachher entscheiden kannst.

00:06:47: Also wenn ich sage Hunde oder Katz, dann sagst du okay, Hund oder Katz, je nachdem.

00:06:53: Eines von den beiden.

00:06:56: Hat alles mit dem Thema Digitalisierung zu tun.

00:07:01: okay.

00:07:01: Aber es wäre bei mir sonst Katzen nicht.

00:07:04: Okay, dann wissen wir das auch schon, das ist gut.

00:07:09: Dann starten wir.

00:07:10: Frage 1 Bildung.

00:07:12: Online oder offline?

00:07:15: Online.

00:07:16: Automatisierte oder menschliche Entscheidungsfindung?

00:07:19: Automatisierte.

00:07:20: Stärkere Regulierung oder mehr Freiheiten für Unternehmen?

00:07:25: Mehr Freiheiten.

00:07:26: Vollkommener Schutz persönlicher Daten oder weniger Datenschutz zur Wahrung der

00:07:30: Sicherheit und des Wohls der Allgemeinheit?

00:07:34: Weniger Datenschutz.

00:07:36: Webmeetings oder persönliche Treffen?

00:07:40: Persönliche Treffen.

00:07:41: okay.

00:07:42: Sehr schön.

00:07:44: Ich kann mir vorstellen, du bist jetzt schon sehr, hier kommt auch die Techie

00:07:48: -Schiene stark durch.

00:07:51: Du hast eine gewisse Techie -Liebe, alles ist sehr online, auch geprägt.

00:07:58: Erörtern wir die Fragen jetzt auch?

00:08:00: Jetzt müssen wir das eigentlich auch begründen.

00:08:02: Wir können das gerne machen.

00:08:04: Bildung online oder offline?

00:08:05: Du hast dich für online entschieden.

00:08:08: Ja, weil Online -Bildung ...

00:08:11: krass demokratisiert.

00:08:12: Also eins unserer größten Probleme weltweit ist mangelnde Bildung in vielen

00:08:15: Hinsichten und online kann man Bildung in selbst das kleinste Dorf in Afrika

00:08:19: bringen.

00:08:20: Also ich denke auch, dass das einst der Bereiche ist, die KI am krassesten

00:08:24: disruptieren wird, weil letztlich die ganzen sich zu entwickelnden Länder sind

00:08:30: mobile first, das heißt, die haben, selbst wenn sie einer Hütte irgendwo leben, haben

00:08:33: sie trotzdem ein Android -Endgerät, auf dem die im Zweifel ...

00:08:39: Unterricht streamen können.

00:08:42: Das heißt, warum sollte man das nicht fördern?

00:08:46: Ich finde, dass es die Barriers of Entry für Bildung zu verringern, das sollte

00:08:53: eines der größten Ziele sein in den nächsten Jahren.

00:08:55: Insbesondere für Mädchen, die ohnehin in vielen Ländern schon einen extrem

00:09:00: erschwerten Zugang zu Bildung haben, die dann tatsächlich es irgendwie schaffen

00:09:04: können, neben dem, was sie sonst auch alles tun müssen.

00:09:08: sich schulisch zu bilden, lesen, schreiben zu lernen und so weiter.

00:09:12: Daher bin ich ganz klar für Onlinebildung.

00:09:14: Okay.

00:09:15: Da stößt du genau ins Horn von der IU, an der ich auch unterrichte.

00:09:20: Da sind wir auch in diese Richtung unterwegs, ganz stark.

00:09:22: Zum Thema automatisierte menschliche Entscheidungsfindung warst du bei

00:09:25: automatisiert?

00:09:26: Ja, weil es gibt immer diese grundsätzliche Ansicht, dass menschliche

00:09:30: Entscheidungen ethisch besser sind als maschinenbasierte Entscheidungen, aber ...

00:09:36: Wenn man da mal einmal drüber nachdenkt, dann ist das fraglich, weil diese Biases,

00:09:41: die jeder Mensch hat, sind viel stärker als die, die letztlich in den Maschinen

00:09:46: sind.

00:09:46: Das heißt, wenn du diese typische ethische Frage des autonomen Fahrens, wer als

00:09:52: erstes überfahren wird, die Omi oder das Kind, wird ein Mensch im Zweifel für die

00:09:58: Omi entscheiden oder für jemanden, der dem Menschen unbekannt vorkommt.

00:10:04: Oder er wird sich...

00:10:05: zugunsten eines Menschen entscheiden, der ihm eher ähnlich ist.

00:10:08: Ja, da gibt es so viele Biases, die tief im menschlichen Gehirn sind letztlich, die

00:10:14: man aus Algorithmen relativ leicht rausbekommen kann.

00:10:18: Das heißt, man kann viel fairere Entscheidungen treffen mit Maschinen, wenn

00:10:21: man diese Systeme darauf programmiert, fair zu sein, das heißt fair, aber gleich

00:10:26: zu Menschen, gleich zu behandeln, als die in Menschen sind.

00:10:29: Ich meine, wir Menschen haben in den letzten 100 Jahren und mehreren

00:10:33: Weltkriegen gezeigt, dass wir nicht die

00:10:35: größten ethischen Wesen sind, die es gibt.

00:10:41: Wenn man eine wirklich hohe Ethik, ein hohes Level an Fairness in Maschinen

00:10:47: reinprogrammiert, dann würde man tendenziell bessere Ergebnisse zählen, als

00:10:53: wenn sie nur von Menschenhand getroffen werden.

00:10:57: Das ist ein spannender Punkt, den hatte ich auch Philipp Gerbert vom TUM Venture

00:11:02: Lab besprochen.

00:11:03: Da ging es das Thema

00:11:06: Ja, diese Killer -Roboter, würdest du...

00:11:10: Also diese Entscheidung...

00:11:13: Also die Maschine trifft halt vielleicht eher...

00:11:16: Ist ja auch fähig, sag ich mal, eher richtig zu entscheiden.

00:11:19: Wenn du jetzt auch in die Medizin denkst und sagst, ist das ein Knochenbruch?

00:11:23: Ja oder nein, macht vielleicht weniger Fehler.

00:11:25: Und im Endeffekt sterben auch Leute, aber möglicherweise weniger und auch weniger

00:11:29: die Falschen.

00:11:31: Weißt du, es gibt Studien und Zahlen dazu.

00:11:34: Jedes Jahr können...

00:11:36: werden sterben in den USA allein 250 .000 Menschen an Behandlungsfehlern, die durch

00:11:41: KI verhindert werden können.

00:11:43: Das heißt, nur wenn du Applikationen benutzt, die schauen, ob hinterher das

00:11:47: Besteck einer Operation wieder da liegt, wo es am Anfang lag.

00:11:52: Also du musst einfach mit Computer Vision Foto machen und sehen, guck mal, der

00:11:55: Tupfer ist wieder da, die Pinzette ist auch wieder da.

00:11:58: Nur wenn du das machen würdest, würdest du schon einen gewaltigen Unterschied machen.

00:12:01: Und die Ärzte würden nicht irgendwie den...

00:12:05: weiß ich nicht, die Schraube in der Lunge, jetzt übertrieben gesagt vergessen.

00:12:09: Aber weltweit geht man davon aus, dass zwischen 12 und 13 Millionen Menschen

00:12:13: Leben gerettet werden können durch den Einsatz von KI.

00:12:16: Also sei es im ganzen MedTech -Bereich, als auch in anderen Bereichen.

00:12:20: Auch noch mal zum autonomen Fahren.

00:12:23: Die meisten Autounfälle werden durch menschliches Fehlverhalten verursacht,

00:12:28: durch Alkohol am Steuer, Drogen am Steuer, wie auch immer.

00:12:31: Und das könnte alles eliminiert werden, wenn man an der Stelle Maschinen

00:12:36: entscheiden lassen würde.

00:12:38: Ja, bin ich absolut bei dir.

00:12:41: Auch in dem Matico -Unternehmen, das ich mitgegründet habe, geht es auch genau

00:12:44: dieses Thema auch nochmal zu unterstützen und das maschinell Fehler zu minimieren

00:12:53: und die medizinische Versorgung auch in Teile der Welt zu bringen.

00:12:59: Ich muss vielleicht nicht so ...

00:13:01: gut ausgeprägt ist.

00:13:03: Frage drei war stärkere Regulierung oder mehr Freiheiten?

00:13:05: Du hast dich für mehr Freiheiten entschieden.

00:13:09: Ja, weil diese zu starke Regulierung ist definitiv kein Wettbewerbsvorteil für

00:13:15: Deutschland.

00:13:15: Also wir verlieren gerade zunehmend den, ich will nicht sagen den Wettbewerb, aber

00:13:22: den Kampf die stärkste AI sowieso.

00:13:25: Aber die gesamten großen Large Language Models werden aus

00:13:29: den USA und China kommen.

00:13:31: China beweist aber zumindest aus den USA.

00:13:33: Wir verlieren Talente jedes Jahr.

00:13:35: Also jeden zweiten Tag wandert ein deutsches Talent in die USA ab, also ein

00:13:39: deutsches Top -KI -Talent.

00:13:42: Frankreich ist es noch ein bisschen mehr.

00:13:44: In den USA wandern irgendwie 3500 super gut ausgebildete KI -Talente ein jedes

00:13:51: Jahr.

00:13:52: Das heißt, wir brauchen weniger Regulatorik, den Standort Deutschland

00:13:57: einfach ...

00:13:58: konkurrenzfähig zu machen.

00:14:00: Also der KI -Act, der AI -Act, der jetzt in wenigen Wochen Realität für uns wird,

00:14:07: bringt noch ein neues Level an Compliance -Bestrebungen, die wir leisten müssen, an

00:14:13: Schwierigkeiten im Alltag, nebst der GDPR, die es für Unternehmen einfach unendlich

00:14:19: schwierig machen, in Deutschland zu bestehen.

00:14:22: Also, daher bin ich für weniger...

00:14:25: Daten, also weniger regulatorisch und die nächste Frage war ja auch Daten, für Daten

00:14:29: gilt das das gleiche.

00:14:30: Wir haben als Deutsche einen riesen Datenschatz eigentlich, insbesondere aus

00:14:35: der Industrie und aus der Forschung auch und wir können die Daten kaum nutzen.

00:14:41: Also wenn du im MedTech Bereich unterwegs bist, dann weißt du ja auch bestimmt, dass

00:14:45: zum Beispiel diese ganzen, es gibt ja ganz viele LLMs für Mediziner.

00:14:48: Das heißt, du kannst die Symptome rein, wie Google, das heißt, du kannst die

00:14:53: Symptome reinbringen und...

00:14:54: Du bekommst halt Antworten, was diese Symptome, worauf die hindeuten könnten.

00:15:00: Und diese LLMs oder diese Modelle sind trainiert auf der Basis von amerikanischen

00:15:08: Krankheitsbildern.

00:15:10: Natürlich sind Amerikaner das auch als Menschen, aber die haben halt ganz andere

00:15:19: überwiegende Krankheiten.

00:15:20: Die haben viel mehr Herz -Kreislauf, die haben halt andere Krankheitsbilder.

00:15:24: sehen die Patienten zu einem anderen Zeitpunkt.

00:15:26: Das heißt, es passt nicht so ganz auf die Deutschen oder auf die Europäer, aber wir

00:15:32: haben halt keine europäischen Daten, die wir zum Training nutzen dürfen für diese

00:15:36: medizinischen Modelle.

00:15:38: Aber die Amerikaner sind halt besser am anonymisieren von Daten und so weiter und

00:15:42: deswegen werden dort munter die Modelle darauf trainiert.

00:15:45: Das Gleiche gilt im Übrigen für China.

00:15:47: China hat viel bessere Krebsdiagnostikmodelle und so weiter,

00:15:51: weil...

00:15:51: Natürlich ist es nicht erstrebenswert, diesen Überwachungsstart zu haben, aber

00:15:55: die haben halt trotzdem, dadurch dass die gesamten Patientenakten online sind, haben

00:16:01: die halt Zugang zu den Gesundheitsdaten im Sinne von Krebschnitten, Diagnosen und so

00:16:07: weiter, die dann umgehend für die Modelle genutzt werden können, worauf die

00:16:11: trainiert werden.

00:16:12: Das heißt, dort werden dann im Zweifel auf der anderen Seite halt schneller mehr

00:16:16: Menschen...

00:16:16: Leben gerettet.

00:16:17: Das gleiche gilt für die USA als bei uns, weil wir eben die Daten nicht haben, weil

00:16:20: wir sie nicht rausgeben wollen.

00:16:22: Also wir haben sie, aber wir möchten sie natürlich nicht zur Verfügung stellen.

00:16:24: Spannend, die Themen, die du gerade erwähnst, die würde ich gerne im

00:16:29: Hinterkopf behalten.

00:16:29: Ich habe mir ein paar Fragen überlegt, die da genau auch auf das sich mal zutreffen

00:16:36: oder die diese Themen auch noch einmal behandeln.

00:16:38: Ich bin mal gespannt, wo wir da dann hinkommen in unserem Gespräch.

00:16:43: Bevor wir dort aber weitermachen.

00:16:45: Hast du dich dann nochmal für letzte Frage persönliche Treffen entschieden anstatt

00:16:49: Web -Meetings?

00:16:52: Ja, ich habe vor allem, insbesondere habe ich den Hintergrund des Sales.

00:16:57: Das heißt, in Deutschland ist es tatsächlich noch so, dass Sales und Deals

00:17:01: auf dem Bierdecke gemacht werden.

00:17:03: Das ist Nummer eins.

00:17:04: Das heißt, Sales ist viel effizienter in Person, im Vergleich zu über Online

00:17:11: -Meetings.

00:17:12: Das ist eine.

00:17:12: Und das Zweite, ich persönlich, ich bin diese Online -Meetings so light, ich bin

00:17:16: es so seit dieser Corona -Zeit, ich bin es so satt.

00:17:19: Und wir haben darüber hinaus eine Remote -Only -Company.

00:17:22: Das heißt, mein ganzer Tag ist dominiert und geprägt von Zoom und Google Meet.

00:17:26: Und ich bin einfach drüber irgendwie.

00:17:29: Ich brauche einfach, ich brauche wieder in -person -Meetings.

00:17:33: Das ist zu viel gewesen.

00:17:35: Okay, ja, kann ich nachvollziehen.

00:17:37: Kann ich nachvollziehen.

00:17:38: Cool, spannend.

00:17:39: Da bin ich mal gespannt.

00:17:40: Ich glaube, das hilft tatsächlich die eine oder andere Frage oder die Antwort, die du

00:17:44: dann gibst, auch nochmal einzuordnen.

00:17:47: Bevor wir dann zu den Themen, die ich schon erwähnt habe, kommen, lass uns doch

00:17:52: ganz kurz noch auf Oxlola schauen.

00:17:54: Du hast das gegründet, habe ich schon gesagt, mit Heiko Huberts und ihr bietet

00:17:59: so KI -generierte Videos für E -Commerce an oder auch für Schulungs - und

00:18:03: Trainingszwecke.

00:18:05: Gestartet?

00:18:06: Seid ihr aber mit einer anderen Idee?

00:18:07: Mit welcher Idee hat sie damals gestartet und warum habt ihr dann pivotiert?

00:18:12: Also ganz ganz am Anfang, initial, war die Idee, Celebrities zu digitalisieren.

00:18:17: Also das heißt, eine virtuelle Kopie von meinetwegen, können wir auch Obama, wir

00:18:21: hatten immer Obama in unserer Testumgebung, der ist jetzt halt nicht

00:18:24: wirklich Celebrity im eigentlichen Sinne, aber halt eine Person des öffentlichen

00:18:29: Interesses.

00:18:30: Und unser Ziel war, dass du eine Two Way Communication hast, das heißt, eine Art

00:18:34: Chatbot mit Gesicht, also mit Obama Gesicht.

00:18:37: mit dem du dich unterhalten kannst und die Person ist trainiert, also NLP, das ganze

00:18:42: Modell ist trainiert auf die sozialen Daten des jeweiligen Celebrities.

00:18:46: Das heißt, Obama hat dann in unserer Testumgebung immer in character

00:18:49: geantwortet.

00:18:50: Ich hab ihn immer Fragen gestellt, wie er zum Beispiel Afghanistan findet oder den

00:18:54: Krieg in Afghanistan.

00:18:56: Und er hat dann halt die Antworten gegeben, die er in real life auch geben

00:18:59: würde.

00:18:59: Aber das Problem war zum einen, dass die Zeit, wir waren ein bisschen vor unserer

00:19:04: Zeit, das heißt, dass die...

00:19:06: Celebrities viel zu viel Respekt vor diesen Art Deepfakes hatten.

00:19:10: Real -time Deepfakes.

00:19:11: Das fanden die eher beängstigend.

00:19:14: Und wir fanden oder letztlich konnte man das daher eher schwierig monetarisieren.

00:19:21: Und das nächste war, dass die Latenz in der Antwortgebung, also die Latenz in dem

00:19:26: Rendern des Videos, war noch zu lang, als dass es eine gute User Experience wäre.

00:19:32: Das heißt, wir hatten immer noch zwei, drei Sekunden bis der jeweilige

00:19:37: virtuelle Charakter geantwortet hat.

00:19:39: Und das lag überwiegend an der Chipleistung, an den CPUs, TPUs und so

00:19:44: weiter, was da gerade bei Nvidia halt so passiert.

00:19:48: Und daher haben wir diese Idee relativ schnell dann aufgegeben.

00:19:51: Die nächste Idee war, da hatten wir ein Kinderprodukt, da hatten wir auch sehr

00:19:54: viele, also 70 .000 User, da konnten dann Kinder wiederum mit einem Chatbot

00:19:59: interagieren.

00:20:00: Also es war auch wieder, also das waren Charaktere.

00:20:03: trainiert auf den auf den Infos der Charaktere.

00:20:06: Also es war wirklich in character sozusagen.

00:20:09: Das heißt, wenn ein Kind mit einem Schlumpf gesprochen hat, kamen andere an

00:20:11: Worten, als wenn ein Kind mit einer Barbie gesprochen hat.

00:20:13: Und ja, wir konnten halt lernen und spielen und singen und tanzen und keine

00:20:17: Ahnung.

00:20:18: Hatten auch super Spaß, aber da hatten wir das gleiche Problem, das einmal die Latenz

00:20:21: war ein Problem.

00:20:22: Das zweite Problem waren die Speech -to -Text -Mulette.

00:20:25: Das heißt, die KI hat die Kinder schwer nur verstanden.

00:20:31: Vor allen Dingen, weil Kinder halt...

00:20:33: Die haben einfach eine andere Sprache und vor allen Dingen international hat ein

00:20:37: indisches Kind wirklich eine andere Kindheitssprache oder Kindessprache als

00:20:40: ein amerikanisches Kind.

00:20:41: Das war wirklich ein Problem.

00:20:43: Und das Dritte ist, es ist schwer zu monetarisieren, wenn dein Nutzer nicht

00:20:46: dein Kunde ist.

00:20:46: Das heißt, du kannst einem Kind schwer irgendwie eine Subscription verkaufen.

00:20:54: Okay, und ihr habt es dann aber pivotiert und seid am Ende jetzt dort gelandet, wo

00:21:01: ihr seid.

00:21:02: Also mit diesen ganzen E -Commerce -Videos.

00:21:06: Was macht sie genau?

00:21:08: Was dürfen sich die Zuhörer drunter vorstellen, wenn sie jetzt auf eure

00:21:14: Website gehen oder wenn sie bei euch Kunde werden?

00:21:17: Was könnt ihr?

00:21:18: Was macht ihr?

00:21:19: Was tut ihr?

00:21:23: Am einfachsten ist es so vorzustellen, dass man aus einem PDF zum Beispiel ein

00:21:30: Video macht.

00:21:31: Das heißt, man hat ein langweiliges

00:21:32: sehr diskriptives Trainings -PDF, wo drin steht, was man als Mitarbeiter so alles zu

00:21:37: tun und zu lassen hat.

00:21:38: Und das Ganze kann man bei uns reinpasten und dann bekommt man daraus ein Video, wo

00:21:42: ein Avatar vorne steht.

00:21:43: Also der Avatar ist ein ganz normaler Mensch, aber es ist halt die digitale

00:21:45: Version eines Menschen, der das dann beschreibt.

00:21:48: Und das Ganze ist möglich auf jeder Sprache der Welt, die man haben möchte.

00:21:51: Man kann im Hintergrund alle anderen Fotos hochladen, Videos hochladen.

00:21:56: Man kann irgendwie andere Musik im Hintergrund laufen lassen.

00:21:59: Und...

00:22:00: Diese Videos sind im E -Commerce Bereich halt sehr steigend die Conversion.

00:22:05: Das im SEO Bereich wirst du 56 mal eher gefunden als Verkäufer, wenn du ein Video

00:22:09: online hast.

00:22:10: Versus wenn du kein Video online hast.

00:22:12: Und im ganzen, ich will sagen, HAA Bereich, aber im Trainingsbereich, dass du

00:22:16: auch manchmal Sicherheitsvideos machst und so weiter, ist es sehr wichtig, weil viele

00:22:21: Leute, also überwiegend Menschen lesen einfach nicht mehr.

00:22:24: Das heißt,

00:22:25: 95 Prozent des Inhaltes eines Videos wird im menschlichen Gehirn gespeichert versus

00:22:29: 10 Prozent des Inhaltes eines Textes.

00:22:32: Das heißt, Text ist sehr irrelevant geworden und gerade im Zeitdate von TikTok

00:22:36: wird es noch schlimmer.

00:22:37: Die Aufmerksamkeitsspanne eines normalen Menschen ist, glaube ich, acht Sekunden

00:22:40: und ein Goldfisch hat neun oder so.

00:22:43: Das heißt, man muss, das als visueller Inhalt ist unabdingbar.

00:22:49: Und das machen wir letztlich.

00:22:51: Wir erleichtern das extrem.

00:22:53: Schritt zurück in der Evolution.

00:22:55: Wir sind hinter dem Goldfisch mittlerweile.

00:22:58: Ich glaube auch, echt.

00:22:59: Ich glaube eigentlich.

00:23:00: Aber so ist es.

00:23:01: Okay, aber das bedeutet, kann man sich das so vorstellen, dass ein bisschen so die

00:23:05: Leute kennen Sora jetzt von OpenAI.

00:23:07: Ich tippe halt irgendeinen Prompt ein.

00:23:09: In dem Fall ist der Prompt ein ganzes PDF und dann schwuppdiwupp kommt ein cooles

00:23:15: Video von einem...

00:23:18: Ja, Sneaker, der durch die Gegend hüpft oder wie auch immer.

00:23:22: Nein, nicht ganz so.

00:23:23: Also nicht mit der Komplexität von Sora.

00:23:25: Also Sora hat, glaube ich, brauchte acht H100s und ein paar Stunden, so zu rendern,

00:23:30: wie sie jetzt sehen, aussehen, die Videos.

00:23:32: Also ich glaube, das ist nicht, das ist noch nicht commercially available und es

00:23:37: wird auch noch ein bisschen dauern, glaube ich, bis es für die Mehrzahl der Leute

00:23:41: anwendbar ist.

00:23:43: Aber...

00:23:45: Also wir sind halt nicht, wir sind generativ auf der menschlichen Ebene.

00:23:49: Das heißt, wir sind, der Mensch kann halt alles sagen.

00:23:53: Der Schauspieler, wenn du willst.

00:23:55: Wir können noch nicht im Hintergrund irgendwelche Schuhe generieren.

00:23:59: Das wird passieren, sobald Sora und so weiter so weit sind.

00:24:02: Und dann haben wir mit denen einfach eine Schnittstelle.

00:24:04: Und wir integrieren die dann.

00:24:07: Aber momentan bei uns ist der generative Teil der Mensch, der das bespricht und

00:24:11: eben der Text, der von uns generiert wird, aus dem jeweiligen entweder Link,

00:24:15: oder Dokument oder was auch immer du dann zur Verfügung stellst als Kunde.

00:24:20: Okay.

00:24:21: Und wie lange dauert das im Normalfall?

00:24:23: Das Video?

00:24:24: Fünf Minuten kostet fünf Euro.

00:24:26: Ja.

00:24:27: Dann.

00:24:28: Schön.

00:24:30: Wir haben vorhin schon gesagt generative KI und du hast jetzt gerade auch noch den

00:24:33: Sora und da wird es eine Schnittstelle geben, hast du gerade gesagt, ihr habt am

00:24:37: Anfang mit einem eigenen Modell gestartet, seid aber dann nachher auf Open

00:24:43: AI gegangen, bzw.

00:24:44: habt euch da angeflanscht, wenn ich das jetzt so technisch...

00:24:48: Genau, wir haben immer noch unsere eigenen Modelle, die draufliegen auf den

00:24:51: existieren, auf den Open Source Modell.

00:24:52: Wir haben, glaube ich, 51 Modelle insgesamt, die wir verwenden, weil wir

00:24:55: sind ja, wir haben ja verschiedenste Abteilungen, wenn du so möchtest, oder

00:25:00: Säulen in der KI.

00:25:01: Das heißt, wir haben Computer Vision, das ist der ganze visuelle Teil.

00:25:04: Dann haben wir NLP, das ist der inhaltliche Teil.

00:25:07: Dann haben wir Sprache, ja, das ist der visuelle, der Audio -Teil.

00:25:11: Das heißt...

00:25:12: Alle diese verschiedenen Komponenten müssen ja miteinander verheiratet werden.

00:25:16: Bei allen gibt es Open Source Modelle.

00:25:19: Bei allen haben wir eigene kleine Modelle drauflagen.

00:25:22: Wir hatten ganz am Anfang unser eigenes LLM mit 17 Milliarden Parameter.

00:25:26: Das war halt wesentlich kleiner als die, die jetzt sind.

00:25:29: Also es lief ganz gut, aber halt nicht mit der Qualität von OpenAI, das dann rauskam

00:25:34: im November letzten Jahres.

00:25:36: So, das heißt...

00:25:37: Es ist ein Konglomerat sozusagen aus eigenen Modellen, aus lizenzierten

00:25:43: Modellen, Open Source Modellen.

00:25:45: Man kann sich das, man schätzt das so einfach vor, aber letztlich so einfach ist

00:25:48: es halt nicht, weil man muss auch drunter noch die Infrastruktur bauen, diese ganzen

00:25:52: Modelle miteinander sprechen lässt, wenn man so möchte.

00:25:55: Also das ist im Prinzip auch USP, obwohl es sagt, wir haben die unterschiedlichen

00:25:58: Modelle, die jetzt diese Feinheiten hinkriegen, diese Videos entsprechend zu

00:26:02: gestalten.

00:26:03: Und Open AI ist so ein bisschen, ja.

00:26:07: ganze Basis?

00:26:08: Das ist nur Textgenerierung.

00:26:09: Das ist OpenAI.

00:26:11: Das ist auch beliebig ersetzbar durch Mistral, durch das neue Google -Modell,

00:26:17: durch das Metamol.

00:26:19: Also, Textgenerierung ist ehrlich gesagt das einfachste an dem Ganzen.

00:26:23: Die Sequenz ist das Schwierigste.

00:26:24: Das heißt, dass der Avatar zur richtigen Zeit das Richtige sagt und das Richtige

00:26:29: referenziert.

00:26:30: Okay, und da sind eure Modelle dran?

00:26:34: Genau.

00:26:36: Jetzt würde es mich interessieren, damit diese Modelle funktionieren, müssen die

00:26:39: auch trainiert werden.

00:26:41: Wir wissen ja auch von JetGPT, du hast es jetzt auch schon ein bisschen

00:26:43: angesprochen.

00:26:45: Am Anfang hat es super funktioniert, vor allem mit Englisch.

00:26:48: Deutsch hat ein bisschen noch gehingt, weil die Trainingsdaten eher im Englischen

00:26:52: waren und so weiter und so fort.

00:26:55: Wie seid ihr da dran gegangen oder wie macht ihr das, dass ihr sagt, okay, ja,

00:27:02: das Thema, was nutzt ihr zum Training?

00:27:05: AWS, also meinst jetzt als Cloud Solution?

00:27:07: Also als Cloud Solution haben wir AWS.

00:27:12: Die Modelle werden ganz normal wie bei allen anderen auch trainiert.

00:27:18: Oder was meinst du mit was nutzen?

00:27:19: Naja, von den Datenquellen muss ich irgendwo speisen.

00:27:23: Also es gibt ja auch diese Diskussion, genau, auf welche Daten die zugegriffen

00:27:27: haben und so weiter und so fort.

00:27:29: Ja, ja, okay, alles klar.

00:27:31: Also je nachdem, ob du R &D machst, also...

00:27:35: Research and Development können die, und du wissenschaftler heißt als Unternehmer,

00:27:40: das heißt, wir haben einige Mitarbeiter, die direkt von den Universitäten gekommen

00:27:45: sind und die keine Ahnung, promovierte Mathematiker sind, die haben zum Teil ihre

00:27:52: Trainingssätze mitgebracht.

00:27:54: Das heißt, die hatten da lizenzierte Trainingssätze, die sie verwenden durften.

00:27:59: Das war das eine.

00:28:00: Das andere war, du kannst natürlich diese Trainingssätze kaufen, ganz normal.

00:28:04: dann kannst du die, kannst auch nur kurzfristig Lizenzen kaufen.

00:28:10: Also es gibt da alle möglichen Varianten, letztlich die KI zu trainieren.

00:28:16: Aber ich muss sagen, was wir am meisten gemacht haben, waren tatsächlich die

00:28:19: Mitarbeiter, die mitgebracht haben von den Unis und wir darauf trainiert haben.

00:28:23: Okay.

00:28:24: Und wenn man jetzt nochmal diese Brücke spannt auch zu, ja sag ich jetzt mal

00:28:28: OpenAI.

00:28:29: und dass das vor allem auf Englisch ist.

00:28:31: Und mit deiner Antwort, die du auch bei den AB Fragen gegeben hast, dieser gewisse

00:28:36: Bias, der dann ja auch drinnen ist.

00:28:38: Du hast es ja mit der Medizin ausgedrückt.

00:28:40: Wir haben ja eben diese Krankheitsbilder eher aus Amerika, die ähnlich sind, aber

00:28:48: anders verteilt sind, die Distributionsrechtweite oder

00:28:51: möglicherweise.

00:28:52: Wie geht es ihr damit Wie geht es ihr als Unternehmen mit solchen Sachen Weil das

00:28:57: bedeutet ja auch für euch, dass

00:28:59: eure Modelle in eine gewisse Richtung gehen?

00:29:04: Ja, ich glaube, das ist ein vielschichtiges Problem.

00:29:09: Also, im Kleinen ist es bei uns innerhalb der Company so gewesen, dass die LipSync

00:29:14: -Modelle am Anfang nicht gut auf Deutsch funktioniert haben.

00:29:18: Und ich habe mich immer gefragt, warum das so ist.

00:29:20: Also, das heißt, dass B nicht gut dargestellt werden konnte und ...

00:29:24: Wenn ich es mir angucke, ist es relativ gut geworden.

00:29:26: Aber auf Japanisch habe ich die gleichen Probleme, dass die Lippen sich nicht

00:29:30: schließen und die Bewegungen nicht so richtig zu dem Ton oder dem Wort passen.

00:29:37: Ich habe mich gefragt, was das Problem dahinter ist und festgestellt, dass es

00:29:41: daran liegt, dass meine Entwickler kein Deutsch sprechen.

00:29:43: Das heißt, die haben es nicht gesehen.

00:29:45: Auf Englisch haben sie es gesehen.

00:29:46: Ich habe einige Entwickler, die muttersprachlich Arabisch sprechen.

00:29:50: In Arabisch haben sie es gesehen.

00:29:52: aber eben nicht in Deutsch, nicht in Spanisch, nicht in Japanisch.

00:29:55: Und das ist eigentlich symptomatisch für ein größeres Problem.

00:29:58: Und das größere Problem ist, dass KI wird ultimativ zu kritischer Infrastruktur, so

00:30:04: wie Gas und Öl halt in der Welt kritische Infrastruktur ist.

00:30:09: Nur ist das alles inhaltlich basiert auf dem liberalen, amerikanischen Gedankengut.

00:30:19: Also alles in Ordnung, weil ich glaube, das ist unserem sehr nahe letztlich.

00:30:25: Aber es mangelt dann natürlich an Vielfalt.

00:30:27: Und das Zweite ist, es fußt alles auf Englisch.

00:30:31: Das heißt, am Ende sind die Ergebnisse immer nur sehr, sehr gute Übersetzungen

00:30:37: aus dem Englischen.

00:30:40: Und deshalb funktionieren einige Sprachen auch nicht richtig.

00:30:44: Im Internet ist die Hälfte des Inhaltes des Internets auf Englisch, 51%, glaube

00:30:50: ich.

00:30:51: Aber in der real world sind es nur 25 % der Bevölkerung, die global Englisch Der

00:30:59: Rest ist viel fragmentierter.

00:31:01: Das ist ganz viel Urdu, ganz viel Hindi, Chinesisch und so weiter.

00:31:05: Und diese gesellschaftliche oder menschliche Vielfalt, die es auf dem

00:31:09: Planeten gibt, wird halt nicht in diesen Modellen abgebildet.

00:31:14: Das heißt, wir haben einen relativ krassen Bias.

00:31:18: Und der Bias geht halt hin zu diesem, wie ich sagte, amerikanischen liberalen

00:31:21: Gedankengut.

00:31:23: Das heißt, kein Moslem, der etwas generiert und Google wird ja ultimativ

00:31:30: oder der Open AI Search wird irgendwann Google ersetzen meines Erachtens.

00:31:35: Oder zumindest AI Search wird Google, wie es jetzt ist, ersetzen.

00:31:39: Also jede generierte Antwort.

00:31:42: Oder die generierten Antworten werden auf jeden Fall für Menschen, die nicht dieses

00:31:45: amerikanische liberale Gedankengut leben, nicht zufriedenstellend sein, ultimativ.

00:31:49: Und das heißt, das ist das im Großen, was ich jetzt im Lip -Sync im Kleinen hatte,

00:31:53: wo man überlegen muss, was dafür die Antwort ist, auf lange Sicht.

00:31:58: Ja, ich meine, ich verstehe das absolut.

00:32:00: Es ist ja nicht jetzt nur bei KI so.

00:32:02: Ich meine, ich jetzt tatsächlich auch in ...

00:32:06: Mein Thema Lean reingehe, wenn du dir anschaust, es kommt ja auch aus dem

00:32:09: Japanischen und es wurde ins Englische übersetzt und dann ins Deutsche und da

00:32:13: geht so viel verloren bei den Schritten.

00:32:17: Und die Begriffe, die da genutzt werden, passen eigentlich gar nicht mehr mit der

00:32:20: Bedeutung aus dem Japanischen so richtig zusammen.

00:32:23: Und es geht sehr viel inhaltlich verloren.

00:32:26: So kann ich mir das sehr gut, also da kann ich mir so die Brücke, das kann ich mir

00:32:29: gut vorstellen.

00:32:31: Vor allem japanisch, wo die Schriftzeichen sich untereinander...

00:32:36: untereinander referenzieren.

00:32:37: Also Kenji, das fehlt komplett.

00:32:40: Das heißt, dass das eine Schriftzeichen hat in der Verbindung mit dem Nächsten

00:32:44: eine völlig andere Bedeutung, wenn du einfach das nächste durch ein anderes

00:32:48: ersetzt.

00:32:49: Das ist super problematisch.

00:32:51: Deswegen funktionieren die aktuellen Modelle eigentlich nur mit den romanisch

00:32:59: basierten Sprachen, in die von Englisch leicht übersetzt werden kann.

00:33:03: Aber eben nicht auf ...

00:33:04: schriftzeichenbasierte sprachen wie koreanisch japanisch und chinesisch die

00:33:09: von der logik her eben völlig anders funktioniert.

00:33:14: Aber wird daran gearbeitet?

00:33:18: Ich meine es ist ja auch ein thema.

00:33:20: Ich meine wenn die KI nur einen Bios kennt dann sagst du okay ist zwar nett aber ist

00:33:26: halt dann auch irgendwo begrenzt dann.

00:33:28: Klar also ich meine alle arbeiten mit hochdruck daran.

00:33:31: Wenn du guckst was google gemacht hat die haben

00:33:34: Deswegen hatte Google ja diesen Fauxpas mit den wirklich unerwünschten Ergebnissen

00:33:38: des letzten Bildmodells Gemini, die, wenn du gefragt hast, wie ein Wehrmachtsoldat

00:33:45: aus 1943 aussieht, Bilder mit People of Color oder, ich glaube, waren halt völlig

00:33:51: abstruze, für die Zeit abstruze Bilder produziert.

00:33:57: Was dafür spricht, dass Google eben auf den normalen Foundation -Models

00:34:03: ihr Feintuning draufgelegt hat, mit dem Ziel, möglichst diverse Ergebnisse zu

00:34:09: produzieren.

00:34:10: Eben als Spiegel von erstens deren Corporate Culture, also deren

00:34:16: Firmenkultur, als auch als ein Spiegel von einer Gesellschaft, die sie sich wünschen.

00:34:22: Und dann ist natürlich immer eine Gradwanderung, an welcher Stelle...

00:34:29: oder...

00:34:30: Was wünscht du dir, wie eine Welt auszusehen soll?

00:34:34: Natürlich ist das, was Google anstrebt, dass alle Menschen gleich sind.

00:34:39: Egal welche Hautfarbe, welche Orientierung.

00:34:42: Eigentlich sind wir Menschen alle gleich.

00:34:45: Das ist deren Anspruch.

00:34:47: Nur ist das nicht die Wahrheit und die Wirklichkeit gewesen in 1943.

00:34:53: Das heißt, wir werden niemanden...

00:34:55: Es gab wahrscheinlich sehr wenige bis zero.

00:34:57: People of Color, die Wehrmachtshalte hatten, waren.

00:35:01: Deswegen ist eben die Frage, was man in der Schale macht.

00:35:04: Bei denen wird es eine Mensch -Mensch -Entscheidung gewesen sein.

00:35:08: Und die sind damit auf den Bauch gefallen.

00:35:10: Das heißt, wir sehen das selbst auf höchster Ebene, und ich meine, Google ist

00:35:14: eins der floriensten Tech -Unternehmen weltweit, dass selbst die damit da in der

00:35:22: Findung sind letztlich.

00:35:24: und noch nicht final eine Antwort haben, wie man das Problem lösen kann.

00:35:28: Aber glaubst du, dass das gelöst werden kann, dieses Thema?

00:35:33: Ja, also ich glaube, man kann sich auf jeden Fall eine besseren Ergebnis

00:35:38: approximieren, indem man schon mal die Datensätze so divers wie es geht

00:35:42: gestaltet.

00:35:44: Letztlich ist es ja auch immer so ein Spiegel der Datensätze.

00:35:49: Zum Beispiel wurden Computer Vision...

00:35:52: Videos oder Trainingsvideos, zum Beispiel den menschlichen Gang darzustellen mit

00:35:58: einer KI.

00:35:59: Diese Trainingsvideos wurden zum Großteil an Flughäfen aufgenommen, weil es dort

00:36:05: relativ einfach ist, nicht in Deutschland wahrscheinlich, aber relativ einfach ist,

00:36:11: an Videodaten zu kommen.

00:36:13: Und wen siehst du am Flughafen gehen?

00:36:16: Das sind Männer auf Geschäftsreisen.

00:36:19: Das heißt...

00:36:19: Der Gang eines Menschen wurde für die KI geprägt zu 80 % von weißen Männern, die

00:36:25: von A nach B schreiten, weil sie gerade von London nach Miami fliegen oder so.

00:36:32: Oder London nach Istanbul, keine Ahnung.

00:36:34: Und der Gang wird dann übertragen, wenn du dann der KI irgendwann sagst, generiere

00:36:39: mir eine Frau, die von A nach vom Auto zum Baum geht, das wird trotzdem dann

00:36:45: eigentlich der Gang eines Mannes sein.

00:36:47: Weil die Trainingsdaten sind halt von den Männern, die an den Plughäfen rumgelaufen

00:36:51: sind.

00:36:52: Und diese Diversität in die Trainingsdaten zu bringen, ist extrem schwer, aber halt

00:36:58: notwendig.

00:37:00: Letztlich sind die Trainingsdaten und Trainingssätze das wirkliche Gold.

00:37:04: Weil es gibt, we're running out of data irgendwie.

00:37:07: Das Internet wird in zwei Jahren ausgelesen sein.

00:37:09: Das heißt, es wird dann keine neuen Daten mehr geben.

00:37:13: Google sitzt auf einem riesen ...

00:37:15: Riesenschatz, die haben alle oder haben irgendwie 28 Millionen Bücher zum Beispiel

00:37:19: digitalisiert.

00:37:20: Aber das Problem ist wirklich, wo gibt es also, dass es halt Daten geben muss und

00:37:26: auch die ganzen großen Verlage und so weiter, die verhindern, dass deren Daten

00:37:31: gescraped werden.

00:37:32: Also die verhindern, dass deren Webseiten jetzt gescraped werden zum Großteil.

00:37:35: Das heißt, wir haben, es gibt ein Datenproblem und dieses Problem wiederum

00:37:40: wird reflektiert in den Modellen letztlich.

00:37:43: Wenn wir jetzt das Datenproblem haben, dann werden wir das in ein paar Jahren

00:37:52: sehen.

00:37:53: Google hat versucht, mit Finetuning, mit einer Layer Solution draufzuarbeiten.

00:37:58: Du kannst ja auch synthetische Daten haben.

00:38:00: Nur so, wenn sich ein Problem praktisch schon in den Ursprungsdaten auffindet,

00:38:05: wird sich das weiterfressen in die nächsten.

00:38:09: Das wird ja irgendwann immer schlechter letztlich.

00:38:12: Der Schaden ist dann so eine Art Weiterfresserschaden.

00:38:14: Genau, du hast gerade zwei Punkte, finde ich super spannend.

00:38:17: Das eine ist synthetische Daten.

00:38:19: Dann werden synthetische Daten generiert, die ich dann auch wieder zum

00:38:22: Trainingszwecken nutze und so weiter und so fort.

00:38:24: Wenn in diesen synthetischen Daten, also diesen Ergebnissen ja eigentlich auch

00:38:28: schon, ich sage jetzt mal Schwachsinn drinnen ist, oder ein gewisser Bios drin

00:38:34: ist, wie auch immer, kann ja beides sein, dann wird ja irgendwann das

00:38:42: Mehrheit übernehmen, oder?

00:38:43: Dann wird das ja noch stärker in die Richtung gehen, oder?

00:38:49: Siehst du dieses Problem auch auf uns zukommen?

00:38:53: Mit Sicherheit.

00:38:55: Pip Klöckner hat auf seiner OMR Keynote eine extrem gute Folie dazu an die Wand

00:39:01: geworfen.

00:39:02: Übrigens diese Keynote kann ich sehr empfehlen.

00:39:03: Jedenfalls sagt er ja, dass es wie bei den Habsburgern ist damals.

00:39:07: Das heißt, dass die Genetik wird halt...

00:39:10: Genau, es ist Inzucht.

00:39:11: Genau das ist das Grundproblem der synthetischen Daten.

00:39:15: Das heißt, dass irgendwann wird es halt immer dünner und dünner und dünner, was da

00:39:19: an neuen Daten zukommt, an neuen Impulsen.

00:39:22: Das heißt, wenn du einer KI sagst, du versuchst meinetwegen ein Computer Vision

00:39:26: Modell zum autonomen Fahren zu trainieren und sagst, versuchst dem beizubringen, wie

00:39:31: ein rotes Auto aussieht.

00:39:33: Du selber hast aber nur meinetwegen 100 Fotos von roten Autos.

00:39:37: Dann sagst du der KI, ich möchte aus diesen 100 Fotos aber einen Trainingssatz

00:39:41: von 1000 Fotos für eine KI, für 1000 Fotos von roten Autos für dieses Modell

00:39:46: generieren, damit ich das Modell auf roten Autos trainieren kann.

00:39:49: Dann wird der KI, jedes Bildgebungstool wird in der Lage sein, dir in einer Minute

00:39:55: irgendwie 1000 Fotos von roten Autos zu generieren.

00:39:58: Nur, wenn das basiert ist auf diesen 100 ursprünglichen, wird dann irgendwann

00:40:03: nichts mehr Neues hinzukommen.

00:40:04: Und das heißt, die Qualität wird dann definitiv einfach schlechter werden.

00:40:08: Und so wie bei den Habsvogeln, irgendwann wird es auch sterben.

00:40:13: Irgendwann wird das Innene unter Kind zu groß sein und dann hast du keine Chance

00:40:17: mehr.

00:40:18: Davon müssen wir aufpassen.

00:40:20: Glaubst du, dass die bestehenden Modellen bei den großen Modellen, dass es in die

00:40:24: Richtung gehen kann, dass die sich selber, sag ich mal, den Hahn abdrehen?

00:40:28: Überholen.

00:40:29: Noch nicht.

00:40:30: Also, wie gesagt, das Internet ist noch nicht ausgelesen.

00:40:33: Ich denke, es gibt noch große Datenschätze.

00:40:36: Also, wie gesagt, Google hat einen immensen Schatz an Daten.

00:40:41: Ich denke auch, dass Deutschland sehr viel Daten hat, die natürlich momentan nicht

00:40:46: genutzt werden, aus datenschutzrechtlichen Gründen.

00:40:48: Aber die ganze Industrie, die ganze Fertigung, der ganze Mittelstand, da sind

00:40:53: riesen Data Lakes, die letztlich super interessant wären zum Trainieren für die

00:40:57: KI.

00:40:57: Aber weil die eben zum Teil auch noch sehr unsortiert sind, würde ich mal sagen,

00:41:03: können die natürlich nicht als Trainingsdaten fungieren.

00:41:07: Aber irgendwann werden sie sicherlich alle bewusst sein, auf welchen Schätzen sie

00:41:12: sitzen und daraus auch Geschäft machen.

00:41:16: Also das wird sicherlich sehr interessant werden für viele.

00:41:19: Jetzt haben wir darauf gesagt, dass die Ergebnisse schlechter werden können durch

00:41:23: synthetische Daten.

00:41:25: Wenn ich das jetzt mal ein bisschen weiterschwöre und sage,

00:41:28: hypothetisch, wir haben die besten Daten, es gibt keinen Bias, wir sind komplett

00:41:32: neutrale Modelle und so weiter und so fort.

00:41:36: Wenn ich das jetzt einmal an Google denke, dass du jetzt schon das Öfteren erwähnt

00:41:40: hast, wenn ich da was suche, poppt auch relativ schnell oben die ganzen sponsored

00:41:46: Links auf.

00:41:48: Glaubst du, dass sich die Geschäftsmodelle, ich meine Open AI ist ja

00:41:52: eigentlich gestartet, damit das für alle zur Verfügung stehen soll und so weiter

00:41:56: und so fort?

00:41:58: dieser Anbieter auch in die Richtung wandelt.

00:42:02: Wir wollen ja auch irgendwann einmal ordentlich Geld damit verdienen, dass sie

00:42:06: sagen, wenn irgendwie diese klassischen Fürsuchanfragen genutzt werden, dass auch

00:42:13: Unternehmen quasi ein bisschen sponsoren können, dass ihre Ergebnisse eher

00:42:18: bevorzugt werden.

00:42:20: Ja klar, also gerüchteweise macht das

00:42:25: Also ist OpenAI in Gesprächen mit Verlagen, dass deren Content letztlich

00:42:30: preferential, also vorteilhafter gefeaturet wird.

00:42:36: Bevorzugt wird.

00:42:37: Also, ich meine, bei Google wird es immerhin gekennzeichnet, dass es Sponsored

00:42:42: -Links sind.

00:42:43: Das wird schwierig, wenn das allgemeine Verständnis sich da hingegen verändert,

00:42:47: dass die großen Modelle an Content generieren, dass das die Wahrheit ist.

00:42:52: Und wenn dann die Wahrheit eben dominiert ist von ...

00:42:55: kommerziellen Interessen, ist das eine schwierige Entwicklung.

00:42:59: Zumal wir ja alle in den letzten Jahren so gelebt haben, dass was Google dir als

00:43:06: Ergebnis zeigt, neutral ist.

00:43:08: Wir gehen ja abgesehen von den 4, 5, 6 Sponsored Links, die oben drüber liegen,

00:43:12: aber wir gehen ja davon aus, dass im Prinzip, dass das, was Google uns zeigt,

00:43:16: so ist es dann auch.

00:43:17: Der Wahrhaftigkeitsgehalt ist relativ hoch.

00:43:20: Nur bei den Modellen wird es anders sein.

00:43:23: Das heißt, die nächste Entwicklung wird dann sein, dass man dann das werbefrei

00:43:28: kaufen wird, wenn sie es zeigen oder wenn sie es markieren.

00:43:33: Also ich persönlich denke, dass diese ganzen Modelle letztlich eigentlich ein

00:43:37: großes, einfach nur ein Enablement sind für die Unternehmen, ihre Cloud zu

00:43:41: verkaufen.

00:43:41: Weil das ist eines der profitabelsten Geschäfts, also Zweige für die meisten,

00:43:48: vor allem für Amazon, die verdienen, haben ...

00:43:50: wesentlich höhere Margen in der Cloud -Lösung als im Versandhandelgeschäft.

00:43:55: Daher denke ich, da wird es irgendwann dahingehen.

00:43:59: Weil irgendwann werden wir alle auch verstehen, dass die Ergebnisse, die von

00:44:04: diesen LLMs generiert werden, eben immer mit so ein bisschen Vorsicht zu genießen

00:44:11: sind.

00:44:11: Weil man eben nicht weiß, wie dabei es ist, welche Interessen dahinter stecken

00:44:15: und so weiter.

00:44:16: Was würdest du dann unternehmen und auch Kunden raten in der Hinsicht?

00:44:20: Also ich glaube, dass Transparenz ist immer ein Key, also sich und Wissen und

00:44:27: Bildung, also sich zu informieren, zu verstehen, welches LLM hat welchen Bias

00:44:32: sozusagen, welchen LLM hat welche Gesinnung, welches Geisteskind sozusagen.

00:44:41: Also wenn man sich das bewusst ist, glaube ich, kann man dann ganz gute

00:44:45: Entscheidungen treffen.

00:44:46: Ich finde auch wichtig, dass es extrem viel Vielfalt innerhalb der LLMs gibt.

00:44:50: Weil dann, sobald man das miteinander benchmarkt, kann man ja sehr gut sehen, in

00:44:55: welche Richtung das jeweils geht.

00:44:57: Nehmen wir an, wir hatten einen BRD -GPT.

00:45:00: Dann könnte man sehen, wenn man dort eine Antwort generiert, kann man sehr klar

00:45:05: sehen, wie das im Verhältnis wäre zu einem aus den USA, wo die Antwort wahrscheinlich

00:45:10: wesentlich anders ausfallen würde.

00:45:12: Glaubst du, wäre das auch so eine Lösung, dass es mehr so spezialisierte...

00:45:16: Modelle geben wird in Zukunft oder ich sage jetzt mal rein auf Medizin oder rein

00:45:21: auf wie du schon sagst irgendwie Geschichte oder was auch immer Ja es gibt

00:45:27: dazu tatsächlich also die letzten Studienlage besagt dass die

00:45:34: Spezialisierten Modelle nicht nicht performanter sind als die generalistischen

00:45:38: Modelle das heißt die großen

00:45:40: Modelle von OpenAI und von Google sind immer noch besser, auch im medizinischen

00:45:45: Bereich, als die kleineren.

00:45:47: Das heißt, was ich annehme, ist, dass es einfach ein Fine -Tuning gibt,

00:45:50: beziehungsweise Layer Solutions on top, die dann auf die großen Basismodelle

00:45:56: ansetzen.

00:45:58: Und die werden ja ohnehin schneller.

00:46:00: Die Grundkritik war immer, dass die großen Modelle halt nicht so langsam sind, wie

00:46:04: diese kleinen Speedbooth -haften Modelle von Mistral zum Beispiel.

00:46:08: Aber grundsätzlich wird es so sein, dass es dann Spezialisierungen geben, die dann

00:46:13: draufliegen auf den großen Foundation of Models.

00:46:17: Dann lassen wir uns jetzt noch mal in eine Richtung gehen.

00:46:19: Thema EU AI Act.

00:46:23: Du hast den Punkt Transparenz auch schon erwähnt.

00:46:25: Ist ja auch einer, der sehr stark diskutiert wird, auch welche Datenquellen

00:46:32: wurden genutzt oder werden genutzt und spätestens auch nach dem Interview mit

00:46:36: Mira Murati, der CTO von OpenAI, die dann zum Thema Zora gesagt hat, ja, okay, wir

00:46:42: sind herumgedruckst hat, welche Daten sie genutzt haben, war aber auch allen

00:46:46: irgendwo klar, denen es noch nicht klar war bis dahin, dass es nicht nur legal

00:46:51: erworbene Daten sind, mit denen trainiert wurden.

00:46:56: Und jetzt gibt es ja immer wieder unterschiedlichste Spekulationen, was denn

00:46:59: der AI -Act denn im Detail dann bedeuten kann, vor allem angesichts der Tatsache,

00:47:04: dass ja...

00:47:05: man ja auch den Statusquo von bereits trainierten Modellen irgendwie nicht

00:47:11: zurückdrehen kann, das Training.

00:47:12: Also wo ich sagen kann, okay, die Quellen darfst du jetzt nicht nutzen, jetzt musst

00:47:15: du die rausnehmen aus deinem Modell.

00:47:17: Das irgendwie zurücknehmen ist ja auch etwas schwieriger.

00:47:21: Welche Szenarien sind denn da deiner Meinung nach denkbar, die eintreten können

00:47:25: für die Hersteller dieser Modelle?

00:47:28: Also jetzt so ex ex...

00:47:31: Post sozusagen.

00:47:32: Also ich glaube nicht, dass es irgendwie möglich sein wird, die Zeit

00:47:35: zurückzudrehen.

00:47:36: Und das heißt, dass OpenAI hat fünf Jahre lang jetzt trainiert.

00:47:40: Das heißt, die haben unfairerweise einen so krassen Wettbewerbsvorteil, weil die

00:47:46: tatsächlich, also das Transkribieren, die haben es ja mit Whisper gemacht, das ist

00:47:49: dieses eine Transcription Modell von OpenAI, das Transkribieren von den ganzen

00:47:55: YouTube -Daten.

00:47:56: finde ich halt schon ein bisschen dreist, wenn ich ganz ehrlich bin.

00:47:59: Und deswegen, Mira Moratti wusste das auch und deswegen hat sie auch so komisch

00:48:01: reagiert, glaube ich.

00:48:04: Also, könnte man meinen.

00:48:06: Und letztlich wusste das, glaube ich, wusste das Google auch und hat halt die

00:48:14: Augen verschlossen.

00:48:14: Also es gibt Gerüchteweise, hat Meta, saß Meta immer daneben und hat zugeguckt und

00:48:21: war quasi sauer, dass die es nicht einfach so können.

00:48:23: Google hat selber auch...

00:48:25: anscheinend auf den YouTube -Daten trainiert.

00:48:29: Und das ist dahingegen schwierig, weil YouTube das eigentlich in deren AGB

00:48:37: ausschließt, dass deren Videos zum Scrapen und zum Training von anderen und so weiter

00:48:42: von Dritten halt genutzt werden darf.

00:48:45: Daher werden die ganzen Nutzer, die das dort hochgeladen haben, ihre Videos

00:48:49: hochgeladen haben, garantiert es nicht.

00:48:51: gewusst haben und auch nicht mit in der Absicht, dass es dann später von irgendwem

00:48:54: genutzt wird.

00:48:56: Das heißt, man kann die Zeit nicht zurückdrehen.

00:48:58: Was jetzt der AI Act hat, klassifiziert jetzt verschiedene Use Cases und vor allen

00:49:04: Dingen Gefahrenklassen.

00:49:05: Da geht es vor allen Dingen manipulative KI, also gerade Dinge mit

00:49:10: Gesichtserkennungssoftware und so weiter.

00:49:12: Na klar, sollte man die regulieren.

00:49:14: Meines Erachtens ist ein bisschen unglücklich jetzt, dass es alles

00:49:18: einmal so reguliert wird, anstatt dass einzelne Industrien reguliert werden und

00:49:21: dann vielleicht auch ein bisschen mehr im Detail.

00:49:24: Und auch, also Industrien wie zum Beispiel, ja, also nur

00:49:29: Gesichtserkennungssoftware.

00:49:30: In Amerika zum Beispiel gab es von Amazon oder RWS gab es so eine

00:49:34: Gesichtserkennungssoftware, die die amerikanische und vor allem New Yorker

00:49:37: Polizei genutzt hat, die nicht in der Lage war, schwarze Frauen als solche zu

00:49:43: identifizieren.

00:49:44: Weil die halt so einen harten Bias in deren Trainingsdaten haben.

00:49:47: Sowas geht natürlich auf keinen Fall.

00:49:48: Dafür ist der AI -Act bestimmt sehr sinnvoll.

00:49:52: Nur die Ausgestaltung fehlt halt momentan noch völlig.

00:49:55: Keiner weiß so richtig genau, worauf man sich einlässt.

00:49:58: Und wie ich eingangs sagte, wenn wir ein komplettes Compliance -Team oder wie auch

00:50:03: immer brauchen, wieder Anwälte brauchen, die sich damit im Detail

00:50:05: auseinandersetzen.

00:50:06: Also schwierig.

00:50:07: Ich habe gerade gestern mit dem vom TÜV gesprochen.

00:50:12: Also TÜV hat jetzt eine ganze AI -Unit und die müssen ...

00:50:17: in Zukunft halt Maschinen und so weiter auf deren AI -Compliance TÜV

00:50:23: zertifizieren.

00:50:24: Und dafür haben sie, glaube ich, zwei Jahre Zeit oder so.

00:50:26: Das heißt, es ist so mit der heißen Nadel geschickt, ich weiß auch nicht, wie sich

00:50:30: das jetzt in den nächsten Jahren ausgestalten wird.

00:50:34: Also es ist TBD, muss ich sagen.

00:50:36: Und jetzt auf die, ja, sag ich mal, Hersteller oder Anbieter der großen LLMs.

00:50:44: Glaubst du, dass da irgendwie noch was kommen wird?

00:50:46: Ich meine,

00:50:48: Nee, ach, die haben ja am Ende keine Chance.

00:50:51: Also, der Day I Exit, das ist...

00:50:54: Also, ich glaube nicht, dass die da so hart in den Anwendungsbereich sozusagen

00:51:01: fallen.

00:51:02: Aber die LLMs, wie sie jetzt sind, so sind sie.

00:51:07: Da wird man am Nachhinein nicht die Datenlage transparenter machen, man wird

00:51:12: nicht irgendwie die Datenquellen transparenter machen, das ist

00:51:15: ausgeschlossen alles.

00:51:16: Also...

00:51:17: Keine Chance.

00:51:18: Auch die Gefahr, das habe ich in einem oder anderen Podcast mal gehört, dass

00:51:25: möglicherweise diese Modelle sich generell aus dem Markt zurückziehen müssen?

00:51:31: Ja, das glaube ich auch nicht, weil letztlich ist Europa schon ein relevanter

00:51:34: Markt nach USA und Asien.

00:51:37: Also das denke ich nicht, dass das passieren wird.

00:51:40: Die werden irgendeine Regelung bekommen, irgendeine Regelung finden oder die werden

00:51:43: so wie Big Tech halt ab und zu, das macht dann irgendwann die Strafenzahlen und es

00:51:49: zehn Jahre lang sich irgendwelche juristischen Kämpfe geben und

00:51:53: schlussendlich das Strafezahlen, die aber schon lange einbudetiert ist.

00:51:56: Also wie gesagt, ich glaube, das ist alles ein bisschen chancenlos.

00:51:59: Hätte ich gesagt.

00:52:01: Bevor wir jetzt in die Zielgerade kommen oder einwiegen, lass uns noch mal einen

00:52:07: Punkt ansprechen, und da würde ich gerne ansprechen, und zwar das Thema allgemeine

00:52:11: künstliche Intelligenz, also AGI.

00:52:14: Bei dem ja Hauptmerkmal ist, eine breitere Fähigkeit, über mehrere Dominien hinweg

00:52:19: geht, auch das Thema Selbstlernen oder auch eine Art Bewusstsein.

00:52:24: Als Partner von OpenAI, der ihr ja seid,

00:52:29: Wie steht es denn das Thema?

00:52:31: Weißt du da mehr?

00:52:33: Kannst du da aus dem Nähkästchen plaudern?

00:52:37: Nee, kann ich nicht.

00:52:39: Aber ich kann dazu zwei Sachen sagen.

00:52:41: Also erstens, ich finde es ein bisschen schwierig, wenn gesagt wird, dass selbst

00:52:47: wenn es 80 Milliarden kosten würde, ATI zu entwickeln, sei es halt so.

00:52:52: Also man muss sich auch bewusst sein, dass es externe Kosten des Trainierens der

00:53:01: Modelle gibt.

00:53:01: Also das heißt...

00:53:03: Der Energieverbrauch ist immens und darüber wird kaum gesprochen, was es für

00:53:08: unseren Planeten bedeutet, wenn wir 80 Milliarden in das Training von KI -Modelle

00:53:14: einbauen.

00:53:14: Das heißt, man müsste eigentlich permanent Atommailer bauen.

00:53:19: Ich glaube, der wirkliche Energieverbrauch ist wenigen bewusst.

00:53:23: Deswegen bin ich mir nicht sicher, ob das der richtige Ansatz ist, dass man sagt, no

00:53:30: matter what.

00:53:30: So ist mir völlig egal, wie der Preis auf die Umwelt ist.

00:53:34: Das heißt, oder was ist Umwelt, aber dann planierten die Menschheit grundsätzlich.

00:53:38: Das heißt, das Bepreisen von Externalitäten fehlt schon wieder in

00:53:41: diesem Kontext.

00:53:42: So wie eine Carbon Tax, wenn man fliegt oder was auch immer.

00:53:47: Oder wenn man Dinge verschickt, fehlt die eigentlich auch.

00:53:49: Also wenn man aus China irgendwelche Dinge verschickt, sollte es eigentlich mit einer

00:53:52: CO2 -Steuer bepreist werden, weil das einfach ein Kosten für alle bedeutet

00:53:59: letztlich so.

00:54:00: Aber das finde ich schwierig, dass AGI, also mit der Einstellung reinzugehen, no

00:54:06: matter what, egal was passiert, wir machen es trotzdem so.

00:54:09: Dann, zweitens, was ich irgendwie dabei auch schwierig finde, ist die Annahme oder

00:54:17: die Kommunikation, was AGI überhaupt sein soll.

00:54:19: Wenn wir uns angucken, was die menschliche Evolution geleistet hat, die letzten 100

00:54:24: .000 und plus Jahre, wir haben angefangen mit einer Zelle, die zwischen hell und

00:54:28: dunkel unterscheiden konnte.

00:54:30: Das heißt, es hat 100 .000 Jahre gedauert, bis wir als Menschen jetzt so sind, wie

00:54:38: wir sind.

00:54:41: Und das alles in Lichtgeschwindigkeit zu replizieren zu wollen mit ein paar

00:54:48: Sprachen und Videomobilen, finde ich irgendwie nicht anmaßend, aber auch

00:54:55: schwierig.

00:54:56: Also das heißt, meines Erachtens wird es noch wesentlich länger dauern.

00:55:00: bis weil auch diese, gerade wenn man diese Sprachmodelle sieht, sind die ja

00:55:06: letztlich, also die Sprachmodelle, wie man sie jetzt sieht, die gab es schon lange.

00:55:11: Und auch die Diffusionsmodelle, das heißt die Bildgenerierungsmodelle, die

00:55:17: Pixelvoraussagen, gibt es auch schon lange.

00:55:19: Was sich geändert hat, sind die Prozessorleistungen, die hat die

00:55:22: Performance der Modelle deutlich beschleunigt.

00:55:25: Das heißt,

00:55:27: Es sei denn, wir sehen in den nächsten 24 Monaten wirklich disruptive Technologie,

00:55:31: das heißt wirklich disruptive Modelle oder was auch immer, AGI wirklich zu schaffen.

00:55:41: Sehe ich persönlich das noch nicht, dass daraus eine allgemeine Intelligenz, die

00:55:45: mit einem Bewusstsein, die vergleichbar ist mit der menschlichen Intelligenz

00:55:49: geschaffen wird.

00:55:50: Tatsächlich kam mir jetzt noch eine Frage.

00:55:53: weil du jetzt auch noch mal das Thema CO2 -Steuer gebracht hast und so weiter und so

00:55:59: fort.

00:55:59: Was ich ja ganz spannend finde, dass das mit eingepreist werden muss.

00:56:04: Wir haben auch über das Thema Ethik gesprochen und du hast auch gesagt, ja,

00:56:09: faire Mittel, YouTube -Videos und so weiter und so fort, die transkribiert und

00:56:13: das zu nutzen.

00:56:14: Also es waren ja auch sehr kritische Stimmen oder Meinungen oder, sag ich mal,

00:56:19: Richtungen von dir heraus zu hören zu dem Thema.

00:56:23: Wie geht ihr da eigentlich bei Oxolo damit Weil ich meine, am Ende nutzt ihr ja das

00:56:28: auch auf volle Breitseite, das komplette System von Opmei oder anderen Ampietern

00:56:33: und so weiter und so fort.

00:56:35: Wie geht ihr mit diesen Themen, die du jetzt auch angesprochen hast, du sagst,

00:56:41: siehe ich kritisch, bei Oxolo selber Wir versuchen natürlich, was wir können, dass

00:56:47: wir im Kleinen quasi Fairness bringen, dass wir im Kleinen Ethik bringen.

00:56:53: Das heißt, ich habe wenig Impact auf OpenAI.

00:56:57: Also ich brauche deren Modelle.

00:56:59: Es gibt kein Alternativ los für mich.

00:57:01: Das heißt, ich kann nichts anderes machen.

00:57:05: Aber ich kann dafür versuchen, wenn ich es schon nicht in den Modellen so sehe, dass

00:57:10: ich auf meinen eigenen, vor meiner eigenen Tür sozusagen kehre, dass ich ein

00:57:14: Unternehmen baue, was zum Beispiel, wir haben doppelt so viele Frauen in Tech,

00:57:20: oder auch in einem ganzen Team.

00:57:21: wie andere Deep Tech -Unternehmen.

00:57:23: Das das eine.

00:57:24: Dann das zweite ist, wir haben, ich glaube, mehr Diversität, als man sich

00:57:28: vorstellen kann.

00:57:28: Wir sprechen 22 verschiedene Sprachen, haben 15 verschiedene Nationalitäten.

00:57:34: Das ist das zweite, worauf ich achte.

00:57:35: Dann haben wir uns auch tatsächlich für dieses Remote Only sehr bewusst

00:57:40: entschieden, weil wir gesagt haben, dass wir es völlig verrückt finden, dass eine

00:57:45: Fläche oder eine Immobilie immer halbe, dass der tagsüber leer steht.

00:57:50: Entweder ist es das Büro,

00:57:51: wenn keine Leute im Büro sind oder ist es eben das Zuhause?

00:57:54: Das heißt, wir empfinden das als hochgradig ineffizient und haben uns

00:57:57: deswegen auch dagegen entschieden, weil wir gesagt haben, es macht einfach, also

00:58:01: nicht nur wirtschaftlich, aber es macht auch einfach aus CO2, aus tausend

00:58:08: verschiedenen Gründen, diese hin und her.

00:58:10: Ich meine, allein, Leute kommen mit dem Auto zum Büro, das steht dann den ganzen

00:58:14: Tag, es macht einfach keinen Sinn.

00:58:15: Deswegen haben wir uns dagegen entschieden.

00:58:18: Ach, es gibt tausend verschiedene kleine...

00:58:21: Teile, wo man selber für sich praktisch, wo man versuchen kann Vorbild zu sein.

00:58:26: Aber wie du schon sagst, auf die großen Modelle, auf Amazon habe ich keinen

00:58:31: Impact, auf OpenAI habe ich keinen Impact und es ist halt alternativlos letztlich.

00:58:37: Das nächste ist tatsächlich, das ist ein Fun Fact, aber es ist völlig nicht

00:58:41: relevant, aber wenn man so kleine Videos von uns nimmt, ist es ein Bruchteil von

00:58:45: der, wir haben das mal ausgerechnet, ich habe es jetzt leider nicht im Kopf, aber

00:58:48: die CO2 Produktion oder die...

00:58:51: die CO2 -Kosten eines normal produzierten Videos sind, ist ein hundertfaches im

00:58:56: Vergleich zu uns.

00:58:57: Natürlich sind es Rechenleistungen, die da durchgehen, aber wenn du es vergleichst

00:59:02: mit einer normalen Produktion, wo Leute die Welt geflogen werden, wo du Kameras

00:59:06: hast, wo du Team von zehn Leuten hast, wo du immens viel Energie für verbrauchst und

00:59:10: so weiter, das ist kein Vergleich zu Klein - Solo -Videos.

00:59:14: Also, wie gesagt, ich glaube, man kann immer nur vor der eigenen Tür kehren und

00:59:18: versuchen...

00:59:19: als Vorbild voranzugehen, aber mehr dann halt leider auch nicht.

00:59:24: Okay, super.

00:59:25: So bevor wir zu den drei Learnings kommen, von dir die letzte Frage davor.

00:59:31: Hast du eine bestimmte Technologie, KI -Anwendung, Lieblingstechnologie, wie auch

00:59:35: immer, die du super faszinierend findest und die auch dein Leben besonders

00:59:39: verbessert hat?

00:59:41: Ja, das ist die Transcribe - und Summarizer -Funktion bei, nicht Funktion,

00:59:45: sondern so ein Chatbot bei WhatsApp.

00:59:48: weil ich hasse Sprachnachrichten.

00:59:50: Es raubt mir echt meinen Tag, wenn ich irgendwie am Abend dann 20 ungehörte

00:59:54: Sprachnachrichten habe.

00:59:55: Und ich kann die einfach super zu so einem kleinen Bot forwarden, der transkribiert

01:00:00: es mir und wenn es zu lang ist, dann lasse ich es nochmal summarisen und dann ist aus

01:00:04: die Maus.

01:00:05: Und die zweite, meine zweite Lieblingsanwendung ist tatsächlich eine

01:00:09: Vogel -App, eine Bird -App, die heißt Merlin, -E -R -L -I -N.

01:00:15: Das ist von Cornell, von der Uni Cornell.

01:00:18: Das ist wie der Shazam für Vögel.

01:00:20: Das heißt, wenn ich mich langweilig laufe, ich gehe damit durch die Gegend und sehe

01:00:22: so, auf Englisch heißt es da eines, das ist Chiff -Chaff, da heißt auf Deutsch der

01:00:26: Zilzalp oder in Leipzig habe ich eine Nachtiger gehört.

01:00:30: Also totales Highlight.

01:00:32: Da kannst du noch die Nabu -App dazu herunterladen und kannst dann sagen, ich

01:00:36: habe den Vogel da und da gesehen.

01:00:38: Da kannst du nämlich eintragen, wo, welche Vögel es sind.

01:00:41: Die machen dann, glaube ich, so ein Tracking auch ein bisschen damit.

01:00:45: cool.

01:00:46: Nerds unter Sicherheit.

01:00:48: Wie ich damals in Hamburg war, haben wir auch immer Frühstücksdische, wo so ein

01:00:52: Vogelhäuschen hatten.

01:00:53: Dann kamen echt unterschiedlichste Vögel und dann habe ich irgendwann begonnen, mal

01:00:57: zu suchen und zu schauen und dann einfach mal Protokoll geführt, welche Vögel wann

01:01:02: da waren.

01:01:04: siehst du?

01:01:04: Okay, krass.

01:01:07: Ja, Ja, Merlin is cool.

01:01:09: Sorry, was war die nächste Frage?

01:01:10: Ne, ne, alles gut.

01:01:12: Diese WhatsApp -Funktion, ist die von WhatsApp selber oder ist das eine App

01:01:16: noch?

01:01:16: Nee, ist ein externer Bot, aber ich kann gern die Nummer dir im Nachhinein geben,

01:01:20: dann kannst du sie sehen.

01:01:21: Find ich gut.

01:01:23: Ja, ja, es hilft einem, es ist sehr viel Pain, was da genommen wird.

01:01:28: Vor allem die Summarizer Funktion ist wirklich, wenn jemand so irgendwie am Auto

01:01:32: sitzt und in einer Viertelstunde irgendwie redet und sagt sorry, ich kann grad nicht

01:01:36: schreiben und so.

01:01:37: Und dann ist so die Essenz ist dann Satz, hast du morgen Zeit.

01:01:41: Ist gut.

01:01:43: Ja, sehr schön.

01:01:44: So, aber jetzt.

01:01:47: Tatsächlich die letzte Frage.

01:01:49: Und zwar drei Learnings von dir, die du den Zuhörerinnen mitgeben möchtest.

01:01:54: Diese Learnings können an privater oder beruflicher Natur sein.

01:01:57: It's up to you.

01:01:59: Okay.

01:02:00: Also Learning Nummer eins, wir sind ja hier im beruflichen Kontext, ist immer

01:02:05: flexibel zu bleiben.

01:02:07: Also das heißt, dass man grundsätzlich sich versuchen oder ich versuche immer in

01:02:13: der Lage zu sein, mich möglichst schnell auf neue Sachverhalte oder neue

01:02:17: Umgebung auch neue Menschen einzustellen.

01:02:20: Ich glaube, nichts ist schlimmer als eingefahren in seiner Routine, in seinem

01:02:25: System zu sein, ohne die Fähigkeit zu haben, schnell davon abzuweichen und sich

01:02:30: anderen Dingen anzupassen.

01:02:31: Das Zweite ist, was extrem wichtig ist, was auch mein Learning war, Resilienz ist

01:02:38: Prior 1.

01:02:38: Das heißt, dass man, wenn man sich schafft, resilient zu sein, irgendwas

01:02:43: dringend ändern muss.

01:02:44: Also, dass man möglichst viel, ich würde sagen, ertragen.

01:02:47: tragen können muss, aber dass man halt widerstandsfähig bleibt, eben mit der Welt

01:02:53: klarzukommen.

01:02:54: Und dann glaube ich, ist auch ein Learnings einfach den Humor nicht zu

01:02:58: verlieren und Dinge nicht zu ernst zu nehmen.

01:03:00: Also ich glaube manchmal passieren einfach so Mishaps oder total eigentlich

01:03:05: unmögliche Sachen.

01:03:06: Und wenn man da nicht die Comic drin sieht, ist man relativ schnell verloren.

01:03:11: Manche nehmen das dann zu ernst.

01:03:14: Sie nehmen das Leben auch meiner Meinung nach zu ernst.

01:03:16: Und die sind aber manchmal dann auch verstört, wenn der andere dann über

01:03:18: gewisse Dinge lacht.

01:03:20: Aber da muss man dann drüber stehen.

01:03:22: Im Thema Resilience.

01:03:23: Das glaube ich auch.

01:03:24: Don't take life too serious, glaube ich.

01:03:27: Das Leben ist zu kurz.

01:03:29: So ist es.

01:03:31: Ja, Elisabeth, danke für deine Zeit, danke für deine Einblicke.

01:03:36: Ich persönlich habe auch einiges mitgenommen und ich finde auch ganz

01:03:38: spannend, so deine Ansichten zum Thema.

01:03:41: Wir müssen mehr offen sein auch, mehr Offenheit haben, damit wir da auch den

01:03:44: Anschluss nicht verlieren gegenüber USA und auch unsere, sag ich mal, Experten,

01:03:52: Fachkräfte, Spezialisten, IT -Nerds, wen auch immer halten, die in dem Bereich KI

01:03:57: unterwegs sind.

01:03:59: auch dass du der Meinung bist, AG AI, wenn es da jetzt nicht wirklich zu einer

01:04:03: Disruption kommt, dann technologisch, dann wird es schon noch dauern.

01:04:08: Und das ist auch genauso wie der AI Act der EU noch nicht ganz zu Ende gedacht,

01:04:16: sage ich jetzt einmal.

01:04:17: Ich versuche das jetzt mal zusammenfassen.

01:04:18: Bitte korrigiere mich, falls ich es falsch zusammenfasse.

01:04:22: Nein, alles gut.

01:04:23: Und ja, auch deine, deine, deine

01:04:26: Deine Einblicke in diese ganzen Beispiele, die du gebracht hast, habe ich super

01:04:29: spannend gefunden.

01:04:30: Wo du sagst, das gibt es schon und jenes und jenes und so.

01:04:34: Man hört immer relativ viel.

01:04:36: Aber wenn man das dann noch mal von einer Expertin hört, die dann intensiv damit

01:04:40: arbeitet, was alles möglich ist, dann öffnet das auch noch mal ein bisschen den

01:04:45: Horizont für einen.

01:04:46: Das finde ich super.

01:04:47: Herzlichen Dank.

01:04:49: Ja, danke dir.

01:04:51: Danke dir.

01:04:54: Ich hoffe, dass wir den letzten Punkt irgendwann auch schaffen, dass es ein

01:04:58: persönliches Treffen ist, nicht nur virtuell, da auch, dass du aus der

01:05:05: virtuellen Welt rauskommst, vor allem auch dieses Remote.

01:05:09: Vielleicht sieht man sich auf der einen oder anderen Veranstaltung.

01:05:13: Ich wünsche dir jetzt auf jeden Fall einen schönen Tag, genieße das Wetter und liebe

01:05:19: Grüße von München noch nach Hamburg.

01:05:22: Vielen Dank, dass ich da sein durfte.

01:05:24: Hat mich sehr gefreut.

01:05:25: Vielen Dank, Johannes.

01:05:27: Das war das Interview mit Elisabeth Lorange.

01:05:30: Infos zu Elisabeth und Oxolo findet ihr wie immer in den Show Notes.

01:05:34: Am Ende jetzt noch eine kurze Bitte in eigener Sache.

01:05:38: Wenn euch der Podcast gefällt und ihr ihn informativ findet oder was auch immer,

01:05:43: dann abonniert den Podcast doch gerne auf eurer Lieblingsplattform und hinterlasst

01:05:48: dabei auch gleichzeitig einen kommen.

01:05:51: bzw.

01:05:51: eine Bewertung.

01:05:54: Wer dies bereits getan hat, der darf auch gerne den Podcast an Freunde, Bekannte,

01:06:03: Familie, Mitglieder, wen auch immer, weiterempfehlen.

01:06:06: Ich würde mich sehr freuen und es würde auch helfen, die Sichtbarkeit ein wenig zu

01:06:12: erhöhen.

01:06:14: Herzlichen Dank euch schon mal im Voraus dafür und bis in zwei Wochen.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.