Elisabth L'Orange - Kann KI Bias-frei sein? #74
Shownotes
Hallo oder besser gesagt moin, denn in dieser Folge spreche ich mit Elisabeth L’Orange, Co-Founderin und Chief Commercial Officer von Oxolo, einem Hamburger Start-up, das mit Hilfe von generativer KI Videos für E-Commerce- und Trainingszwecke erstellt. Nachdem Elisabeth laut Manager Magazin zu den Top 15 Frauen im Bereich AI gehört, habe ich die Chance genutzt und wir sind tief in Herausforderungen und Probleme im Zusammenhang mit generativer KI eingestiegen. Das Training der Modelle, der Bias durch die Datenquellen und die möglichen Auswirkungen durch synthetisch generierte Daten sind nur ein paar Aspekte des hochspannenden Gesprächs. Natürlich haben wir auch über den EU AI Act sowie die Bestrebungen hin zur „Allgemeinen Künstliche Intelligenz“ diskutiert, aber hört es euch am besten selbst an. Ich wünsch euch viel Spaß dabei.
Mein Gast:
Feedback & Wunschgäste:
Über mich:
Transkript anzeigen
00:00:01: Ich denke auch, dass Deutschland sehr viel Daten hat, die natürlich momentan nicht
00:00:05: genutzt werden aus datenschutzrechtlichen Gründen.
00:00:08: Aber die ganze Industrie, die ganze Fertigung, der ganze Mittelstand, da sind
00:00:13: riesen Data Lakes, die letztlich super interessant werden zum Trainieren für die
00:00:16: KI.
00:00:19: Irgendwann werden sich sicherlich alle bewusst sein, auf welchen Schätzen sie
00:00:22: sitzen.
00:00:29: Herzlich willkommen zu Business Unplugged, dem Treffpunkt für Tradition und Zukunft.
00:00:34: Mein Name ist Johannes Pohl und ich spreche mit Unternehmerinnen, Gründerinnen
00:00:38: und stillen Heldinnen des Business Alltags, die unsere digitale Zukunft
00:00:42: formen.
00:00:43: Business Unplugged ist die Bühne für Visionäre der Digitalisierung und soll
00:00:47: Brücken zwischen Start -ups und etablierten Unternehmen bauen.
00:00:50: Hier erhältst du wertvolle Impulse und Inspiration.
00:00:55: Hallo oder besser gesagt Moin, denn in dieser Folge spreche ich mit Elisabeth L
00:01:00: 'Orange, Co -Founderin und Chief Commercial Officer von Oxolo, einem
00:01:05: Hamburger Startup, das mit Hilfe von generativer KI -Videos für E -Commerce und
00:01:11: Trainingszwecke erstellt.
00:01:13: Nachdem Elisabeth laut Manager Magazine zu den Top 15 Frauen im Bereich AI gehört,
00:01:20: habe ich die Chance genutzt und wir sind tief in Herausforderungen.
00:01:25: und Probleme im Zusammenhang mit generativer KI eingestiegen.
00:01:30: Das Training der Modelle, der Bias durch die Datenquellen und die möglichen
00:01:35: Auswirkungen durch synthetisch generierte Daten sind nur ein paar Aspekte des
00:01:41: hochspannenden Gesprächs.
00:01:44: Natürlich haben wir auch über den EU -AI -Act sowie die Bestrebungen hin zur
00:01:49: allgemeinen künstlichen Intelligenz diskutiert.
00:01:53: Aber hört es euch am besten selber an,
00:01:55: Ich wünsche euch auf jeden Fall jetzt viel Spaß dabei.
00:02:00: Liebe Elisabeth, herzlich willkommen zu Business Unplugged.
00:02:02: Ich freue mich, mit dir eine der führenden Köpfe zum Thema EI heute begrüßen zu
00:02:08: dürfen.
00:02:09: Hallihallo nach Hamburg.
00:02:11: Hallo Johannes, vielen Dank, dass ich dabei sein darf.
00:02:14: Sehr gerne.
00:02:15: Elisabeth, du hast, wie ich finde, eine sehr spannende Vita von der Ausbildung als
00:02:21: Juristin mit Finance -Background bis zu deinem aktuellen Job als Co -Founderin und
00:02:28: Chief Commercial Officer.
00:02:30: von Oxolo, einem Hamburger Startup, das generative KI -Lösungen nutzt für die
00:02:36: Erstellung von Text -zu -Video -Anwendungen.
00:02:39: Weil du hast nach deiner Ausbildung eigentlich mal mit einem Möbelbusiness,
00:02:44: ich drücke es jetzt mal so aus, ganz flapsig, ich hoffe ich sage da nichts
00:02:50: Falsches begonnen, du warst danach CFO im Aviation -Bereich bei einem Startup,
00:02:56: nämlich Flyo.
00:02:58: Ich hoffe, das ist auch richtig ausgesprochen und danach aber wiederum in
00:03:02: einem VC -Unternehmen auch als Partnerin tätig und hast dann 2021 gemeinsam mit
00:03:11: Heiko Hubberts, der oder dem ein oder anderen wahrscheinlich durch Bigpoint
00:03:15: vielleicht bekannt, Oxolo gegründet, mit dem ihr auch super erfolgreich seid.
00:03:20: Ihr habt viele Kunden, ihr habt eine Series A gerast von 13 Millionen, ihr habt
00:03:23: diverseste Awards ab.
00:03:25: geräumt, wenn man sich das jetzt mal durchklickt, auch durchs Internet und die
00:03:30: ganzen News -Artikel und und und.
00:03:34: Und in der Zeit hast du auch, ja, bist du eine der führenden Persönlichkeiten zum
00:03:41: Thema AI geworden in Deutschland.
00:03:44: Hast auch etliche Auszeichnungen erhalten, die liest dich jetzt gar nicht auf.
00:03:46: Die findet jeder, der dich sucht im Internet.
00:03:50: Probst du gleich auf mit diesen Themen.
00:03:54: Was ich sehr spannend fand, ist diese Transformation, die du da zumindest laut
00:04:01: WITA irgendwie durchgemacht hast.
00:04:04: Wie kam es denn zu dieser Transformation oder war das eigentlich gar keine
00:04:07: Transformation, weil das Thema AI war immer schon in deinen Genen drinnen?
00:04:14: Ja, ich glaube, es war tatsächlich keine so krasse Transformation.
00:04:17: Ich war schon als Kind sehr technisch.
00:04:20: interessiert.
00:04:21: Ich habe als kleines Mädchen angefangen zu coden.
00:04:25: Ich weiß noch, wie ich stundenlang vor dem Rechner saß und Buttons designt habe.
00:04:30: Also ich hatte immer eine sehr künstlerische Ader und eben diese
00:04:34: technische Ader.
00:04:35: Und ich habe in meinen Barbie -Häusern das Licht verkabelt oder das Wasser verlegt.
00:04:43: Und daher war Tech für mich eigentlich immer der Fokus.
00:04:47: Ich habe auch meine Masterarbeit in Finance über algorithmisches Trading
00:04:51: geschrieben.
00:04:52: Das heißt, ich war eher interessiert an den Algorithmen als tatsächlich an der
00:04:57: Juristerei, die da mit zusammenhing.
00:05:00: Und so zog sich das durch.
00:05:01: Also auch bei meinem Möbelbusiness, das ist so ähnlich gewesen wie Westwing in
00:05:05: ganz, ganz klein, war ich eher interessiert am Onlineshop und am E
00:05:10: -Commerce und wie ich das optimieren kann.
00:05:12: Das heißt, ich habe die ganzen Seiten immer selbst gepflegt und so weiter.
00:05:16: Und der nächste Schritt war bei Flyo.
00:05:19: Auch bei Flyo war ich eher interessiert an der Techdor.
00:05:23: Da haben wir auch schon Machine Learning gemacht.
00:05:25: Da haben wir predictive Modelle gehabt für Flughafenwartezeiten.
00:05:30: Also wir hatten sehr, sehr viele Kunden.
00:05:33: Wir hatten also Millionen an Sign -ups.
00:05:36: Wir also ein ganz cooles Produkt.
00:05:38: Haben ein ganz cooles Produkt gebaut rund den Flughafen, was man alles so digital
00:05:41: lösen kann.
00:05:42: Und da war auch ...
00:05:44: Mein klares Interesse für Tech und ebenfalls als VC haben wir natürlich in
00:05:49: überwiegend B2B -SARS investiert.
00:05:51: Das heißt, es war immer eigentlich der gleiche Fokus.
00:05:53: Es war immer Hank zu Tech und AI und eben das Unternehmertum.
00:05:58: Ja, ja.
00:05:59: Okay, also von oben betrachtet wirkt es zu einer Transformation, aber innen drinnen
00:06:04: war doch schon immer irgendwo das Thema Tech und AI bei dir vorhanden.
00:06:09: Bevor wir jetzt dann auch auf Oxolo näher eingehen,
00:06:13: würde ich gerne kurz mit dir die AB -Fragen durchgehen, die ich mit jedem
00:06:18: meiner InterviewpartnerInnen durchgehe.
00:06:22: Hintergrund dessen, es soll den ZuhörerInnen helfen, an der einen oder
00:06:26: anderen Stelle vielleicht dich als Person und auch deine Fragen oder deine Antworten
00:06:30: auch ein bisschen besser einordnen zu können.
00:06:33: Du kennst das Spiel, bist bereit dafür oder kurze Erklärung?
00:06:38: Ganz kurze Erklärung bitte noch einmal.
00:06:39: Kurze Erklärung, ich stelle wirklich, das sind nur fünf Fragen.
00:06:42: wo du im Prinzip Option A oder B nachher entscheiden kannst.
00:06:47: Also wenn ich sage Hunde oder Katz, dann sagst du okay, Hund oder Katz, je nachdem.
00:06:53: Eines von den beiden.
00:06:56: Hat alles mit dem Thema Digitalisierung zu tun.
00:07:01: okay.
00:07:01: Aber es wäre bei mir sonst Katzen nicht.
00:07:04: Okay, dann wissen wir das auch schon, das ist gut.
00:07:09: Dann starten wir.
00:07:10: Frage 1 Bildung.
00:07:12: Online oder offline?
00:07:15: Online.
00:07:16: Automatisierte oder menschliche Entscheidungsfindung?
00:07:19: Automatisierte.
00:07:20: Stärkere Regulierung oder mehr Freiheiten für Unternehmen?
00:07:25: Mehr Freiheiten.
00:07:26: Vollkommener Schutz persönlicher Daten oder weniger Datenschutz zur Wahrung der
00:07:30: Sicherheit und des Wohls der Allgemeinheit?
00:07:34: Weniger Datenschutz.
00:07:36: Webmeetings oder persönliche Treffen?
00:07:40: Persönliche Treffen.
00:07:41: okay.
00:07:42: Sehr schön.
00:07:44: Ich kann mir vorstellen, du bist jetzt schon sehr, hier kommt auch die Techie
00:07:48: -Schiene stark durch.
00:07:51: Du hast eine gewisse Techie -Liebe, alles ist sehr online, auch geprägt.
00:07:58: Erörtern wir die Fragen jetzt auch?
00:08:00: Jetzt müssen wir das eigentlich auch begründen.
00:08:02: Wir können das gerne machen.
00:08:04: Bildung online oder offline?
00:08:05: Du hast dich für online entschieden.
00:08:08: Ja, weil Online -Bildung ...
00:08:11: krass demokratisiert.
00:08:12: Also eins unserer größten Probleme weltweit ist mangelnde Bildung in vielen
00:08:15: Hinsichten und online kann man Bildung in selbst das kleinste Dorf in Afrika
00:08:19: bringen.
00:08:20: Also ich denke auch, dass das einst der Bereiche ist, die KI am krassesten
00:08:24: disruptieren wird, weil letztlich die ganzen sich zu entwickelnden Länder sind
00:08:30: mobile first, das heißt, die haben, selbst wenn sie einer Hütte irgendwo leben, haben
00:08:33: sie trotzdem ein Android -Endgerät, auf dem die im Zweifel ...
00:08:39: Unterricht streamen können.
00:08:42: Das heißt, warum sollte man das nicht fördern?
00:08:46: Ich finde, dass es die Barriers of Entry für Bildung zu verringern, das sollte
00:08:53: eines der größten Ziele sein in den nächsten Jahren.
00:08:55: Insbesondere für Mädchen, die ohnehin in vielen Ländern schon einen extrem
00:09:00: erschwerten Zugang zu Bildung haben, die dann tatsächlich es irgendwie schaffen
00:09:04: können, neben dem, was sie sonst auch alles tun müssen.
00:09:08: sich schulisch zu bilden, lesen, schreiben zu lernen und so weiter.
00:09:12: Daher bin ich ganz klar für Onlinebildung.
00:09:14: Okay.
00:09:15: Da stößt du genau ins Horn von der IU, an der ich auch unterrichte.
00:09:20: Da sind wir auch in diese Richtung unterwegs, ganz stark.
00:09:22: Zum Thema automatisierte menschliche Entscheidungsfindung warst du bei
00:09:25: automatisiert?
00:09:26: Ja, weil es gibt immer diese grundsätzliche Ansicht, dass menschliche
00:09:30: Entscheidungen ethisch besser sind als maschinenbasierte Entscheidungen, aber ...
00:09:36: Wenn man da mal einmal drüber nachdenkt, dann ist das fraglich, weil diese Biases,
00:09:41: die jeder Mensch hat, sind viel stärker als die, die letztlich in den Maschinen
00:09:46: sind.
00:09:46: Das heißt, wenn du diese typische ethische Frage des autonomen Fahrens, wer als
00:09:52: erstes überfahren wird, die Omi oder das Kind, wird ein Mensch im Zweifel für die
00:09:58: Omi entscheiden oder für jemanden, der dem Menschen unbekannt vorkommt.
00:10:04: Oder er wird sich...
00:10:05: zugunsten eines Menschen entscheiden, der ihm eher ähnlich ist.
00:10:08: Ja, da gibt es so viele Biases, die tief im menschlichen Gehirn sind letztlich, die
00:10:14: man aus Algorithmen relativ leicht rausbekommen kann.
00:10:18: Das heißt, man kann viel fairere Entscheidungen treffen mit Maschinen, wenn
00:10:21: man diese Systeme darauf programmiert, fair zu sein, das heißt fair, aber gleich
00:10:26: zu Menschen, gleich zu behandeln, als die in Menschen sind.
00:10:29: Ich meine, wir Menschen haben in den letzten 100 Jahren und mehreren
00:10:33: Weltkriegen gezeigt, dass wir nicht die
00:10:35: größten ethischen Wesen sind, die es gibt.
00:10:41: Wenn man eine wirklich hohe Ethik, ein hohes Level an Fairness in Maschinen
00:10:47: reinprogrammiert, dann würde man tendenziell bessere Ergebnisse zählen, als
00:10:53: wenn sie nur von Menschenhand getroffen werden.
00:10:57: Das ist ein spannender Punkt, den hatte ich auch Philipp Gerbert vom TUM Venture
00:11:02: Lab besprochen.
00:11:03: Da ging es das Thema
00:11:06: Ja, diese Killer -Roboter, würdest du...
00:11:10: Also diese Entscheidung...
00:11:13: Also die Maschine trifft halt vielleicht eher...
00:11:16: Ist ja auch fähig, sag ich mal, eher richtig zu entscheiden.
00:11:19: Wenn du jetzt auch in die Medizin denkst und sagst, ist das ein Knochenbruch?
00:11:23: Ja oder nein, macht vielleicht weniger Fehler.
00:11:25: Und im Endeffekt sterben auch Leute, aber möglicherweise weniger und auch weniger
00:11:29: die Falschen.
00:11:31: Weißt du, es gibt Studien und Zahlen dazu.
00:11:34: Jedes Jahr können...
00:11:36: werden sterben in den USA allein 250 .000 Menschen an Behandlungsfehlern, die durch
00:11:41: KI verhindert werden können.
00:11:43: Das heißt, nur wenn du Applikationen benutzt, die schauen, ob hinterher das
00:11:47: Besteck einer Operation wieder da liegt, wo es am Anfang lag.
00:11:52: Also du musst einfach mit Computer Vision Foto machen und sehen, guck mal, der
00:11:55: Tupfer ist wieder da, die Pinzette ist auch wieder da.
00:11:58: Nur wenn du das machen würdest, würdest du schon einen gewaltigen Unterschied machen.
00:12:01: Und die Ärzte würden nicht irgendwie den...
00:12:05: weiß ich nicht, die Schraube in der Lunge, jetzt übertrieben gesagt vergessen.
00:12:09: Aber weltweit geht man davon aus, dass zwischen 12 und 13 Millionen Menschen
00:12:13: Leben gerettet werden können durch den Einsatz von KI.
00:12:16: Also sei es im ganzen MedTech -Bereich, als auch in anderen Bereichen.
00:12:20: Auch noch mal zum autonomen Fahren.
00:12:23: Die meisten Autounfälle werden durch menschliches Fehlverhalten verursacht,
00:12:28: durch Alkohol am Steuer, Drogen am Steuer, wie auch immer.
00:12:31: Und das könnte alles eliminiert werden, wenn man an der Stelle Maschinen
00:12:36: entscheiden lassen würde.
00:12:38: Ja, bin ich absolut bei dir.
00:12:41: Auch in dem Matico -Unternehmen, das ich mitgegründet habe, geht es auch genau
00:12:44: dieses Thema auch nochmal zu unterstützen und das maschinell Fehler zu minimieren
00:12:53: und die medizinische Versorgung auch in Teile der Welt zu bringen.
00:12:59: Ich muss vielleicht nicht so ...
00:13:01: gut ausgeprägt ist.
00:13:03: Frage drei war stärkere Regulierung oder mehr Freiheiten?
00:13:05: Du hast dich für mehr Freiheiten entschieden.
00:13:09: Ja, weil diese zu starke Regulierung ist definitiv kein Wettbewerbsvorteil für
00:13:15: Deutschland.
00:13:15: Also wir verlieren gerade zunehmend den, ich will nicht sagen den Wettbewerb, aber
00:13:22: den Kampf die stärkste AI sowieso.
00:13:25: Aber die gesamten großen Large Language Models werden aus
00:13:29: den USA und China kommen.
00:13:31: China beweist aber zumindest aus den USA.
00:13:33: Wir verlieren Talente jedes Jahr.
00:13:35: Also jeden zweiten Tag wandert ein deutsches Talent in die USA ab, also ein
00:13:39: deutsches Top -KI -Talent.
00:13:42: Frankreich ist es noch ein bisschen mehr.
00:13:44: In den USA wandern irgendwie 3500 super gut ausgebildete KI -Talente ein jedes
00:13:51: Jahr.
00:13:52: Das heißt, wir brauchen weniger Regulatorik, den Standort Deutschland
00:13:57: einfach ...
00:13:58: konkurrenzfähig zu machen.
00:14:00: Also der KI -Act, der AI -Act, der jetzt in wenigen Wochen Realität für uns wird,
00:14:07: bringt noch ein neues Level an Compliance -Bestrebungen, die wir leisten müssen, an
00:14:13: Schwierigkeiten im Alltag, nebst der GDPR, die es für Unternehmen einfach unendlich
00:14:19: schwierig machen, in Deutschland zu bestehen.
00:14:22: Also, daher bin ich für weniger...
00:14:25: Daten, also weniger regulatorisch und die nächste Frage war ja auch Daten, für Daten
00:14:29: gilt das das gleiche.
00:14:30: Wir haben als Deutsche einen riesen Datenschatz eigentlich, insbesondere aus
00:14:35: der Industrie und aus der Forschung auch und wir können die Daten kaum nutzen.
00:14:41: Also wenn du im MedTech Bereich unterwegs bist, dann weißt du ja auch bestimmt, dass
00:14:45: zum Beispiel diese ganzen, es gibt ja ganz viele LLMs für Mediziner.
00:14:48: Das heißt, du kannst die Symptome rein, wie Google, das heißt, du kannst die
00:14:53: Symptome reinbringen und...
00:14:54: Du bekommst halt Antworten, was diese Symptome, worauf die hindeuten könnten.
00:15:00: Und diese LLMs oder diese Modelle sind trainiert auf der Basis von amerikanischen
00:15:08: Krankheitsbildern.
00:15:10: Natürlich sind Amerikaner das auch als Menschen, aber die haben halt ganz andere
00:15:19: überwiegende Krankheiten.
00:15:20: Die haben viel mehr Herz -Kreislauf, die haben halt andere Krankheitsbilder.
00:15:24: sehen die Patienten zu einem anderen Zeitpunkt.
00:15:26: Das heißt, es passt nicht so ganz auf die Deutschen oder auf die Europäer, aber wir
00:15:32: haben halt keine europäischen Daten, die wir zum Training nutzen dürfen für diese
00:15:36: medizinischen Modelle.
00:15:38: Aber die Amerikaner sind halt besser am anonymisieren von Daten und so weiter und
00:15:42: deswegen werden dort munter die Modelle darauf trainiert.
00:15:45: Das Gleiche gilt im Übrigen für China.
00:15:47: China hat viel bessere Krebsdiagnostikmodelle und so weiter,
00:15:51: weil...
00:15:51: Natürlich ist es nicht erstrebenswert, diesen Überwachungsstart zu haben, aber
00:15:55: die haben halt trotzdem, dadurch dass die gesamten Patientenakten online sind, haben
00:16:01: die halt Zugang zu den Gesundheitsdaten im Sinne von Krebschnitten, Diagnosen und so
00:16:07: weiter, die dann umgehend für die Modelle genutzt werden können, worauf die
00:16:11: trainiert werden.
00:16:12: Das heißt, dort werden dann im Zweifel auf der anderen Seite halt schneller mehr
00:16:16: Menschen...
00:16:16: Leben gerettet.
00:16:17: Das gleiche gilt für die USA als bei uns, weil wir eben die Daten nicht haben, weil
00:16:20: wir sie nicht rausgeben wollen.
00:16:22: Also wir haben sie, aber wir möchten sie natürlich nicht zur Verfügung stellen.
00:16:24: Spannend, die Themen, die du gerade erwähnst, die würde ich gerne im
00:16:29: Hinterkopf behalten.
00:16:29: Ich habe mir ein paar Fragen überlegt, die da genau auch auf das sich mal zutreffen
00:16:36: oder die diese Themen auch noch einmal behandeln.
00:16:38: Ich bin mal gespannt, wo wir da dann hinkommen in unserem Gespräch.
00:16:43: Bevor wir dort aber weitermachen.
00:16:45: Hast du dich dann nochmal für letzte Frage persönliche Treffen entschieden anstatt
00:16:49: Web -Meetings?
00:16:52: Ja, ich habe vor allem, insbesondere habe ich den Hintergrund des Sales.
00:16:57: Das heißt, in Deutschland ist es tatsächlich noch so, dass Sales und Deals
00:17:01: auf dem Bierdecke gemacht werden.
00:17:03: Das ist Nummer eins.
00:17:04: Das heißt, Sales ist viel effizienter in Person, im Vergleich zu über Online
00:17:11: -Meetings.
00:17:12: Das ist eine.
00:17:12: Und das Zweite, ich persönlich, ich bin diese Online -Meetings so light, ich bin
00:17:16: es so seit dieser Corona -Zeit, ich bin es so satt.
00:17:19: Und wir haben darüber hinaus eine Remote -Only -Company.
00:17:22: Das heißt, mein ganzer Tag ist dominiert und geprägt von Zoom und Google Meet.
00:17:26: Und ich bin einfach drüber irgendwie.
00:17:29: Ich brauche einfach, ich brauche wieder in -person -Meetings.
00:17:33: Das ist zu viel gewesen.
00:17:35: Okay, ja, kann ich nachvollziehen.
00:17:37: Kann ich nachvollziehen.
00:17:38: Cool, spannend.
00:17:39: Da bin ich mal gespannt.
00:17:40: Ich glaube, das hilft tatsächlich die eine oder andere Frage oder die Antwort, die du
00:17:44: dann gibst, auch nochmal einzuordnen.
00:17:47: Bevor wir dann zu den Themen, die ich schon erwähnt habe, kommen, lass uns doch
00:17:52: ganz kurz noch auf Oxlola schauen.
00:17:54: Du hast das gegründet, habe ich schon gesagt, mit Heiko Huberts und ihr bietet
00:17:59: so KI -generierte Videos für E -Commerce an oder auch für Schulungs - und
00:18:03: Trainingszwecke.
00:18:05: Gestartet?
00:18:06: Seid ihr aber mit einer anderen Idee?
00:18:07: Mit welcher Idee hat sie damals gestartet und warum habt ihr dann pivotiert?
00:18:12: Also ganz ganz am Anfang, initial, war die Idee, Celebrities zu digitalisieren.
00:18:17: Also das heißt, eine virtuelle Kopie von meinetwegen, können wir auch Obama, wir
00:18:21: hatten immer Obama in unserer Testumgebung, der ist jetzt halt nicht
00:18:24: wirklich Celebrity im eigentlichen Sinne, aber halt eine Person des öffentlichen
00:18:29: Interesses.
00:18:30: Und unser Ziel war, dass du eine Two Way Communication hast, das heißt, eine Art
00:18:34: Chatbot mit Gesicht, also mit Obama Gesicht.
00:18:37: mit dem du dich unterhalten kannst und die Person ist trainiert, also NLP, das ganze
00:18:42: Modell ist trainiert auf die sozialen Daten des jeweiligen Celebrities.
00:18:46: Das heißt, Obama hat dann in unserer Testumgebung immer in character
00:18:49: geantwortet.
00:18:50: Ich hab ihn immer Fragen gestellt, wie er zum Beispiel Afghanistan findet oder den
00:18:54: Krieg in Afghanistan.
00:18:56: Und er hat dann halt die Antworten gegeben, die er in real life auch geben
00:18:59: würde.
00:18:59: Aber das Problem war zum einen, dass die Zeit, wir waren ein bisschen vor unserer
00:19:04: Zeit, das heißt, dass die...
00:19:06: Celebrities viel zu viel Respekt vor diesen Art Deepfakes hatten.
00:19:10: Real -time Deepfakes.
00:19:11: Das fanden die eher beängstigend.
00:19:14: Und wir fanden oder letztlich konnte man das daher eher schwierig monetarisieren.
00:19:21: Und das nächste war, dass die Latenz in der Antwortgebung, also die Latenz in dem
00:19:26: Rendern des Videos, war noch zu lang, als dass es eine gute User Experience wäre.
00:19:32: Das heißt, wir hatten immer noch zwei, drei Sekunden bis der jeweilige
00:19:37: virtuelle Charakter geantwortet hat.
00:19:39: Und das lag überwiegend an der Chipleistung, an den CPUs, TPUs und so
00:19:44: weiter, was da gerade bei Nvidia halt so passiert.
00:19:48: Und daher haben wir diese Idee relativ schnell dann aufgegeben.
00:19:51: Die nächste Idee war, da hatten wir ein Kinderprodukt, da hatten wir auch sehr
00:19:54: viele, also 70 .000 User, da konnten dann Kinder wiederum mit einem Chatbot
00:19:59: interagieren.
00:20:00: Also es war auch wieder, also das waren Charaktere.
00:20:03: trainiert auf den auf den Infos der Charaktere.
00:20:06: Also es war wirklich in character sozusagen.
00:20:09: Das heißt, wenn ein Kind mit einem Schlumpf gesprochen hat, kamen andere an
00:20:11: Worten, als wenn ein Kind mit einer Barbie gesprochen hat.
00:20:13: Und ja, wir konnten halt lernen und spielen und singen und tanzen und keine
00:20:17: Ahnung.
00:20:18: Hatten auch super Spaß, aber da hatten wir das gleiche Problem, das einmal die Latenz
00:20:21: war ein Problem.
00:20:22: Das zweite Problem waren die Speech -to -Text -Mulette.
00:20:25: Das heißt, die KI hat die Kinder schwer nur verstanden.
00:20:31: Vor allen Dingen, weil Kinder halt...
00:20:33: Die haben einfach eine andere Sprache und vor allen Dingen international hat ein
00:20:37: indisches Kind wirklich eine andere Kindheitssprache oder Kindessprache als
00:20:40: ein amerikanisches Kind.
00:20:41: Das war wirklich ein Problem.
00:20:43: Und das Dritte ist, es ist schwer zu monetarisieren, wenn dein Nutzer nicht
00:20:46: dein Kunde ist.
00:20:46: Das heißt, du kannst einem Kind schwer irgendwie eine Subscription verkaufen.
00:20:54: Okay, und ihr habt es dann aber pivotiert und seid am Ende jetzt dort gelandet, wo
00:21:01: ihr seid.
00:21:02: Also mit diesen ganzen E -Commerce -Videos.
00:21:06: Was macht sie genau?
00:21:08: Was dürfen sich die Zuhörer drunter vorstellen, wenn sie jetzt auf eure
00:21:14: Website gehen oder wenn sie bei euch Kunde werden?
00:21:17: Was könnt ihr?
00:21:18: Was macht ihr?
00:21:19: Was tut ihr?
00:21:23: Am einfachsten ist es so vorzustellen, dass man aus einem PDF zum Beispiel ein
00:21:30: Video macht.
00:21:31: Das heißt, man hat ein langweiliges
00:21:32: sehr diskriptives Trainings -PDF, wo drin steht, was man als Mitarbeiter so alles zu
00:21:37: tun und zu lassen hat.
00:21:38: Und das Ganze kann man bei uns reinpasten und dann bekommt man daraus ein Video, wo
00:21:42: ein Avatar vorne steht.
00:21:43: Also der Avatar ist ein ganz normaler Mensch, aber es ist halt die digitale
00:21:45: Version eines Menschen, der das dann beschreibt.
00:21:48: Und das Ganze ist möglich auf jeder Sprache der Welt, die man haben möchte.
00:21:51: Man kann im Hintergrund alle anderen Fotos hochladen, Videos hochladen.
00:21:56: Man kann irgendwie andere Musik im Hintergrund laufen lassen.
00:21:59: Und...
00:22:00: Diese Videos sind im E -Commerce Bereich halt sehr steigend die Conversion.
00:22:05: Das im SEO Bereich wirst du 56 mal eher gefunden als Verkäufer, wenn du ein Video
00:22:09: online hast.
00:22:10: Versus wenn du kein Video online hast.
00:22:12: Und im ganzen, ich will sagen, HAA Bereich, aber im Trainingsbereich, dass du
00:22:16: auch manchmal Sicherheitsvideos machst und so weiter, ist es sehr wichtig, weil viele
00:22:21: Leute, also überwiegend Menschen lesen einfach nicht mehr.
00:22:24: Das heißt,
00:22:25: 95 Prozent des Inhaltes eines Videos wird im menschlichen Gehirn gespeichert versus
00:22:29: 10 Prozent des Inhaltes eines Textes.
00:22:32: Das heißt, Text ist sehr irrelevant geworden und gerade im Zeitdate von TikTok
00:22:36: wird es noch schlimmer.
00:22:37: Die Aufmerksamkeitsspanne eines normalen Menschen ist, glaube ich, acht Sekunden
00:22:40: und ein Goldfisch hat neun oder so.
00:22:43: Das heißt, man muss, das als visueller Inhalt ist unabdingbar.
00:22:49: Und das machen wir letztlich.
00:22:51: Wir erleichtern das extrem.
00:22:53: Schritt zurück in der Evolution.
00:22:55: Wir sind hinter dem Goldfisch mittlerweile.
00:22:58: Ich glaube auch, echt.
00:22:59: Ich glaube eigentlich.
00:23:00: Aber so ist es.
00:23:01: Okay, aber das bedeutet, kann man sich das so vorstellen, dass ein bisschen so die
00:23:05: Leute kennen Sora jetzt von OpenAI.
00:23:07: Ich tippe halt irgendeinen Prompt ein.
00:23:09: In dem Fall ist der Prompt ein ganzes PDF und dann schwuppdiwupp kommt ein cooles
00:23:15: Video von einem...
00:23:18: Ja, Sneaker, der durch die Gegend hüpft oder wie auch immer.
00:23:22: Nein, nicht ganz so.
00:23:23: Also nicht mit der Komplexität von Sora.
00:23:25: Also Sora hat, glaube ich, brauchte acht H100s und ein paar Stunden, so zu rendern,
00:23:30: wie sie jetzt sehen, aussehen, die Videos.
00:23:32: Also ich glaube, das ist nicht, das ist noch nicht commercially available und es
00:23:37: wird auch noch ein bisschen dauern, glaube ich, bis es für die Mehrzahl der Leute
00:23:41: anwendbar ist.
00:23:43: Aber...
00:23:45: Also wir sind halt nicht, wir sind generativ auf der menschlichen Ebene.
00:23:49: Das heißt, wir sind, der Mensch kann halt alles sagen.
00:23:53: Der Schauspieler, wenn du willst.
00:23:55: Wir können noch nicht im Hintergrund irgendwelche Schuhe generieren.
00:23:59: Das wird passieren, sobald Sora und so weiter so weit sind.
00:24:02: Und dann haben wir mit denen einfach eine Schnittstelle.
00:24:04: Und wir integrieren die dann.
00:24:07: Aber momentan bei uns ist der generative Teil der Mensch, der das bespricht und
00:24:11: eben der Text, der von uns generiert wird, aus dem jeweiligen entweder Link,
00:24:15: oder Dokument oder was auch immer du dann zur Verfügung stellst als Kunde.
00:24:20: Okay.
00:24:21: Und wie lange dauert das im Normalfall?
00:24:23: Das Video?
00:24:24: Fünf Minuten kostet fünf Euro.
00:24:26: Ja.
00:24:27: Dann.
00:24:28: Schön.
00:24:30: Wir haben vorhin schon gesagt generative KI und du hast jetzt gerade auch noch den
00:24:33: Sora und da wird es eine Schnittstelle geben, hast du gerade gesagt, ihr habt am
00:24:37: Anfang mit einem eigenen Modell gestartet, seid aber dann nachher auf Open
00:24:43: AI gegangen, bzw.
00:24:44: habt euch da angeflanscht, wenn ich das jetzt so technisch...
00:24:48: Genau, wir haben immer noch unsere eigenen Modelle, die draufliegen auf den
00:24:51: existieren, auf den Open Source Modell.
00:24:52: Wir haben, glaube ich, 51 Modelle insgesamt, die wir verwenden, weil wir
00:24:55: sind ja, wir haben ja verschiedenste Abteilungen, wenn du so möchtest, oder
00:25:00: Säulen in der KI.
00:25:01: Das heißt, wir haben Computer Vision, das ist der ganze visuelle Teil.
00:25:04: Dann haben wir NLP, das ist der inhaltliche Teil.
00:25:07: Dann haben wir Sprache, ja, das ist der visuelle, der Audio -Teil.
00:25:11: Das heißt...
00:25:12: Alle diese verschiedenen Komponenten müssen ja miteinander verheiratet werden.
00:25:16: Bei allen gibt es Open Source Modelle.
00:25:19: Bei allen haben wir eigene kleine Modelle drauflagen.
00:25:22: Wir hatten ganz am Anfang unser eigenes LLM mit 17 Milliarden Parameter.
00:25:26: Das war halt wesentlich kleiner als die, die jetzt sind.
00:25:29: Also es lief ganz gut, aber halt nicht mit der Qualität von OpenAI, das dann rauskam
00:25:34: im November letzten Jahres.
00:25:36: So, das heißt...
00:25:37: Es ist ein Konglomerat sozusagen aus eigenen Modellen, aus lizenzierten
00:25:43: Modellen, Open Source Modellen.
00:25:45: Man kann sich das, man schätzt das so einfach vor, aber letztlich so einfach ist
00:25:48: es halt nicht, weil man muss auch drunter noch die Infrastruktur bauen, diese ganzen
00:25:52: Modelle miteinander sprechen lässt, wenn man so möchte.
00:25:55: Also das ist im Prinzip auch USP, obwohl es sagt, wir haben die unterschiedlichen
00:25:58: Modelle, die jetzt diese Feinheiten hinkriegen, diese Videos entsprechend zu
00:26:02: gestalten.
00:26:03: Und Open AI ist so ein bisschen, ja.
00:26:07: ganze Basis?
00:26:08: Das ist nur Textgenerierung.
00:26:09: Das ist OpenAI.
00:26:11: Das ist auch beliebig ersetzbar durch Mistral, durch das neue Google -Modell,
00:26:17: durch das Metamol.
00:26:19: Also, Textgenerierung ist ehrlich gesagt das einfachste an dem Ganzen.
00:26:23: Die Sequenz ist das Schwierigste.
00:26:24: Das heißt, dass der Avatar zur richtigen Zeit das Richtige sagt und das Richtige
00:26:29: referenziert.
00:26:30: Okay, und da sind eure Modelle dran?
00:26:34: Genau.
00:26:36: Jetzt würde es mich interessieren, damit diese Modelle funktionieren, müssen die
00:26:39: auch trainiert werden.
00:26:41: Wir wissen ja auch von JetGPT, du hast es jetzt auch schon ein bisschen
00:26:43: angesprochen.
00:26:45: Am Anfang hat es super funktioniert, vor allem mit Englisch.
00:26:48: Deutsch hat ein bisschen noch gehingt, weil die Trainingsdaten eher im Englischen
00:26:52: waren und so weiter und so fort.
00:26:55: Wie seid ihr da dran gegangen oder wie macht ihr das, dass ihr sagt, okay, ja,
00:27:02: das Thema, was nutzt ihr zum Training?
00:27:05: AWS, also meinst jetzt als Cloud Solution?
00:27:07: Also als Cloud Solution haben wir AWS.
00:27:12: Die Modelle werden ganz normal wie bei allen anderen auch trainiert.
00:27:18: Oder was meinst du mit was nutzen?
00:27:19: Naja, von den Datenquellen muss ich irgendwo speisen.
00:27:23: Also es gibt ja auch diese Diskussion, genau, auf welche Daten die zugegriffen
00:27:27: haben und so weiter und so fort.
00:27:29: Ja, ja, okay, alles klar.
00:27:31: Also je nachdem, ob du R &D machst, also...
00:27:35: Research and Development können die, und du wissenschaftler heißt als Unternehmer,
00:27:40: das heißt, wir haben einige Mitarbeiter, die direkt von den Universitäten gekommen
00:27:45: sind und die keine Ahnung, promovierte Mathematiker sind, die haben zum Teil ihre
00:27:52: Trainingssätze mitgebracht.
00:27:54: Das heißt, die hatten da lizenzierte Trainingssätze, die sie verwenden durften.
00:27:59: Das war das eine.
00:28:00: Das andere war, du kannst natürlich diese Trainingssätze kaufen, ganz normal.
00:28:04: dann kannst du die, kannst auch nur kurzfristig Lizenzen kaufen.
00:28:10: Also es gibt da alle möglichen Varianten, letztlich die KI zu trainieren.
00:28:16: Aber ich muss sagen, was wir am meisten gemacht haben, waren tatsächlich die
00:28:19: Mitarbeiter, die mitgebracht haben von den Unis und wir darauf trainiert haben.
00:28:23: Okay.
00:28:24: Und wenn man jetzt nochmal diese Brücke spannt auch zu, ja sag ich jetzt mal
00:28:28: OpenAI.
00:28:29: und dass das vor allem auf Englisch ist.
00:28:31: Und mit deiner Antwort, die du auch bei den AB Fragen gegeben hast, dieser gewisse
00:28:36: Bias, der dann ja auch drinnen ist.
00:28:38: Du hast es ja mit der Medizin ausgedrückt.
00:28:40: Wir haben ja eben diese Krankheitsbilder eher aus Amerika, die ähnlich sind, aber
00:28:48: anders verteilt sind, die Distributionsrechtweite oder
00:28:51: möglicherweise.
00:28:52: Wie geht es ihr damit Wie geht es ihr als Unternehmen mit solchen Sachen Weil das
00:28:57: bedeutet ja auch für euch, dass
00:28:59: eure Modelle in eine gewisse Richtung gehen?
00:29:04: Ja, ich glaube, das ist ein vielschichtiges Problem.
00:29:09: Also, im Kleinen ist es bei uns innerhalb der Company so gewesen, dass die LipSync
00:29:14: -Modelle am Anfang nicht gut auf Deutsch funktioniert haben.
00:29:18: Und ich habe mich immer gefragt, warum das so ist.
00:29:20: Also, das heißt, dass B nicht gut dargestellt werden konnte und ...
00:29:24: Wenn ich es mir angucke, ist es relativ gut geworden.
00:29:26: Aber auf Japanisch habe ich die gleichen Probleme, dass die Lippen sich nicht
00:29:30: schließen und die Bewegungen nicht so richtig zu dem Ton oder dem Wort passen.
00:29:37: Ich habe mich gefragt, was das Problem dahinter ist und festgestellt, dass es
00:29:41: daran liegt, dass meine Entwickler kein Deutsch sprechen.
00:29:43: Das heißt, die haben es nicht gesehen.
00:29:45: Auf Englisch haben sie es gesehen.
00:29:46: Ich habe einige Entwickler, die muttersprachlich Arabisch sprechen.
00:29:50: In Arabisch haben sie es gesehen.
00:29:52: aber eben nicht in Deutsch, nicht in Spanisch, nicht in Japanisch.
00:29:55: Und das ist eigentlich symptomatisch für ein größeres Problem.
00:29:58: Und das größere Problem ist, dass KI wird ultimativ zu kritischer Infrastruktur, so
00:30:04: wie Gas und Öl halt in der Welt kritische Infrastruktur ist.
00:30:09: Nur ist das alles inhaltlich basiert auf dem liberalen, amerikanischen Gedankengut.
00:30:19: Also alles in Ordnung, weil ich glaube, das ist unserem sehr nahe letztlich.
00:30:25: Aber es mangelt dann natürlich an Vielfalt.
00:30:27: Und das Zweite ist, es fußt alles auf Englisch.
00:30:31: Das heißt, am Ende sind die Ergebnisse immer nur sehr, sehr gute Übersetzungen
00:30:37: aus dem Englischen.
00:30:40: Und deshalb funktionieren einige Sprachen auch nicht richtig.
00:30:44: Im Internet ist die Hälfte des Inhaltes des Internets auf Englisch, 51%, glaube
00:30:50: ich.
00:30:51: Aber in der real world sind es nur 25 % der Bevölkerung, die global Englisch Der
00:30:59: Rest ist viel fragmentierter.
00:31:01: Das ist ganz viel Urdu, ganz viel Hindi, Chinesisch und so weiter.
00:31:05: Und diese gesellschaftliche oder menschliche Vielfalt, die es auf dem
00:31:09: Planeten gibt, wird halt nicht in diesen Modellen abgebildet.
00:31:14: Das heißt, wir haben einen relativ krassen Bias.
00:31:18: Und der Bias geht halt hin zu diesem, wie ich sagte, amerikanischen liberalen
00:31:21: Gedankengut.
00:31:23: Das heißt, kein Moslem, der etwas generiert und Google wird ja ultimativ
00:31:30: oder der Open AI Search wird irgendwann Google ersetzen meines Erachtens.
00:31:35: Oder zumindest AI Search wird Google, wie es jetzt ist, ersetzen.
00:31:39: Also jede generierte Antwort.
00:31:42: Oder die generierten Antworten werden auf jeden Fall für Menschen, die nicht dieses
00:31:45: amerikanische liberale Gedankengut leben, nicht zufriedenstellend sein, ultimativ.
00:31:49: Und das heißt, das ist das im Großen, was ich jetzt im Lip -Sync im Kleinen hatte,
00:31:53: wo man überlegen muss, was dafür die Antwort ist, auf lange Sicht.
00:31:58: Ja, ich meine, ich verstehe das absolut.
00:32:00: Es ist ja nicht jetzt nur bei KI so.
00:32:02: Ich meine, ich jetzt tatsächlich auch in ...
00:32:06: Mein Thema Lean reingehe, wenn du dir anschaust, es kommt ja auch aus dem
00:32:09: Japanischen und es wurde ins Englische übersetzt und dann ins Deutsche und da
00:32:13: geht so viel verloren bei den Schritten.
00:32:17: Und die Begriffe, die da genutzt werden, passen eigentlich gar nicht mehr mit der
00:32:20: Bedeutung aus dem Japanischen so richtig zusammen.
00:32:23: Und es geht sehr viel inhaltlich verloren.
00:32:26: So kann ich mir das sehr gut, also da kann ich mir so die Brücke, das kann ich mir
00:32:29: gut vorstellen.
00:32:31: Vor allem japanisch, wo die Schriftzeichen sich untereinander...
00:32:36: untereinander referenzieren.
00:32:37: Also Kenji, das fehlt komplett.
00:32:40: Das heißt, dass das eine Schriftzeichen hat in der Verbindung mit dem Nächsten
00:32:44: eine völlig andere Bedeutung, wenn du einfach das nächste durch ein anderes
00:32:48: ersetzt.
00:32:49: Das ist super problematisch.
00:32:51: Deswegen funktionieren die aktuellen Modelle eigentlich nur mit den romanisch
00:32:59: basierten Sprachen, in die von Englisch leicht übersetzt werden kann.
00:33:03: Aber eben nicht auf ...
00:33:04: schriftzeichenbasierte sprachen wie koreanisch japanisch und chinesisch die
00:33:09: von der logik her eben völlig anders funktioniert.
00:33:14: Aber wird daran gearbeitet?
00:33:18: Ich meine es ist ja auch ein thema.
00:33:20: Ich meine wenn die KI nur einen Bios kennt dann sagst du okay ist zwar nett aber ist
00:33:26: halt dann auch irgendwo begrenzt dann.
00:33:28: Klar also ich meine alle arbeiten mit hochdruck daran.
00:33:31: Wenn du guckst was google gemacht hat die haben
00:33:34: Deswegen hatte Google ja diesen Fauxpas mit den wirklich unerwünschten Ergebnissen
00:33:38: des letzten Bildmodells Gemini, die, wenn du gefragt hast, wie ein Wehrmachtsoldat
00:33:45: aus 1943 aussieht, Bilder mit People of Color oder, ich glaube, waren halt völlig
00:33:51: abstruze, für die Zeit abstruze Bilder produziert.
00:33:57: Was dafür spricht, dass Google eben auf den normalen Foundation -Models
00:34:03: ihr Feintuning draufgelegt hat, mit dem Ziel, möglichst diverse Ergebnisse zu
00:34:09: produzieren.
00:34:10: Eben als Spiegel von erstens deren Corporate Culture, also deren
00:34:16: Firmenkultur, als auch als ein Spiegel von einer Gesellschaft, die sie sich wünschen.
00:34:22: Und dann ist natürlich immer eine Gradwanderung, an welcher Stelle...
00:34:29: oder...
00:34:30: Was wünscht du dir, wie eine Welt auszusehen soll?
00:34:34: Natürlich ist das, was Google anstrebt, dass alle Menschen gleich sind.
00:34:39: Egal welche Hautfarbe, welche Orientierung.
00:34:42: Eigentlich sind wir Menschen alle gleich.
00:34:45: Das ist deren Anspruch.
00:34:47: Nur ist das nicht die Wahrheit und die Wirklichkeit gewesen in 1943.
00:34:53: Das heißt, wir werden niemanden...
00:34:55: Es gab wahrscheinlich sehr wenige bis zero.
00:34:57: People of Color, die Wehrmachtshalte hatten, waren.
00:35:01: Deswegen ist eben die Frage, was man in der Schale macht.
00:35:04: Bei denen wird es eine Mensch -Mensch -Entscheidung gewesen sein.
00:35:08: Und die sind damit auf den Bauch gefallen.
00:35:10: Das heißt, wir sehen das selbst auf höchster Ebene, und ich meine, Google ist
00:35:14: eins der floriensten Tech -Unternehmen weltweit, dass selbst die damit da in der
00:35:22: Findung sind letztlich.
00:35:24: und noch nicht final eine Antwort haben, wie man das Problem lösen kann.
00:35:28: Aber glaubst du, dass das gelöst werden kann, dieses Thema?
00:35:33: Ja, also ich glaube, man kann sich auf jeden Fall eine besseren Ergebnis
00:35:38: approximieren, indem man schon mal die Datensätze so divers wie es geht
00:35:42: gestaltet.
00:35:44: Letztlich ist es ja auch immer so ein Spiegel der Datensätze.
00:35:49: Zum Beispiel wurden Computer Vision...
00:35:52: Videos oder Trainingsvideos, zum Beispiel den menschlichen Gang darzustellen mit
00:35:58: einer KI.
00:35:59: Diese Trainingsvideos wurden zum Großteil an Flughäfen aufgenommen, weil es dort
00:36:05: relativ einfach ist, nicht in Deutschland wahrscheinlich, aber relativ einfach ist,
00:36:11: an Videodaten zu kommen.
00:36:13: Und wen siehst du am Flughafen gehen?
00:36:16: Das sind Männer auf Geschäftsreisen.
00:36:19: Das heißt...
00:36:19: Der Gang eines Menschen wurde für die KI geprägt zu 80 % von weißen Männern, die
00:36:25: von A nach B schreiten, weil sie gerade von London nach Miami fliegen oder so.
00:36:32: Oder London nach Istanbul, keine Ahnung.
00:36:34: Und der Gang wird dann übertragen, wenn du dann der KI irgendwann sagst, generiere
00:36:39: mir eine Frau, die von A nach vom Auto zum Baum geht, das wird trotzdem dann
00:36:45: eigentlich der Gang eines Mannes sein.
00:36:47: Weil die Trainingsdaten sind halt von den Männern, die an den Plughäfen rumgelaufen
00:36:51: sind.
00:36:52: Und diese Diversität in die Trainingsdaten zu bringen, ist extrem schwer, aber halt
00:36:58: notwendig.
00:37:00: Letztlich sind die Trainingsdaten und Trainingssätze das wirkliche Gold.
00:37:04: Weil es gibt, we're running out of data irgendwie.
00:37:07: Das Internet wird in zwei Jahren ausgelesen sein.
00:37:09: Das heißt, es wird dann keine neuen Daten mehr geben.
00:37:13: Google sitzt auf einem riesen ...
00:37:15: Riesenschatz, die haben alle oder haben irgendwie 28 Millionen Bücher zum Beispiel
00:37:19: digitalisiert.
00:37:20: Aber das Problem ist wirklich, wo gibt es also, dass es halt Daten geben muss und
00:37:26: auch die ganzen großen Verlage und so weiter, die verhindern, dass deren Daten
00:37:31: gescraped werden.
00:37:32: Also die verhindern, dass deren Webseiten jetzt gescraped werden zum Großteil.
00:37:35: Das heißt, wir haben, es gibt ein Datenproblem und dieses Problem wiederum
00:37:40: wird reflektiert in den Modellen letztlich.
00:37:43: Wenn wir jetzt das Datenproblem haben, dann werden wir das in ein paar Jahren
00:37:52: sehen.
00:37:53: Google hat versucht, mit Finetuning, mit einer Layer Solution draufzuarbeiten.
00:37:58: Du kannst ja auch synthetische Daten haben.
00:38:00: Nur so, wenn sich ein Problem praktisch schon in den Ursprungsdaten auffindet,
00:38:05: wird sich das weiterfressen in die nächsten.
00:38:09: Das wird ja irgendwann immer schlechter letztlich.
00:38:12: Der Schaden ist dann so eine Art Weiterfresserschaden.
00:38:14: Genau, du hast gerade zwei Punkte, finde ich super spannend.
00:38:17: Das eine ist synthetische Daten.
00:38:19: Dann werden synthetische Daten generiert, die ich dann auch wieder zum
00:38:22: Trainingszwecken nutze und so weiter und so fort.
00:38:24: Wenn in diesen synthetischen Daten, also diesen Ergebnissen ja eigentlich auch
00:38:28: schon, ich sage jetzt mal Schwachsinn drinnen ist, oder ein gewisser Bios drin
00:38:34: ist, wie auch immer, kann ja beides sein, dann wird ja irgendwann das
00:38:42: Mehrheit übernehmen, oder?
00:38:43: Dann wird das ja noch stärker in die Richtung gehen, oder?
00:38:49: Siehst du dieses Problem auch auf uns zukommen?
00:38:53: Mit Sicherheit.
00:38:55: Pip Klöckner hat auf seiner OMR Keynote eine extrem gute Folie dazu an die Wand
00:39:01: geworfen.
00:39:02: Übrigens diese Keynote kann ich sehr empfehlen.
00:39:03: Jedenfalls sagt er ja, dass es wie bei den Habsburgern ist damals.
00:39:07: Das heißt, dass die Genetik wird halt...
00:39:10: Genau, es ist Inzucht.
00:39:11: Genau das ist das Grundproblem der synthetischen Daten.
00:39:15: Das heißt, dass irgendwann wird es halt immer dünner und dünner und dünner, was da
00:39:19: an neuen Daten zukommt, an neuen Impulsen.
00:39:22: Das heißt, wenn du einer KI sagst, du versuchst meinetwegen ein Computer Vision
00:39:26: Modell zum autonomen Fahren zu trainieren und sagst, versuchst dem beizubringen, wie
00:39:31: ein rotes Auto aussieht.
00:39:33: Du selber hast aber nur meinetwegen 100 Fotos von roten Autos.
00:39:37: Dann sagst du der KI, ich möchte aus diesen 100 Fotos aber einen Trainingssatz
00:39:41: von 1000 Fotos für eine KI, für 1000 Fotos von roten Autos für dieses Modell
00:39:46: generieren, damit ich das Modell auf roten Autos trainieren kann.
00:39:49: Dann wird der KI, jedes Bildgebungstool wird in der Lage sein, dir in einer Minute
00:39:55: irgendwie 1000 Fotos von roten Autos zu generieren.
00:39:58: Nur, wenn das basiert ist auf diesen 100 ursprünglichen, wird dann irgendwann
00:40:03: nichts mehr Neues hinzukommen.
00:40:04: Und das heißt, die Qualität wird dann definitiv einfach schlechter werden.
00:40:08: Und so wie bei den Habsvogeln, irgendwann wird es auch sterben.
00:40:13: Irgendwann wird das Innene unter Kind zu groß sein und dann hast du keine Chance
00:40:17: mehr.
00:40:18: Davon müssen wir aufpassen.
00:40:20: Glaubst du, dass die bestehenden Modellen bei den großen Modellen, dass es in die
00:40:24: Richtung gehen kann, dass die sich selber, sag ich mal, den Hahn abdrehen?
00:40:28: Überholen.
00:40:29: Noch nicht.
00:40:30: Also, wie gesagt, das Internet ist noch nicht ausgelesen.
00:40:33: Ich denke, es gibt noch große Datenschätze.
00:40:36: Also, wie gesagt, Google hat einen immensen Schatz an Daten.
00:40:41: Ich denke auch, dass Deutschland sehr viel Daten hat, die natürlich momentan nicht
00:40:46: genutzt werden, aus datenschutzrechtlichen Gründen.
00:40:48: Aber die ganze Industrie, die ganze Fertigung, der ganze Mittelstand, da sind
00:40:53: riesen Data Lakes, die letztlich super interessant wären zum Trainieren für die
00:40:57: KI.
00:40:57: Aber weil die eben zum Teil auch noch sehr unsortiert sind, würde ich mal sagen,
00:41:03: können die natürlich nicht als Trainingsdaten fungieren.
00:41:07: Aber irgendwann werden sie sicherlich alle bewusst sein, auf welchen Schätzen sie
00:41:12: sitzen und daraus auch Geschäft machen.
00:41:16: Also das wird sicherlich sehr interessant werden für viele.
00:41:19: Jetzt haben wir darauf gesagt, dass die Ergebnisse schlechter werden können durch
00:41:23: synthetische Daten.
00:41:25: Wenn ich das jetzt mal ein bisschen weiterschwöre und sage,
00:41:28: hypothetisch, wir haben die besten Daten, es gibt keinen Bias, wir sind komplett
00:41:32: neutrale Modelle und so weiter und so fort.
00:41:36: Wenn ich das jetzt einmal an Google denke, dass du jetzt schon das Öfteren erwähnt
00:41:40: hast, wenn ich da was suche, poppt auch relativ schnell oben die ganzen sponsored
00:41:46: Links auf.
00:41:48: Glaubst du, dass sich die Geschäftsmodelle, ich meine Open AI ist ja
00:41:52: eigentlich gestartet, damit das für alle zur Verfügung stehen soll und so weiter
00:41:56: und so fort?
00:41:58: dieser Anbieter auch in die Richtung wandelt.
00:42:02: Wir wollen ja auch irgendwann einmal ordentlich Geld damit verdienen, dass sie
00:42:06: sagen, wenn irgendwie diese klassischen Fürsuchanfragen genutzt werden, dass auch
00:42:13: Unternehmen quasi ein bisschen sponsoren können, dass ihre Ergebnisse eher
00:42:18: bevorzugt werden.
00:42:20: Ja klar, also gerüchteweise macht das
00:42:25: Also ist OpenAI in Gesprächen mit Verlagen, dass deren Content letztlich
00:42:30: preferential, also vorteilhafter gefeaturet wird.
00:42:36: Bevorzugt wird.
00:42:37: Also, ich meine, bei Google wird es immerhin gekennzeichnet, dass es Sponsored
00:42:42: -Links sind.
00:42:43: Das wird schwierig, wenn das allgemeine Verständnis sich da hingegen verändert,
00:42:47: dass die großen Modelle an Content generieren, dass das die Wahrheit ist.
00:42:52: Und wenn dann die Wahrheit eben dominiert ist von ...
00:42:55: kommerziellen Interessen, ist das eine schwierige Entwicklung.
00:42:59: Zumal wir ja alle in den letzten Jahren so gelebt haben, dass was Google dir als
00:43:06: Ergebnis zeigt, neutral ist.
00:43:08: Wir gehen ja abgesehen von den 4, 5, 6 Sponsored Links, die oben drüber liegen,
00:43:12: aber wir gehen ja davon aus, dass im Prinzip, dass das, was Google uns zeigt,
00:43:16: so ist es dann auch.
00:43:17: Der Wahrhaftigkeitsgehalt ist relativ hoch.
00:43:20: Nur bei den Modellen wird es anders sein.
00:43:23: Das heißt, die nächste Entwicklung wird dann sein, dass man dann das werbefrei
00:43:28: kaufen wird, wenn sie es zeigen oder wenn sie es markieren.
00:43:33: Also ich persönlich denke, dass diese ganzen Modelle letztlich eigentlich ein
00:43:37: großes, einfach nur ein Enablement sind für die Unternehmen, ihre Cloud zu
00:43:41: verkaufen.
00:43:41: Weil das ist eines der profitabelsten Geschäfts, also Zweige für die meisten,
00:43:48: vor allem für Amazon, die verdienen, haben ...
00:43:50: wesentlich höhere Margen in der Cloud -Lösung als im Versandhandelgeschäft.
00:43:55: Daher denke ich, da wird es irgendwann dahingehen.
00:43:59: Weil irgendwann werden wir alle auch verstehen, dass die Ergebnisse, die von
00:44:04: diesen LLMs generiert werden, eben immer mit so ein bisschen Vorsicht zu genießen
00:44:11: sind.
00:44:11: Weil man eben nicht weiß, wie dabei es ist, welche Interessen dahinter stecken
00:44:15: und so weiter.
00:44:16: Was würdest du dann unternehmen und auch Kunden raten in der Hinsicht?
00:44:20: Also ich glaube, dass Transparenz ist immer ein Key, also sich und Wissen und
00:44:27: Bildung, also sich zu informieren, zu verstehen, welches LLM hat welchen Bias
00:44:32: sozusagen, welchen LLM hat welche Gesinnung, welches Geisteskind sozusagen.
00:44:41: Also wenn man sich das bewusst ist, glaube ich, kann man dann ganz gute
00:44:45: Entscheidungen treffen.
00:44:46: Ich finde auch wichtig, dass es extrem viel Vielfalt innerhalb der LLMs gibt.
00:44:50: Weil dann, sobald man das miteinander benchmarkt, kann man ja sehr gut sehen, in
00:44:55: welche Richtung das jeweils geht.
00:44:57: Nehmen wir an, wir hatten einen BRD -GPT.
00:45:00: Dann könnte man sehen, wenn man dort eine Antwort generiert, kann man sehr klar
00:45:05: sehen, wie das im Verhältnis wäre zu einem aus den USA, wo die Antwort wahrscheinlich
00:45:10: wesentlich anders ausfallen würde.
00:45:12: Glaubst du, wäre das auch so eine Lösung, dass es mehr so spezialisierte...
00:45:16: Modelle geben wird in Zukunft oder ich sage jetzt mal rein auf Medizin oder rein
00:45:21: auf wie du schon sagst irgendwie Geschichte oder was auch immer Ja es gibt
00:45:27: dazu tatsächlich also die letzten Studienlage besagt dass die
00:45:34: Spezialisierten Modelle nicht nicht performanter sind als die generalistischen
00:45:38: Modelle das heißt die großen
00:45:40: Modelle von OpenAI und von Google sind immer noch besser, auch im medizinischen
00:45:45: Bereich, als die kleineren.
00:45:47: Das heißt, was ich annehme, ist, dass es einfach ein Fine -Tuning gibt,
00:45:50: beziehungsweise Layer Solutions on top, die dann auf die großen Basismodelle
00:45:56: ansetzen.
00:45:58: Und die werden ja ohnehin schneller.
00:46:00: Die Grundkritik war immer, dass die großen Modelle halt nicht so langsam sind, wie
00:46:04: diese kleinen Speedbooth -haften Modelle von Mistral zum Beispiel.
00:46:08: Aber grundsätzlich wird es so sein, dass es dann Spezialisierungen geben, die dann
00:46:13: draufliegen auf den großen Foundation of Models.
00:46:17: Dann lassen wir uns jetzt noch mal in eine Richtung gehen.
00:46:19: Thema EU AI Act.
00:46:23: Du hast den Punkt Transparenz auch schon erwähnt.
00:46:25: Ist ja auch einer, der sehr stark diskutiert wird, auch welche Datenquellen
00:46:32: wurden genutzt oder werden genutzt und spätestens auch nach dem Interview mit
00:46:36: Mira Murati, der CTO von OpenAI, die dann zum Thema Zora gesagt hat, ja, okay, wir
00:46:42: sind herumgedruckst hat, welche Daten sie genutzt haben, war aber auch allen
00:46:46: irgendwo klar, denen es noch nicht klar war bis dahin, dass es nicht nur legal
00:46:51: erworbene Daten sind, mit denen trainiert wurden.
00:46:56: Und jetzt gibt es ja immer wieder unterschiedlichste Spekulationen, was denn
00:46:59: der AI -Act denn im Detail dann bedeuten kann, vor allem angesichts der Tatsache,
00:47:04: dass ja...
00:47:05: man ja auch den Statusquo von bereits trainierten Modellen irgendwie nicht
00:47:11: zurückdrehen kann, das Training.
00:47:12: Also wo ich sagen kann, okay, die Quellen darfst du jetzt nicht nutzen, jetzt musst
00:47:15: du die rausnehmen aus deinem Modell.
00:47:17: Das irgendwie zurücknehmen ist ja auch etwas schwieriger.
00:47:21: Welche Szenarien sind denn da deiner Meinung nach denkbar, die eintreten können
00:47:25: für die Hersteller dieser Modelle?
00:47:28: Also jetzt so ex ex...
00:47:31: Post sozusagen.
00:47:32: Also ich glaube nicht, dass es irgendwie möglich sein wird, die Zeit
00:47:35: zurückzudrehen.
00:47:36: Und das heißt, dass OpenAI hat fünf Jahre lang jetzt trainiert.
00:47:40: Das heißt, die haben unfairerweise einen so krassen Wettbewerbsvorteil, weil die
00:47:46: tatsächlich, also das Transkribieren, die haben es ja mit Whisper gemacht, das ist
00:47:49: dieses eine Transcription Modell von OpenAI, das Transkribieren von den ganzen
00:47:55: YouTube -Daten.
00:47:56: finde ich halt schon ein bisschen dreist, wenn ich ganz ehrlich bin.
00:47:59: Und deswegen, Mira Moratti wusste das auch und deswegen hat sie auch so komisch
00:48:01: reagiert, glaube ich.
00:48:04: Also, könnte man meinen.
00:48:06: Und letztlich wusste das, glaube ich, wusste das Google auch und hat halt die
00:48:14: Augen verschlossen.
00:48:14: Also es gibt Gerüchteweise, hat Meta, saß Meta immer daneben und hat zugeguckt und
00:48:21: war quasi sauer, dass die es nicht einfach so können.
00:48:23: Google hat selber auch...
00:48:25: anscheinend auf den YouTube -Daten trainiert.
00:48:29: Und das ist dahingegen schwierig, weil YouTube das eigentlich in deren AGB
00:48:37: ausschließt, dass deren Videos zum Scrapen und zum Training von anderen und so weiter
00:48:42: von Dritten halt genutzt werden darf.
00:48:45: Daher werden die ganzen Nutzer, die das dort hochgeladen haben, ihre Videos
00:48:49: hochgeladen haben, garantiert es nicht.
00:48:51: gewusst haben und auch nicht mit in der Absicht, dass es dann später von irgendwem
00:48:54: genutzt wird.
00:48:56: Das heißt, man kann die Zeit nicht zurückdrehen.
00:48:58: Was jetzt der AI Act hat, klassifiziert jetzt verschiedene Use Cases und vor allen
00:49:04: Dingen Gefahrenklassen.
00:49:05: Da geht es vor allen Dingen manipulative KI, also gerade Dinge mit
00:49:10: Gesichtserkennungssoftware und so weiter.
00:49:12: Na klar, sollte man die regulieren.
00:49:14: Meines Erachtens ist ein bisschen unglücklich jetzt, dass es alles
00:49:18: einmal so reguliert wird, anstatt dass einzelne Industrien reguliert werden und
00:49:21: dann vielleicht auch ein bisschen mehr im Detail.
00:49:24: Und auch, also Industrien wie zum Beispiel, ja, also nur
00:49:29: Gesichtserkennungssoftware.
00:49:30: In Amerika zum Beispiel gab es von Amazon oder RWS gab es so eine
00:49:34: Gesichtserkennungssoftware, die die amerikanische und vor allem New Yorker
00:49:37: Polizei genutzt hat, die nicht in der Lage war, schwarze Frauen als solche zu
00:49:43: identifizieren.
00:49:44: Weil die halt so einen harten Bias in deren Trainingsdaten haben.
00:49:47: Sowas geht natürlich auf keinen Fall.
00:49:48: Dafür ist der AI -Act bestimmt sehr sinnvoll.
00:49:52: Nur die Ausgestaltung fehlt halt momentan noch völlig.
00:49:55: Keiner weiß so richtig genau, worauf man sich einlässt.
00:49:58: Und wie ich eingangs sagte, wenn wir ein komplettes Compliance -Team oder wie auch
00:50:03: immer brauchen, wieder Anwälte brauchen, die sich damit im Detail
00:50:05: auseinandersetzen.
00:50:06: Also schwierig.
00:50:07: Ich habe gerade gestern mit dem vom TÜV gesprochen.
00:50:12: Also TÜV hat jetzt eine ganze AI -Unit und die müssen ...
00:50:17: in Zukunft halt Maschinen und so weiter auf deren AI -Compliance TÜV
00:50:23: zertifizieren.
00:50:24: Und dafür haben sie, glaube ich, zwei Jahre Zeit oder so.
00:50:26: Das heißt, es ist so mit der heißen Nadel geschickt, ich weiß auch nicht, wie sich
00:50:30: das jetzt in den nächsten Jahren ausgestalten wird.
00:50:34: Also es ist TBD, muss ich sagen.
00:50:36: Und jetzt auf die, ja, sag ich mal, Hersteller oder Anbieter der großen LLMs.
00:50:44: Glaubst du, dass da irgendwie noch was kommen wird?
00:50:46: Ich meine,
00:50:48: Nee, ach, die haben ja am Ende keine Chance.
00:50:51: Also, der Day I Exit, das ist...
00:50:54: Also, ich glaube nicht, dass die da so hart in den Anwendungsbereich sozusagen
00:51:01: fallen.
00:51:02: Aber die LLMs, wie sie jetzt sind, so sind sie.
00:51:07: Da wird man am Nachhinein nicht die Datenlage transparenter machen, man wird
00:51:12: nicht irgendwie die Datenquellen transparenter machen, das ist
00:51:15: ausgeschlossen alles.
00:51:16: Also...
00:51:17: Keine Chance.
00:51:18: Auch die Gefahr, das habe ich in einem oder anderen Podcast mal gehört, dass
00:51:25: möglicherweise diese Modelle sich generell aus dem Markt zurückziehen müssen?
00:51:31: Ja, das glaube ich auch nicht, weil letztlich ist Europa schon ein relevanter
00:51:34: Markt nach USA und Asien.
00:51:37: Also das denke ich nicht, dass das passieren wird.
00:51:40: Die werden irgendeine Regelung bekommen, irgendeine Regelung finden oder die werden
00:51:43: so wie Big Tech halt ab und zu, das macht dann irgendwann die Strafenzahlen und es
00:51:49: zehn Jahre lang sich irgendwelche juristischen Kämpfe geben und
00:51:53: schlussendlich das Strafezahlen, die aber schon lange einbudetiert ist.
00:51:56: Also wie gesagt, ich glaube, das ist alles ein bisschen chancenlos.
00:51:59: Hätte ich gesagt.
00:52:01: Bevor wir jetzt in die Zielgerade kommen oder einwiegen, lass uns noch mal einen
00:52:07: Punkt ansprechen, und da würde ich gerne ansprechen, und zwar das Thema allgemeine
00:52:11: künstliche Intelligenz, also AGI.
00:52:14: Bei dem ja Hauptmerkmal ist, eine breitere Fähigkeit, über mehrere Dominien hinweg
00:52:19: geht, auch das Thema Selbstlernen oder auch eine Art Bewusstsein.
00:52:24: Als Partner von OpenAI, der ihr ja seid,
00:52:29: Wie steht es denn das Thema?
00:52:31: Weißt du da mehr?
00:52:33: Kannst du da aus dem Nähkästchen plaudern?
00:52:37: Nee, kann ich nicht.
00:52:39: Aber ich kann dazu zwei Sachen sagen.
00:52:41: Also erstens, ich finde es ein bisschen schwierig, wenn gesagt wird, dass selbst
00:52:47: wenn es 80 Milliarden kosten würde, ATI zu entwickeln, sei es halt so.
00:52:52: Also man muss sich auch bewusst sein, dass es externe Kosten des Trainierens der
00:53:01: Modelle gibt.
00:53:01: Also das heißt...
00:53:03: Der Energieverbrauch ist immens und darüber wird kaum gesprochen, was es für
00:53:08: unseren Planeten bedeutet, wenn wir 80 Milliarden in das Training von KI -Modelle
00:53:14: einbauen.
00:53:14: Das heißt, man müsste eigentlich permanent Atommailer bauen.
00:53:19: Ich glaube, der wirkliche Energieverbrauch ist wenigen bewusst.
00:53:23: Deswegen bin ich mir nicht sicher, ob das der richtige Ansatz ist, dass man sagt, no
00:53:30: matter what.
00:53:30: So ist mir völlig egal, wie der Preis auf die Umwelt ist.
00:53:34: Das heißt, oder was ist Umwelt, aber dann planierten die Menschheit grundsätzlich.
00:53:38: Das heißt, das Bepreisen von Externalitäten fehlt schon wieder in
00:53:41: diesem Kontext.
00:53:42: So wie eine Carbon Tax, wenn man fliegt oder was auch immer.
00:53:47: Oder wenn man Dinge verschickt, fehlt die eigentlich auch.
00:53:49: Also wenn man aus China irgendwelche Dinge verschickt, sollte es eigentlich mit einer
00:53:52: CO2 -Steuer bepreist werden, weil das einfach ein Kosten für alle bedeutet
00:53:59: letztlich so.
00:54:00: Aber das finde ich schwierig, dass AGI, also mit der Einstellung reinzugehen, no
00:54:06: matter what, egal was passiert, wir machen es trotzdem so.
00:54:09: Dann, zweitens, was ich irgendwie dabei auch schwierig finde, ist die Annahme oder
00:54:17: die Kommunikation, was AGI überhaupt sein soll.
00:54:19: Wenn wir uns angucken, was die menschliche Evolution geleistet hat, die letzten 100
00:54:24: .000 und plus Jahre, wir haben angefangen mit einer Zelle, die zwischen hell und
00:54:28: dunkel unterscheiden konnte.
00:54:30: Das heißt, es hat 100 .000 Jahre gedauert, bis wir als Menschen jetzt so sind, wie
00:54:38: wir sind.
00:54:41: Und das alles in Lichtgeschwindigkeit zu replizieren zu wollen mit ein paar
00:54:48: Sprachen und Videomobilen, finde ich irgendwie nicht anmaßend, aber auch
00:54:55: schwierig.
00:54:56: Also das heißt, meines Erachtens wird es noch wesentlich länger dauern.
00:55:00: bis weil auch diese, gerade wenn man diese Sprachmodelle sieht, sind die ja
00:55:06: letztlich, also die Sprachmodelle, wie man sie jetzt sieht, die gab es schon lange.
00:55:11: Und auch die Diffusionsmodelle, das heißt die Bildgenerierungsmodelle, die
00:55:17: Pixelvoraussagen, gibt es auch schon lange.
00:55:19: Was sich geändert hat, sind die Prozessorleistungen, die hat die
00:55:22: Performance der Modelle deutlich beschleunigt.
00:55:25: Das heißt,
00:55:27: Es sei denn, wir sehen in den nächsten 24 Monaten wirklich disruptive Technologie,
00:55:31: das heißt wirklich disruptive Modelle oder was auch immer, AGI wirklich zu schaffen.
00:55:41: Sehe ich persönlich das noch nicht, dass daraus eine allgemeine Intelligenz, die
00:55:45: mit einem Bewusstsein, die vergleichbar ist mit der menschlichen Intelligenz
00:55:49: geschaffen wird.
00:55:50: Tatsächlich kam mir jetzt noch eine Frage.
00:55:53: weil du jetzt auch noch mal das Thema CO2 -Steuer gebracht hast und so weiter und so
00:55:59: fort.
00:55:59: Was ich ja ganz spannend finde, dass das mit eingepreist werden muss.
00:56:04: Wir haben auch über das Thema Ethik gesprochen und du hast auch gesagt, ja,
00:56:09: faire Mittel, YouTube -Videos und so weiter und so fort, die transkribiert und
00:56:13: das zu nutzen.
00:56:14: Also es waren ja auch sehr kritische Stimmen oder Meinungen oder, sag ich mal,
00:56:19: Richtungen von dir heraus zu hören zu dem Thema.
00:56:23: Wie geht ihr da eigentlich bei Oxolo damit Weil ich meine, am Ende nutzt ihr ja das
00:56:28: auch auf volle Breitseite, das komplette System von Opmei oder anderen Ampietern
00:56:33: und so weiter und so fort.
00:56:35: Wie geht ihr mit diesen Themen, die du jetzt auch angesprochen hast, du sagst,
00:56:41: siehe ich kritisch, bei Oxolo selber Wir versuchen natürlich, was wir können, dass
00:56:47: wir im Kleinen quasi Fairness bringen, dass wir im Kleinen Ethik bringen.
00:56:53: Das heißt, ich habe wenig Impact auf OpenAI.
00:56:57: Also ich brauche deren Modelle.
00:56:59: Es gibt kein Alternativ los für mich.
00:57:01: Das heißt, ich kann nichts anderes machen.
00:57:05: Aber ich kann dafür versuchen, wenn ich es schon nicht in den Modellen so sehe, dass
00:57:10: ich auf meinen eigenen, vor meiner eigenen Tür sozusagen kehre, dass ich ein
00:57:14: Unternehmen baue, was zum Beispiel, wir haben doppelt so viele Frauen in Tech,
00:57:20: oder auch in einem ganzen Team.
00:57:21: wie andere Deep Tech -Unternehmen.
00:57:23: Das das eine.
00:57:24: Dann das zweite ist, wir haben, ich glaube, mehr Diversität, als man sich
00:57:28: vorstellen kann.
00:57:28: Wir sprechen 22 verschiedene Sprachen, haben 15 verschiedene Nationalitäten.
00:57:34: Das ist das zweite, worauf ich achte.
00:57:35: Dann haben wir uns auch tatsächlich für dieses Remote Only sehr bewusst
00:57:40: entschieden, weil wir gesagt haben, dass wir es völlig verrückt finden, dass eine
00:57:45: Fläche oder eine Immobilie immer halbe, dass der tagsüber leer steht.
00:57:50: Entweder ist es das Büro,
00:57:51: wenn keine Leute im Büro sind oder ist es eben das Zuhause?
00:57:54: Das heißt, wir empfinden das als hochgradig ineffizient und haben uns
00:57:57: deswegen auch dagegen entschieden, weil wir gesagt haben, es macht einfach, also
00:58:01: nicht nur wirtschaftlich, aber es macht auch einfach aus CO2, aus tausend
00:58:08: verschiedenen Gründen, diese hin und her.
00:58:10: Ich meine, allein, Leute kommen mit dem Auto zum Büro, das steht dann den ganzen
00:58:14: Tag, es macht einfach keinen Sinn.
00:58:15: Deswegen haben wir uns dagegen entschieden.
00:58:18: Ach, es gibt tausend verschiedene kleine...
00:58:21: Teile, wo man selber für sich praktisch, wo man versuchen kann Vorbild zu sein.
00:58:26: Aber wie du schon sagst, auf die großen Modelle, auf Amazon habe ich keinen
00:58:31: Impact, auf OpenAI habe ich keinen Impact und es ist halt alternativlos letztlich.
00:58:37: Das nächste ist tatsächlich, das ist ein Fun Fact, aber es ist völlig nicht
00:58:41: relevant, aber wenn man so kleine Videos von uns nimmt, ist es ein Bruchteil von
00:58:45: der, wir haben das mal ausgerechnet, ich habe es jetzt leider nicht im Kopf, aber
00:58:48: die CO2 Produktion oder die...
00:58:51: die CO2 -Kosten eines normal produzierten Videos sind, ist ein hundertfaches im
00:58:56: Vergleich zu uns.
00:58:57: Natürlich sind es Rechenleistungen, die da durchgehen, aber wenn du es vergleichst
00:59:02: mit einer normalen Produktion, wo Leute die Welt geflogen werden, wo du Kameras
00:59:06: hast, wo du Team von zehn Leuten hast, wo du immens viel Energie für verbrauchst und
00:59:10: so weiter, das ist kein Vergleich zu Klein - Solo -Videos.
00:59:14: Also, wie gesagt, ich glaube, man kann immer nur vor der eigenen Tür kehren und
00:59:18: versuchen...
00:59:19: als Vorbild voranzugehen, aber mehr dann halt leider auch nicht.
00:59:24: Okay, super.
00:59:25: So bevor wir zu den drei Learnings kommen, von dir die letzte Frage davor.
00:59:31: Hast du eine bestimmte Technologie, KI -Anwendung, Lieblingstechnologie, wie auch
00:59:35: immer, die du super faszinierend findest und die auch dein Leben besonders
00:59:39: verbessert hat?
00:59:41: Ja, das ist die Transcribe - und Summarizer -Funktion bei, nicht Funktion,
00:59:45: sondern so ein Chatbot bei WhatsApp.
00:59:48: weil ich hasse Sprachnachrichten.
00:59:50: Es raubt mir echt meinen Tag, wenn ich irgendwie am Abend dann 20 ungehörte
00:59:54: Sprachnachrichten habe.
00:59:55: Und ich kann die einfach super zu so einem kleinen Bot forwarden, der transkribiert
01:00:00: es mir und wenn es zu lang ist, dann lasse ich es nochmal summarisen und dann ist aus
01:00:04: die Maus.
01:00:05: Und die zweite, meine zweite Lieblingsanwendung ist tatsächlich eine
01:00:09: Vogel -App, eine Bird -App, die heißt Merlin, -E -R -L -I -N.
01:00:15: Das ist von Cornell, von der Uni Cornell.
01:00:18: Das ist wie der Shazam für Vögel.
01:00:20: Das heißt, wenn ich mich langweilig laufe, ich gehe damit durch die Gegend und sehe
01:00:22: so, auf Englisch heißt es da eines, das ist Chiff -Chaff, da heißt auf Deutsch der
01:00:26: Zilzalp oder in Leipzig habe ich eine Nachtiger gehört.
01:00:30: Also totales Highlight.
01:00:32: Da kannst du noch die Nabu -App dazu herunterladen und kannst dann sagen, ich
01:00:36: habe den Vogel da und da gesehen.
01:00:38: Da kannst du nämlich eintragen, wo, welche Vögel es sind.
01:00:41: Die machen dann, glaube ich, so ein Tracking auch ein bisschen damit.
01:00:45: cool.
01:00:46: Nerds unter Sicherheit.
01:00:48: Wie ich damals in Hamburg war, haben wir auch immer Frühstücksdische, wo so ein
01:00:52: Vogelhäuschen hatten.
01:00:53: Dann kamen echt unterschiedlichste Vögel und dann habe ich irgendwann begonnen, mal
01:00:57: zu suchen und zu schauen und dann einfach mal Protokoll geführt, welche Vögel wann
01:01:02: da waren.
01:01:04: siehst du?
01:01:04: Okay, krass.
01:01:07: Ja, Ja, Merlin is cool.
01:01:09: Sorry, was war die nächste Frage?
01:01:10: Ne, ne, alles gut.
01:01:12: Diese WhatsApp -Funktion, ist die von WhatsApp selber oder ist das eine App
01:01:16: noch?
01:01:16: Nee, ist ein externer Bot, aber ich kann gern die Nummer dir im Nachhinein geben,
01:01:20: dann kannst du sie sehen.
01:01:21: Find ich gut.
01:01:23: Ja, ja, es hilft einem, es ist sehr viel Pain, was da genommen wird.
01:01:28: Vor allem die Summarizer Funktion ist wirklich, wenn jemand so irgendwie am Auto
01:01:32: sitzt und in einer Viertelstunde irgendwie redet und sagt sorry, ich kann grad nicht
01:01:36: schreiben und so.
01:01:37: Und dann ist so die Essenz ist dann Satz, hast du morgen Zeit.
01:01:41: Ist gut.
01:01:43: Ja, sehr schön.
01:01:44: So, aber jetzt.
01:01:47: Tatsächlich die letzte Frage.
01:01:49: Und zwar drei Learnings von dir, die du den Zuhörerinnen mitgeben möchtest.
01:01:54: Diese Learnings können an privater oder beruflicher Natur sein.
01:01:57: It's up to you.
01:01:59: Okay.
01:02:00: Also Learning Nummer eins, wir sind ja hier im beruflichen Kontext, ist immer
01:02:05: flexibel zu bleiben.
01:02:07: Also das heißt, dass man grundsätzlich sich versuchen oder ich versuche immer in
01:02:13: der Lage zu sein, mich möglichst schnell auf neue Sachverhalte oder neue
01:02:17: Umgebung auch neue Menschen einzustellen.
01:02:20: Ich glaube, nichts ist schlimmer als eingefahren in seiner Routine, in seinem
01:02:25: System zu sein, ohne die Fähigkeit zu haben, schnell davon abzuweichen und sich
01:02:30: anderen Dingen anzupassen.
01:02:31: Das Zweite ist, was extrem wichtig ist, was auch mein Learning war, Resilienz ist
01:02:38: Prior 1.
01:02:38: Das heißt, dass man, wenn man sich schafft, resilient zu sein, irgendwas
01:02:43: dringend ändern muss.
01:02:44: Also, dass man möglichst viel, ich würde sagen, ertragen.
01:02:47: tragen können muss, aber dass man halt widerstandsfähig bleibt, eben mit der Welt
01:02:53: klarzukommen.
01:02:54: Und dann glaube ich, ist auch ein Learnings einfach den Humor nicht zu
01:02:58: verlieren und Dinge nicht zu ernst zu nehmen.
01:03:00: Also ich glaube manchmal passieren einfach so Mishaps oder total eigentlich
01:03:05: unmögliche Sachen.
01:03:06: Und wenn man da nicht die Comic drin sieht, ist man relativ schnell verloren.
01:03:11: Manche nehmen das dann zu ernst.
01:03:14: Sie nehmen das Leben auch meiner Meinung nach zu ernst.
01:03:16: Und die sind aber manchmal dann auch verstört, wenn der andere dann über
01:03:18: gewisse Dinge lacht.
01:03:20: Aber da muss man dann drüber stehen.
01:03:22: Im Thema Resilience.
01:03:23: Das glaube ich auch.
01:03:24: Don't take life too serious, glaube ich.
01:03:27: Das Leben ist zu kurz.
01:03:29: So ist es.
01:03:31: Ja, Elisabeth, danke für deine Zeit, danke für deine Einblicke.
01:03:36: Ich persönlich habe auch einiges mitgenommen und ich finde auch ganz
01:03:38: spannend, so deine Ansichten zum Thema.
01:03:41: Wir müssen mehr offen sein auch, mehr Offenheit haben, damit wir da auch den
01:03:44: Anschluss nicht verlieren gegenüber USA und auch unsere, sag ich mal, Experten,
01:03:52: Fachkräfte, Spezialisten, IT -Nerds, wen auch immer halten, die in dem Bereich KI
01:03:57: unterwegs sind.
01:03:59: auch dass du der Meinung bist, AG AI, wenn es da jetzt nicht wirklich zu einer
01:04:03: Disruption kommt, dann technologisch, dann wird es schon noch dauern.
01:04:08: Und das ist auch genauso wie der AI Act der EU noch nicht ganz zu Ende gedacht,
01:04:16: sage ich jetzt einmal.
01:04:17: Ich versuche das jetzt mal zusammenfassen.
01:04:18: Bitte korrigiere mich, falls ich es falsch zusammenfasse.
01:04:22: Nein, alles gut.
01:04:23: Und ja, auch deine, deine, deine
01:04:26: Deine Einblicke in diese ganzen Beispiele, die du gebracht hast, habe ich super
01:04:29: spannend gefunden.
01:04:30: Wo du sagst, das gibt es schon und jenes und jenes und so.
01:04:34: Man hört immer relativ viel.
01:04:36: Aber wenn man das dann noch mal von einer Expertin hört, die dann intensiv damit
01:04:40: arbeitet, was alles möglich ist, dann öffnet das auch noch mal ein bisschen den
01:04:45: Horizont für einen.
01:04:46: Das finde ich super.
01:04:47: Herzlichen Dank.
01:04:49: Ja, danke dir.
01:04:51: Danke dir.
01:04:54: Ich hoffe, dass wir den letzten Punkt irgendwann auch schaffen, dass es ein
01:04:58: persönliches Treffen ist, nicht nur virtuell, da auch, dass du aus der
01:05:05: virtuellen Welt rauskommst, vor allem auch dieses Remote.
01:05:09: Vielleicht sieht man sich auf der einen oder anderen Veranstaltung.
01:05:13: Ich wünsche dir jetzt auf jeden Fall einen schönen Tag, genieße das Wetter und liebe
01:05:19: Grüße von München noch nach Hamburg.
01:05:22: Vielen Dank, dass ich da sein durfte.
01:05:24: Hat mich sehr gefreut.
01:05:25: Vielen Dank, Johannes.
01:05:27: Das war das Interview mit Elisabeth Lorange.
01:05:30: Infos zu Elisabeth und Oxolo findet ihr wie immer in den Show Notes.
01:05:34: Am Ende jetzt noch eine kurze Bitte in eigener Sache.
01:05:38: Wenn euch der Podcast gefällt und ihr ihn informativ findet oder was auch immer,
01:05:43: dann abonniert den Podcast doch gerne auf eurer Lieblingsplattform und hinterlasst
01:05:48: dabei auch gleichzeitig einen kommen.
01:05:51: bzw.
01:05:51: eine Bewertung.
01:05:54: Wer dies bereits getan hat, der darf auch gerne den Podcast an Freunde, Bekannte,
01:06:03: Familie, Mitglieder, wen auch immer, weiterempfehlen.
01:06:06: Ich würde mich sehr freuen und es würde auch helfen, die Sichtbarkeit ein wenig zu
01:06:12: erhöhen.
01:06:14: Herzlichen Dank euch schon mal im Voraus dafür und bis in zwei Wochen.
Neuer Kommentar