Folge 148: KI als Verstärker für gute Ideen – Albert Bozesan über die Zukunft der Videoproduktion

Transkript anzeigen

00:00:00: Man kann bereits auf diversen Plattformen einen Prompt eingeben und es kommt einen Film raus.

00:00:04: Das ist dann meistens eher so ein Kinderanimationsprojekt oder sowas.

00:00:08: Aber man merkt, dass das in wenigen Jahren schon Serien sein können.

00:00:14: Ich halte aber wenig davon an sich, weil dieser ganze kulturelle Aspekt wegfällt.

00:00:20: Warum Albert Pozessan wenig davon hält, wenn Personalisierung mit KI

00:00:26: so die ganze Film- und Videobranche umkrempeln würde und jeder nur noch seinen eigenen persönlichen Film

00:00:32: oder seine eigene persönliche Serie schaut.

00:00:34: Das ist eines der vielen Themen, die ich in dieser Folge mit ihm bespreche.

00:00:39: Es geht grundsätzlich um künstliche Intelligenz in der Videoproduktion

00:00:43: und was da bereits möglich ist, wie sie zum Beispiel auch das Storytelling verändert.

00:00:49: Albert ist Creative Director AI Media bei Storybook Studios

00:00:53: und wohl einer der fundiertesten Kenner hierzulande, würde ich sagen.

00:00:57: Wenn es um den praktischen Einsatz von KI im Videobereich geht.

00:01:01: Geführt haben wir das Gespräch am 20. Februar, das sei der Ordnung halber noch gesagt.

00:01:07: Und wenn ihr unter anderem wissen wollt, was Matthias Schweighöfer zu seinem künstlich generierten Abbild sagt,

00:01:14: dann solltet ihr dran bleiben bei This Is Media Now.

00:01:17: Jetzt geht's los.

00:01:20: This Is Media Now, der Podcast der Medientage München.

00:01:25: Mein Name ist Luca Schöne und ich begrüße euch zu dieser Folge unseres Podcasts über die Zukunft reden.

00:01:43: Das tun wir ja alle mehr, mal weniger gerne, würde ich sagen, je nachdem was das Thema ist.

00:01:49: Manchmal ist es schön, oft auch beängstigend, aber Unsicherheiten gibt es natürlich immer.

00:01:55: Aber wichtig ist es über die Zukunft zu reden, gerade für uns hier in der Medienbranche.

00:01:59: Es ist wichtig, konstruktive Lösungen sich zu überlegen, mit den großen Herausforderungen dieser Zeit umzugehen.

00:02:05: Und darüber reden wir hier im Podcast immer wieder, wir reden bei den Medientagen München immer wieder darüber.

00:02:10: Und wir reden am 1. April darüber bei Future Video, da steckt es ja sogar schon im Namen, das ist unser Event Special.

00:02:17: Dazu später am Ende des Podcasts noch ein paar mehr Infos und auch in den Show Notes, ihr kennt das.

00:02:22: Wir wollen aber erstmal inhaltlich einsteigen heute, wir wollen inhaltlich sprechen,

00:02:26: was denn diese Zukunft so bereit halten könnte und heute geht's um Videoproduktion und künstliche Intelligenz.

00:02:33: Und was da so die Möglichkeiten sind, wo wir da vielleicht auch schon stehen und wo es hingehen könnte, was Herausforderungen sind.

00:02:39: Also die Rolle künstlicher Intelligenz in der Videoproduktion, das ist heute unser Thema.

00:02:44: Und darüber darf ich mit einem absoluten Experten sprechen, der mir in echt gegenüber sitzt, das ist in diesem Podcast selten geworden.

00:02:50: Meistens sind die Leute mir dann doch zugeschaltet in diesem kleinen Kasten, der hier auch rechts von mir steht.

00:02:56: Aber Albert Putzesan sitzt mir echt in echt gegenüber darüber, da freue ich mich sehr.

00:03:01: Er ist Creative Director AI Media bei Storybook Studios, was das ist.

00:03:06: Darüber werden wir auch noch ein bisschen sprechen, wer das noch nicht weiß.

00:03:09: Er ist ein Film, urgesteimlich jetzt nicht sagen, aber du kennst die Filmbranche auch schon in der Zeit, in der KI vielleicht noch nicht ganz so ein großes Thema war.

00:03:17: Bist Storyteller, bist Autor, auch Schauspieler.

00:03:20: Ich glaube, du kennst dich sehr gut aus in der Szene und kannst sehr gut beurteilen, wie die KI das Ganze verändern wird.

00:03:26: Hallo Albert, schön, dass du da bist.

00:03:28: Ja, hallo, ich freue mich auch sehr, dass ich in Person hier sein darf.

00:03:31: Wenn man schon in München ist, dann kommt man vorbei.

00:03:34: Sehr gut, sehr gut.

00:03:35: Ich freue mich, du bist schon versorgt mit Kaffee und mit Wasser und es kann losgehen.

00:03:41: Lass uns einsteigen mit einem relativ aktuellen Ted Talk, den du an der Technischen Universität München gehalten hast.

00:03:49: Es war, glaube ich, Ende letzten Jahres, November 2024.

00:03:53: Und da hast du das Thema natürlich auch aufgegriffen mit dieser KI in der Medienproduktion.

00:03:59: Und der Titel war "The surprising way AI makes us more human", also wie AI uns menschlicher macht.

00:04:06: Da habe ich doch ein bisschen gestützt erst mal.

00:04:09: Wie kann denn eine Maschine uns menschlicher machen?

00:04:12: Auf sehr, sehr viele verschiedene Weisen.

00:04:15: Also ich fand es in dem Talk mal spannend, diese schwarz-weißen Enke, die wir ja leider häufig auch bei anderen Themen haben, zu hinterfragen.

00:04:24: Weil es gibt eigentlich zwei Arten, die mir begegnen, die Leute, die KI komplett ablehnen und sagen, die wird uns ersetzen.

00:04:31: Und das ist ja nur Geldmacherei, Kapitalismus vom Feinsten und die Kreativität fällt vom Tisch.

00:04:35: Und dann gibt es die anderen, die sagen, ja, es geht jetzt nur mit KI und das ist nur ein Werkzeug.

00:04:41: Und habt dich jetzt nicht so funktioniert ja wie Photoshop und ist nicht anders.

00:04:45: Und das finde ich nicht hilfreich, wenn man wirklich nach Lösungen sucht und als Gesellschaft auch friedlich miteinander und kreativ miteinander umgehen möchte.

00:04:53: Und dann habe ich von meinem Werdegang auch ein bisschen als Kreativer erzählt in dem Talk, wie ich mich auch gefühlt habe, als KI rauskam und hinterfragt hat,

00:05:03: ob diese ganzen Sachen, die mir immer als im Kern menschlich versprochen wurden, jetzt tatsächlich doch von Maschinen erledigt werden können.

00:05:13: Und die Antwort ist teilweise, wie es halt so oft ist.

00:05:18: Es ist ein Spektrum am Ende und ich finde, KI ist momentan für Kreative am hilfreichsten als Sparringspartner.

00:05:28: Also meine Lieblingsinteraktion mit Sprachmodellen, vor allem ChatGPT oder auch Claude von Anthropic, ist sie zu bitten, mir Rückfragen zu meinen Ideen zu stellen.

00:05:38: Damit ich noch die eigentlichen Gedanken haben kann.

00:05:41: Und ich glaube tatsächlich, dass KI am meisten Impact bei individuellen Kreativen haben wird als Werkzeug nicht unbedingt schneller zu sein bei denselben Konzepten,

00:05:53: sondern mit denselben Ressourcen, denselben Kreativen größere Projekte umzusetzen.

00:05:58: Also das ist unser Ziel gerade in Deutschland mit der Storybook Studios, dass wir endlich mal international mit den großen Fantasy-Science-Fiction-Spektaklen mithalten können,

00:06:07: die natürlich bislang meistens nur in den USA überhaupt finanziell umsetzbar sind.

00:06:12: Also wir werden jetzt, ich meine, einer unserer Eigentümer der Firma ist Matthias Schreiköfer, wir werden jetzt keine Schreiköferkomödien mit KI generieren.

00:06:20: Obwohl ihr ihn ja auch schon generiert habt, habe ich gesehen.

00:06:23: Richtig, wir haben ihn mit Bastian Schweinsteiger verwechselt, wie Thomas Gottschalk auch.

00:06:30: Sondern dass wir halt diese ganzen Konzepte, die glaube ich auch jede Drehbuchautorin in der Schublade hat, endlich umsetzen mit den begrenzten Ressourcen, die wir ja in Europa haben.

00:06:41: Also der Sparringspartner und das effizienter Arbeiten ist natürlich eine ganz wichtige Sache.

00:06:47: Jetzt hast du Storybook Studios schon angesprochen, ich glaube es ist wichtig, dass wir relativ am Anfang darüber reden für die, die es jetzt nicht wissen, die uns zuhören.

00:06:55: Was ist Storybook Studios und was macht ihr da genau und warum habt ihr das gegründet, ich weiß gerade ehrlicherweise nicht mehr ganz genau wann es war, aber das wirst du uns ja jetzt auch noch verraten.

00:07:05: Ja, das war schon 2023, also ungefähr ein Jahr nachdem die ersten Bildgeneratoren überhaupt verfügbar wurden öffentlich, damals 2022 waren sie noch nicht wirklich brauchbar.

00:07:17: Aber da hatte ich schon angefangen sie zu verwenden, noch ein bisschen mehr für so abstrakte Kunst und habe dann aber schnell gemerkt, dass man damit Filmkonzepte bebildern kann.

00:07:26: Ich war ja auch Autor zu der Zeit, bin ich immer noch, aber musste wirklich als Selbstständiger meine Konzepte verkaufen und auch eben mit viel Designaufwand das machen.

00:07:34: Das hat die KI vereinfacht, das hat dann auch viele Produktionsfirmen dazu bewegt zu sagen, hey Albert, magst du uns das nicht zeigen und uns mal beraten, wie wir das machen können.

00:07:44: Und dazu gehörte unter anderem die Pantaleonfilms, die sowohl auch Streamingserien als auch viele Komödien in den Kinos verantwortlich ist.

00:07:53: Und da haben wir nach wenigen Wochen gemerkt, also Tobias Huber, ein Producer bei denen und ich, wie gut wir uns auch kreativ verstehen und haben gesagt, hey, lasst doch hier zusammen gleich ein Spin-off gründen von der Pantaleonfilms, die sich mit KI befasst und zwar möglichst zu 100 Prozent einfach versucht,

00:08:12: in jedem Produktionsschritt zu schauen, wie kann es das helfen, einfach diese großen Stories tatsächlich auf die Leinwand zu bringen.

00:08:19: Und jetzt macht ihr das seit, also zwei Jahren ungefähr, vielleicht noch nicht ganz, wir sind ja noch Anfang 2025, du hast das ja gerade auch schon angesprochen, ne?

00:08:29: So, das ist ja so ein Credo, was du jetzt seit ein paar Jahren immer wieder hast, so dieses immer mit dem Ziel, die KI einzusetzen, halt mit wenig Ressourcen so viel wie möglich umzusetzen.

00:08:38: Und am besten kann man das, glaube ich, verstehen, wenn man es mal an einem konkreten Projekt so ein bisschen durch jetzt erzählt, so was heißt das denn am Ende?

00:08:46: Und da habt ihr vor einiger Zeit etwas gelauncht, was ich sehr spannend fand, eine, ja, Kurz-Serie sozusagen, also die wahrsten Sinne des Wortes, kurz, vollständig mit KI erstellt.

00:08:59: Erzähl uns doch mal ein bisschen, wie ihr das angegangen seid, worum es geht, was ist das für ein Projekt und was ist die Idee dahinter?

00:09:07: Wir haben festgestellt, dass recht früh schon sogenannte Mood Trailer machbar wurden mit KI.

00:09:13: Als Kreativer, wenn man versucht, ein Konzept zu verkaufen, muss man natürlich machen, an ein Studio, an den Distributor, erstellt man gerne aus existierenden TV-Serien und Filmen eine Art Preview von seinem Konzept, damit wenigstens der Look und der Feel vermittelt wird.

00:09:31: Dann, mithilfe von KI, waren wir dann in der Lage, originäre Trailer zu machen, also wo die Figuren tatsächlich schon unsere Figuren sind, unsere Umgebungen, unsere Stories.

00:09:39: Und das hat natürlich gleich den Vorteil, dass man das nicht nur intern pitchen kann, sondern auch veröffentlichen kann.

00:09:44: Jetzt sind wir inzwischen in Schritt weiter, unser Team ist auch größer geworden und wir haben uns überlegt, hey, lasst uns doch mal statt nur ein Teaser zu machen, versuchen wirklich ein Narrativ zu erzählen, vielleicht sogar eine ganze Staffelfernsehen.

00:09:57: Und dann haben wir ein bisschen recherchiert, ob Leute sowas auch konsumieren würden, also extrem kurze Narrative, die versuchen, wirklich viel Strecke zu machen und haben festgestellt, hey, auf TikTok, auf YouTube gucken Menschen ganze Mainstream-Serien, die man eigentlich auf Netflix und Amazon gucken sollte, in sogenannten Recaps.

00:10:16: Also extrem schnell zusammengefasst, teilweise in richtig billiger KI-Erzähler noch drüber.

00:10:22: Und das war dann quasi der Beweis, lasst uns doch versuchen in diesem Format von Grund auf, das gleich so zu schreiben, dass man nur die wichtigsten Momente hat, die Figuren vorstellt und innerhalb von einer Minute eine ganze 40-minütige Episode erzählt.

00:10:35: Und das Resultat ist previously on, kennt man ja schon von Recaps, wenn man Serien schaut, das erste habe ich geschrieben, das heißt "The Indigo Machine" und ist so eine 5-Episoden-Mystery-Serie, die in den 60ern stattfindet.

00:10:48: Als ich reingeschaut habe, obwohl ich ja dann auch sogar die Pressemitteilung dazu gelesen hatte und so ungefähr wusste, worum es ging, ich war trotzdem verwirrt erst mal, weil ich gehöre nicht zu den Leuten, die Serien auf YouTube in kurzen Zusammenfassungen schauen.

00:11:07: Und das ist ja auch gleich so ein bisschen die kritische Frage, die da drin steckt. Es gibt klar, gibt es dieses Nutzerverhalten, das habt ihr ja quasi eroiert und daraus dann ein eigenständiges Konzept gemacht, das ist eine coole Idee.

00:11:22: Andererseits hat das natürlich auch die Gefahr, dass die Stories, die vielleicht auch Zeit brauchen, um sich zu entwickeln, dass die immer mehr auf der Strecke bleiben durch sowas.

00:11:33: Habt ihr das auf dem Schirm, habt ihr das mitadressiert? Wie stehst du zu dieser Frage?

00:11:40: Ich hatte ja eigentlich, wenn ich ehrlich bin, gehofft darauf, dass ich viele Kommentare bekomme, die sagen ja "Hey, wo ist denn die ganze Folge? Ich will mehr, ich will wissen, wie das Story weitergeht."

00:11:51: Das habe ich auch ein bisschen gewartet. Genau, das ist eigentlich super, das hat ja auch wieder diesen Teaser-Charakter, damit Leute hooked sind. Wir nutzen ja eigentlich absichtlich Storytelling-Methodiken, Cliffhanger am Ende von jeder Folge, Hooks in den ersten 2 Sekunden passiert eigentlich immer irgendwas, ein Autounfall, irgendwas explodiert.

00:12:11: Und das wollen wir nutzen, diesen Effekt, um dieses Format eigentlich als eine Art Top of Funnel einzusetzen. Also wir können jetzt sehr günstig intern, ohne Streamer, ohne Distribution, ganze Formate testen mit dem gesamten Spannungsbogen mit allen Figuren.

00:12:28: Und wenn einzelne sehr gut funktionieren, haben wir schon den Social Proof, wir haben ein eingebautes Publikum und können das dann als ganze Serie pitchen gehen. Im Idealfall passiert das jetzt mit einem von 4 Formaten, mit denen wir launchen werden und ist dann quasi nur Schritt 1 von vielen.

00:12:46: Das ist ja generell die Frage, glaube ich, mit der du dich ja auch sehr viel beschäftest. Diese KI, wir haben dir das Wort Sparringspartner schon benutzt heute, wir haben natürlich diese Unterstützung im Alltag durch die künstliche Intelligenz im Austausch mit ChatGPT und so weiter.

00:13:04: Jetzt bist du ja auch von Hause aus ein Storyteller, ein Autor, ein Geschichtenerzähler und jetzt kommt diese KI. Ihr habt das jetzt mit dem aktuellen Projekt natürlich auch schon versucht.

00:13:15: Aber die allgemeine Frage dahinter ist ja, inwieweit steckt das Potenzial in der Künstliche Intelligenz, das damit Narrative zu entwickeln, Geschichten aufzubauen, wie sie ohne KI vielleicht gar nicht möglich wären?

00:13:27: Ich glaube, die KI ist am nützlichsten bei allen Schritten nachdem das Narrativ existiert. Also ich habe jetzt noch keine KI gefunden, die mir eine richtig tolle Story schreiben kann, vor allem nicht, wenn es über eine Zusammenfassung hinausgeht.

00:13:42: Ich kann mir eine tolle Serie pitchen lassen, aber am Ende ist das Drehbuch vom Menschen am besten, muss ich einfach sagen. Und vor allem ist da auch nicht viel gespart, gerade Autor*innen arbeiten alleine, arbeiten oft auch relativ schnell.

00:13:55: Da ist jetzt auch kein Geld zu sparen, ich fände es falsch zu sagen, da müssen wir jetzt die KI drauf werfen über diesen Sparringspartner-Effekt hinaus.

00:14:02: Ich glaube, am meisten bekommen Leute wirklich Unterstützung und eigentlich Superkräfte, die sich schon im Storytelling und im Filme machen auskennen.

00:14:12: Also nur weil es jetzt schneller geht heißt es nicht, dass wir im Team jetzt alle AI-Experten sind, sondern wir haben VFXler, wir haben Producer*innen, Autor*innen, die schon seit, wir haben es mal ausgerechnet, also es gibt auch Leute im Team, die über 20 Jahre im Filmgeschäft sind.

00:14:31: Und jetzt mit KI halt einfach nur effizienter wurden.

00:14:34: Was sagen die so?

00:14:37: Sehen die das auch so, dass sie effizienter geworden sind? Oder gibt es da auch immer noch diese berühmten Vorbehalte, du hast ja am Anfang drüber gesprochen und es gibt eigentlich größtenteils, übrigens auch meine Beobachtung, die voll geil finden und die sagen ja mehr davon und die anderen sagen boh gib mir bloß weg damit.

00:14:55: Mit dieser KI-Wich, ich schreibe meine Drehbücher, ich mache meine Filme und das soll so bleiben auch ohne Maschine im Hintergrund.

00:15:03: Also ich habe auch schon mit einem Autor ganz konkret gesprochen, vor 2 Jahren schon in Kitsbühle auf einem Panel, der hat das Boot geschrieben, also die Neuauflage von das Boot, der hat KI damals schon verwendet.

00:15:13: Also es gibt auch erfahrene Menschen, die KI für sich nützlich gemacht haben, bei uns im Team sind auch alle positiv gestimmt, sonst wären sie auch glaube ich nicht bei uns.

00:15:23: Wobei wir uns auch schon externe Beratung reingeholt haben, zum Beispiel im Animationsbereich mit unserer Serie Spacefats, kam jemand, der seit Jahrzehnten in Animation arbeitet, um uns mal den Kopf zu waschen absichtlich, so hey mach das mal kaputt, diese Idee.

00:15:37: Und der hat dann auch wirklich sehr objektiv das Ganze analysiert, natürlich bei manchen Aspekten waren wir naiv, ganz klar, so hey euer Production Design zum Beispiel, die sind halt nicht einheitlich.

00:15:49: Solche Aspekte beweisen, dass man auf jeden Fall noch diese Erfahrung braucht, aber ich glaube auch die Kritischen haben immer eine bessere Meinung, eine sinnvollere Meinung gehabt, wenn sie es probiert haben.

00:16:06: Die Leute, die verwenden es, sagen ist nix für mich, oder da hakt es noch, das ist aber die gesündere Einstellung finde ich, also ich halte wenig von Leuten, die sich seit Jahren inzwischen auf Bühnen stellen und sagen ohne mich, weil ja sorry, also ein bisschen fundiert sollte man schon sein.

00:16:24: Ja absolut und ich glaube, also das ist ja auch jetzt nicht so, dass KI generierte Videos oder auch Unterstützung in der Videoproduktion, dass das irgendeine Art von Zukunftsmusik ist, es findet ja statt, das ist ja real, das ist ja gratis, sehen wir an so Beispielen, wie wir ja auch heute schon besprochen haben und deswegen einfach so diese allgemeine Frage, wo siehst du so aktuell, also wir bleiben mal wirklich so based im Hier und Jetzt, die größten Anwendungsfälle oder die wichtigsten Anwendungsfälle für KI.

00:16:53: Anwendungsfälle für KI in der Videoproduktion und da gucken wir mal auf die ganze Kette.

00:17:00: Also eigentlich dort, wo wir auch angefangen haben, das sind wir inzwischen ein bisschen weiter, aber im Pre-Production Bereich ist es schon 100% im Einsatz, also für Pitches reicht es absolut, Bebilderung von Konzeptbundlets, auch in der Trailererstellung.

00:17:17: In der eigentlichen Produktion würde ich es zur VFX stellen, also eigentlich Postproduktion, da ist es auch schon nützlich, sogenannte Matte Paintings, also Hintergründe, die eher statisch sind.

00:17:28: Im statischen Bildbereich ist es angekommen als wertvolles Tool und wird auch schon weltweit eingesetzt.

00:17:34: Im Bewegt-Bild haben wir inzwischen auch schon ein paar Shots gemacht für Kinofilme, ohne Menschen, muss ich ganz klar sagen, außer im Deepfake-Bereich, also Deepfakes gibt es ja auch schon seit guten sechs Jahren im Open-Source-Bereich und sind brauchbar für Kinoanwendung, ist ja auch KI Stimmen, also Stimmen verstellen, da kann zum Beispiel ein Sprecher gleich ein ganzes Ensemble sprechen, ethische Bedenken beiseite erstmal, aber technisch ist es absolut möglich und wird eingesetzt.

00:18:03: Und der Rest wandelt sich natürlich rasant, also bis dieses Interview draußen ist, kann es sein, dass es schon viel, viel weiter ist, sobald es nur um wenige Wochen geht.

00:18:15: Ja, das ist ja grundsätzlich die Frage, also diese rasanten Entwicklungen in diesem Bereich, die kann man ja in so einem statischen Medium wie dem Podcast fast gar nicht abbilden, wie bleibt man da so up to date eigentlich?

00:18:29: Wir haben das große Glück, dass wir uns Vollzeit damit beschäftigen. Also ich glaube, es wäre keine Übertreibung, wenn wir mindestens ein Drittel unserer Zeit damit verwenden, einfach neue Dinge zu testen und zu bewerten.

00:18:41: Das tun wir auf Discord vor allem, da gibt es Communities, die sich, die eigentlich nicht schlafen, ist natürlich auch der große Vorteil, wenn es international ist.

00:18:50: Nachts kommt dann immer irgendwas aus China oder Amerika, Reddit ist viel und auf LinkedIn gebe ich die Informationen dann meistens weiter, dann ist sie aber schon ein paar Tage alt.

00:19:03: Aber ich glaube, es ist für so eine Community hier natürlich trotzdem ganz hilfreich. Ich finde es ist ja interessant, wir hatten vor ein paar Wochen den Kollegen Jim Sengel ja auch hier im Podcast, da ging es um Deep Seek und die ganze Geschichte, der das dann auch schon erzählt hat.

00:19:19: Also gute Informationsquelle, einfach Discord, YouTube, einfach da irgendwie den Experten auch aus den USA, aus China irgendwie zuzuschauen, wenn neue Dinge kommen.

00:19:28: An was kannst du dich so als letztes erinnern, wo du gedacht hast, boah, das überrascht sogar mich, Albert, der sich fast 24 Stunden am Tag, außer wenn er schläft, vielleicht mit Künstlichkeit-Irgänz beschäftigt?

00:19:42: Kling, also das Online-Tool Kling, das ist aus China, es ist formell eigentlich ein sogenanntes Image-to-Video-Tool, also man gibt ein statisches Bild ein, das man anderweitig erstellt hat und das wird dann mit einem Prompt animiert.

00:19:57: Als ich das erste Mal einen langen Prompt jetzt für dieses Previously On-Projekt eingegeben habe, wo ich einen Mann animieren wollte, der lacht erst mal, weil er gerade einen Scherz gerissen hat, dann kloppt es an der Tür und er schaut überrascht zur Tür, der Prompt war auch entsprechend lang und hat das im ersten Versuch perfekt gemacht.

00:20:16: Also mehrere Emotionen innerhalb von 10 Sekunden, ich würde es als eine Art Schauspiel bezeichnen.

00:20:24: kein professionelles Rauspiel, aber es war überzeugend genug und dann kam noch der Lipsync

00:20:29: hinzu.

00:20:30: Das heißt, ich habe noch eine Audiodatei hochgeladen, wo ich seine Worte eingesprochen hatte und

00:20:35: dann wurde der Mund auch sehr überzeugend bewegt.

00:20:37: Und das Tool habt ihr benutzt auch für das aktuelle Projekt?

00:20:41: Ja, das ist eines von vielen, aber ja, das ist dabei.

00:20:44: Wie viele Tools sind da so in Einsatz bei so einem Projekt, also ich natürlich auch verlinken

00:20:50: werde in den Shownodes, dann könnt ihr euch das mal anschauen, während Albert ein bisschen

00:20:53: überlegt.

00:20:54: Es sind sehr viele, also im Grunde haben wir alle Tools, die Mainstream sind und ein paar,

00:20:59: die nicht Mainstream sind, die wir meistens dann lokal in unsere AI-Form verwenden.

00:21:03: Die üblichen Verdächtigen, also Runways dabei, Minimax, Klingen, Luma, Pica haben wir nicht

00:21:12: verwendet, aber es ist auch interessant und 11 Lips für die Stimmen ist immer noch unangefochten.

00:21:17: Ja, das kann ich bestätigen, damit arbeite ich auch, das kenne ich auch.

00:21:21: Kommen wir mal zu so einem Thema, das auch immer wieder aufkommt, wenn es darum geht.

00:21:27: Künstliche Intelligenz erzählt Geschichten oder wird in Storytelling eingesetzt, das

00:21:31: ist die berühmte Personalisierung von Inhalten.

00:21:34: Das könnte ja in letzter Konsequenz bedeuten, dass irgendwann wir an einen Punkt kommen,

00:21:42: wenn diese Entwicklungen so weitergehen, wie wir sie gerade erleben, dass sich eventuell

00:21:45: jeder so seinen eigenen Spielfilm anschauen kann.

00:21:48: Für wie realistisch hältst du solche Szenarien?

00:21:51: Technisch absolut machbar, es ist jetzt schon in den Anfängen, also man kann bereits auf

00:21:56: diversen Plattformen einen Prompt eingeben und es kommt ein Film raus, das ist dann meistens

00:22:01: eher so ein Kinderanimationsprojekt oder sowas, aber man merkt, dass das in wenigen Jahren

00:22:08: schon Serien sein können.

00:22:10: Ich halte aber wenig davon an sich, weil dieser ganze kulturelle Aspekt wegfällt.

00:22:16: Ich gehe ja meistens ins Kino, weil mir jemand ein Film empfohlen hat, ich schaue eine Serie,

00:22:21: weil jemand sie mir empfohlen hat und ich am nächsten Tag im Büro in der Küche drüber

00:22:25: reden kann.

00:22:26: Wenn wir dann alle, keine Ahnung, uns selbst in einem Action-Adventure-Film geschaut haben

00:22:31: oder in der Romance oder so, davon will ja keiner hören, das ist wie Leute, die von

00:22:35: ihren Träumen erzählen, wo man einfach nur höflich nicken kann, fände ich sehr schade,

00:22:41: also das wäre keine Bereicherung, wenn das Mainstream-Unterhaltung wird.

00:22:46: Ja, ich glaube, sehr guter Punkt.

00:22:49: Hätte ich jetzt auch noch eine Frage angeschlossen, aber du hast es quasi schon beantwortet.

00:22:54: Ich mein, ein Ding, was uns kulturell ausmacht, ist ja auch so ein quasi kollektives popkulturelles

00:23:00: Gedächtnis über Filme und Serien irgendwie sich gemeinsam auszutauschen, jene gemeinsame

00:23:06: Basis ja auch irgendwie sind für zwischenmenschliche Beziehungen am Ende ganz oft und ich glaube,

00:23:13: wenn das verloren geht, dann geht uns wirklich einen Kern der kultiskulturellen Zusammenlebens

00:23:20: irgendwie verloren und natürlich ist das irgendwie spannend, was da möglich ist mit Personalisierung

00:23:26: sicherlich auch für einige Einsatzfeld auf jeden Fall interessant und brauchbar, aber

00:23:31: da kommen wir dann auch zu der Frage und da wir, würde mich missen, deine Einschätzung

00:23:35: auch interessieren, wie du das so für dich oder für euch entscheidet, nur weil Dinge

00:23:41: technisch möglich sind, heißt das ja nicht, man muss sie auch unbedingt machen.

00:23:46: Wie geht ihr mit der Frage um?

00:23:49: Ich glaube, das betrifft uns vor allem ethisch, also wir haben auch eine AI Ethics and Bias

00:23:56: Officer bei uns, Franziska Hansel, die sich nicht nur als Produktionsmanagerin bei uns

00:24:00: betätigt, sondern auch gerne mal Dinge hinterfragt, technisch aber auch im Prompting z.B. theoretisch

00:24:09: könnte man ja jetzt, um ein AI Bild zu generieren, prompt und hey bis eine Fantasy Serie, also

00:24:16: in the style of Harry Potter and Game of Thrones, geht technisch, ob das rechtlich so erlaubt

00:24:22: ist, also man kann es jedenfalls gerade machen, an Tag eins haben wir uns dagegen entschieden,

00:24:27: also wir haben einen Code of Conduct aufgesetzt, der uns das ausdrücklich verbietet, also

00:24:32: wir prompten keine Namen von Künstler*innen ohne dessen Zustimmung oder geschützten Marken

00:24:37: und Stories, also wir nennen das eigentlich clean prompting, so gut man natürlich kann,

00:24:42: nur weil etwas im Datensatz drin ist, heißt das nicht, dass man das direkt anzapfen muss,

00:24:47: das wäre so das eine, im Deep Fake Bereich finde ich das auch sehr problematisch, dass

00:24:51: diese Technologien öffentlich verfügbar sind, also ich bin auch ein Verfechter des EU AI

00:24:58: Acts, auch wenn dann natürlich unsere Aufgaben vor allem im Reporting oder in diversen Schulungen

00:25:06: natürlich schwieriger macht, muss sowas beobachtet und gesteuert werden.

00:25:12: Ja absolut, wie fand Mathias Schweighöfer das eigentlich, jetzt wo wir gerade bei dem

00:25:19: Thema sind, das ich meine, ich nehme an, ihr habt die Nummerlaubnis gefragt, ja natürlich,

00:25:25: als er sich da so als Bastian Schweinsteiger gesehen hat.

00:25:28: Richtig, also wir haben ja mit Deepfakes ihn oder Gesicht getauscht mit Schweinsteiger,

00:25:35: uns wohl eher als auch Schweinsteiger wussten davon, er hat es auch geteilt, es ist auch

00:25:39: ein paar Wochen eines seiner Top-Videos gewesen auf Instagram, es fand er schon witzig.

00:25:47: Von dieser lustigen Frage zu einer leicht kritischen, ihr habt auf eurer Homepage stehen,

00:25:53: aber das hast du eigentlich gerade auch schon beantwortet, aber weil ich es irgendwie so

00:25:56: wichtig finde darüber zu reden, Offering Experiences So Vivid ist da zu lesen, your

00:26:01: question what's real, ist das so eine gute Idee in Zeiten, wo wir ja sowieso damit leider

00:26:10: ein bisschen struggling, was eigentlich noch eine gemeinsame Realität sein könnte.

00:26:14: Die Kennzeichnungspflicht ist essentiell, leider ist das freiwillig ehrlich gesagt, also es

00:26:21: wird manchmal automatisch erkannt, aber meistens muss man das Häkchen setzen, trotzdem

00:26:28: wenn man sich daran halten, du solltest man sich daran halten, ich sehe das wie Keanu

00:26:31: Reeves als der vierte Matrix Teil rauskamen, da hat er die Frage nämlich auch bekommen,

00:26:36: weil eine sehr überzeugende Unreal Engine basierte Experience mit dem Film released wurde und

00:26:42: da meinte er im Bereich der Unterhaltung, ist das denn wichtig, also ob jetzt etwas Fiktionales

00:26:49: gedreht wurde oder gerendert wurde, ist ja dann am Ende egal, im Bereich des Fiktionalen

00:26:55: in der Unterhaltung, wenn es darum geht, einfach Menschen Freude zu bereiten, gute Stories

00:26:59: zu erzählen, ist mir die Art, wie es entstanden ist, relativ egal, unter humanen Bedingungen

00:27:03: selbstverständlich, im politischen Bereich, ich meine all die Werkzeuge sind ja genauso

00:27:11: auch für Desinformationskampagnen verwendbar, war schon immer so, Photoshop, Starlin hat

00:27:18: schon händisch Personen aus Fotos entfernen lassen, natürlich kann man nicht verneinen,

00:27:23: dass es jetzt deutlich einfacher geworden ist. Es freut mich ehrlich gesagt, dass wir

00:27:28: nicht schon mehr sehen, das lässt mich hoffen, dass wir nicht ganz so am Abgrund sind, wie

00:27:35: man denken könnte, sonst hätten wir ja schon viel, viel mehr Deep Fakes von World Leaders

00:27:41: gesehen. Ich glaube auch, was da teilweise an die Wand gemalt worden ist, so als vor

00:27:48: ein paar Jahren das aufkam, das ist jetzt in der Härte nicht eingetreten, aber natürlich

00:27:52: geht es das weiter zu beobachten. Was ja auch immer eine spannende Frage ist, wo wir in

00:27:58: Deutschland so bei dem Thema eigentlich stehen, du hast ja, man hat es gerade sehr schön daran

00:28:02: gehört, als du Harry Potter ausgesprochen hast, du bist ja in den USA aufgewachsen, wenn

00:28:07: ich richtig informiert bin und deswegen kennst du ja auch beide Märkte, beide Welten ziemlich

00:28:14: gut, wenn du das mal so vergleichst, der Umgang mit KI oder auch der Blick auf KI, USA und

00:28:19: hier in Deutschland. Was sind da eigentlich so die Unterschiede?

00:28:22: Da habe ich sehr gute Nachrichten, man hört ja immer, wie Deutschland hinterher hinkt

00:28:27: und wir kritisieren uns ja besonders gut selbst. Deutschland ist in KI-Unterhaltung vorne mit

00:28:35: dabei. Also hier werden Modelle entwickelt, Black Forest Labs im Schwarzwald, die zugrunde

00:28:41: liegende Technologie in der Stable Diffusion wurde hier in München entwickelt an der LMU

00:28:44: von Prof. Björn Oma und Team. Also da halten wir mit und nicht nur mit, sondern entwickeln

00:28:51: regelmäßig Neuigkeiten und ich finde die Kreativbranche hier ist viel offener. Also

00:28:57: in Amerika gab es Riesenproteste, teilweise auch nicht informierte Proteste und Fälle

00:29:05: vor Gericht, die rausgeworfen wurden, weil sie gar keinen Sinn ergeben haben. In Deutschland

00:29:09: liegt es glaube ich daran, dass wir ein kleinerer Markt sind, wir kennen uns alle, wir wollen

00:29:14: größere Stories erzählen als wir aktuell erzählen. Somit ist das Interesse viel größer.

00:29:19: Auch jetzt mit den neuen Tarifverträgen, die mit dem Schauspielerverband verhandelt wurden,

00:29:25: sind Technologie offen und wurden auch viel schneller verhandelt als in den USA. Also

00:29:30: das war schnell durch, auch mit einem schönen Passus, dass das halt alle sechs Monate nochmal

00:29:34: angeschaut wird. Find ich viel sinnvoller als zu versuchen jetzt festzusuchen, was nächste

00:29:38: Woche dann nicht mehr gilt. Woher kommt das denn dann? Das habe ich zum Beispiel im Zusammenhang

00:29:45: als die Entwicklung von Dieb Sieg irgendwie deutlich wurde, da gab es ja auch immer wieder

00:29:51: diese Stimmen und ich habe auch so Gespräche geführt, ja wir werden da irgendwie zermallen

00:29:55: zwischen den KI-Riesen, USA und China, wir kommen da gar nicht mehr mit. Jetzt sagst du,

00:30:01: hier wird ganz viel geiler Scheiß gemacht, sag ich mal, so in meinen eigenen Worten. Aber

00:30:06: woher kommt denn dieser Päsimismus dann? Frage ich mich. Die Entwicklung der sogenannten

00:30:12: foundational models ist extrem teuer. Also ein GPT, so ein Basismodell, auf dem man dann

00:30:19: aufbauen kann oder auch ein Dieb Sieg oder auch Lama von Meta kostet im zweistelligen,

00:30:25: nicht sogar dreistelligen Millionenbereich, um sowas aufzusetzen. In China ist es günstiger,

00:30:29: deswegen hat Dieb Sieg so in den Aktienmarkt geschlagen. Da können wir momentan nicht mitspielen.

00:30:35: Weil schauen, was die EU jetzt macht, inzwischen wird ja Geld zur Verfügung gestellt. Was

00:30:39: wir aber können ist die zugrunde liegende Theorie, also auf dem akademischen Niveau

00:30:48: entwickeln, da sind wir extrem gut drin. Das müssen wir eigentlich nur noch profitabel

00:30:53: machen, also schauen, dass das nicht einfach dann von Amerikanern übernommen wird und

00:30:55: umgesetzt wird. Da ist Nachholbedarf und worin wir gut sind, ist im Feintuning und in der

00:31:01: Nutzung selber. Also die Kreativität, diese Werkzeuge anzuwenden, finde ich hier teilweise

00:31:06: höher als in den USA. Drüben hängen sie alle am technologischen Bereich und wir schlagen

00:31:11: hier tatsächlich die Brücke zum Kreativen. Und das können wir auch selber machen. Also

00:31:16: bei Storybook Studios trainieren wir keine foundational models, aber sehr viele sogenannte

00:31:20: fine tunes, low ranking adaptations, um sie halt nützlich zu machen für die Nutzung und

00:31:25: die Nutzung. Was dann am Ende ja der Branche, für die wir hier unterwegs sind, natürlich

00:31:31: auch mehr hilft und am meisten hilft, wenn man einfach konkrete Anwendungsfälle entwickelt.

00:31:36: Und davon abgeleitet so die nächste Frage. Die KI wird ja dafür sorgen, dass sich Berufsbilder

00:31:43: ändern. Hat sie schon? Und wenn wir da in Speziellen auf die Filmbranche schauen, welche

00:31:49: Brüfe sind denn da so, die sich am stärksten wandeln? Werden wir in Zukunft noch diese

00:31:54: klassischen großen Filmteams an Filmsets, wird es diese klassischen Filmsets weitergeben

00:32:01: oder nicht? Also wie schätzt du einen, wie wird sich das so ein bisschen, wenn wir jetzt

00:32:04: so ein bisschen nach vorne schauen, weiterentwickeln? So eine Filmproduktion ist ja gewissermaßen

00:32:09: wie so ein Wasserfall oder so ein Pipeline. Die Person, die die Idee hat, hat jetzt auch

00:32:14: mehr Macht in der Umsetzung. Also unsere Producerin Kids and Family, Isabel Galfe, wenn sie eine

00:32:19: Idee hat für neues Kinderkonzept, kommt sie inzwischen schon mit Bebilderung. Das war

00:32:24: vorher nicht möglich. Und das ist ein unglaublicher Fortschritt. Also ich glaube diese Ideengeberinnen

00:32:30: und Geber, auch ein Drehbuchautor, der nicht bei uns arbeitet, den ich aber, den ich an

00:32:34: Shoutout geben möchte, Mark Wachholz, der ist begnadeter Drehbuchautor, der hat nicht

00:32:39: den VFX Skill, den wir bei uns im Team haben, aber veröffentlicht ständig Trailer seiner

00:32:44: Konzepte. Und ich bin mir sicher, dass ihnen Leute darauf ansprechen und der viel mehr

00:32:48: Reichweite bekommt durch die KI. Bei der großen Produktion in der Umsetzung so einem Set glaube

00:32:54: ich schon, dass wir eine Phase haben werden, wo Hybridproduktion viel schneller und günstiger

00:32:59: wird. Also wie beim Mandalorian oder auch bei, nicht bei Darks, sondern 1899, die Nachfolgeserie,

00:33:06: dass man diese LED-Wende nicht mehr komplett mit perfekten 3D-Umgebungen bespielen muss,

00:33:11: sondern mit KI-generierten Hintergründen. Das sind wir auch am Testing gerade. Also wir

00:33:15: sind nicht nur in der puren KI-Generation, sondern drehen auch, weil natürlich das Schauspiel

00:33:22: von echten Menschen deutlich besser ist und da auch eine Star Power dahinter ist, die

00:33:27: Marketing auch sehr viel wert ist. Darf man alles nicht vernachlässigen. DOPs, also Kameraleute

00:33:38: können auch schon früher, glaube ich, einsetzen, indem sie einfach Bilder prompten, so aussehen

00:33:42: wie ihre Pläne, die müssen also nicht an der Kamera und in der Lichtsetzung dann reinkommen,

00:33:47: sondern können auch schon viel früher interagieren mit dem Autor, mit dem Regisseur zum Beispiel,

00:33:54: wo ich schon glaube, dass die Aufruhe berechtigt ist, ist im Sprecherbereich für so normale

00:34:04: Produktionen, also Audio Guides, wo ich ja auch viele Aufträge mache, Erklärvideos in

00:34:10: dem Bereich, wo es keine Pommestimme ist oder irgendeine krasse Werbestimme, da klingen

00:34:14: die KI's schon sehr, sehr gut und so viel Varianz in der Emotionalität muss man jetzt

00:34:20: meistens nicht einbringen. Da finde ich es gut, dass Eleven Labs zum Beispiel dafür

00:34:26: zahlt, stimmend zu licensieren. Da ist mein zum Beispiel auch verfügbar und da kriege

00:34:31: ich halt monatlich Geld von Aufträgen, die ich nie aufnehmen musste, was eigentlich

00:34:34: ganz cool ist. Also sehr gut. Auch da der Tipp, glaube ich, Eleven Labs macht das schon recht

00:34:42: gut, das stimmt. Aber die Frage, du bist gerade so ein bisschen drübergehutscht, die Schauspieler,

00:34:47: die Menschen sind ja schon besser und so. Und dann auf der anderen Seite heißt es natürlich

00:34:52: immer auch von Experten, mit denen ich so spreche, wir sind immer noch am Anfang dieser

00:34:58: KI-Entwicklung, aber es ist sicherlich auch stimmt. Das habe ich bei eurem Projekt zum

00:35:02: Beispiel gedacht bei Previously On. Natürlich, also das sieht alles sehr beeindruckend aus,

00:35:07: die Story ist cool, aber die Emotionen im Gesichtern der KI-generierten Menschen eher

00:35:14: so vage angedeutet, würde ich sagen. Aber das kann sich ja auch ändern, oder?

00:35:21: Ja, also ich glaube, was man nicht unterschätzen kann, ist wie limitiert wir darin sind, eine

00:35:29: Performance in reiner Textform vorzugeben. Also wir verwenden ja auch nicht nur Textprompting,

00:35:35: unsere Bilder zu generieren, es gibt auch sogenannte Control Nets, wo wir zum Beispiel

00:35:39: Posen folgen können, grobe Räumlichkeiten, dass wir sagen, da muss eine Wand sein, da

00:35:44: muss eine Tür sein usw. Deswegen glaube ich, dass sich das Schauspiel schon wandeln könnte

00:35:48: Richtung Motion Capture. Also der Schauspieler Andy Serkis zum Beispiel, der ist ja meistens

00:35:55: gar nicht zu erkennen in seinen Filmen, aber der spielt Schimpansen, Monster Gollum hat

00:35:59: er zum Beispiel gespielt. Also könnte ich mir vorstellen, dass wenn ich jetzt als Schauspieler

00:36:03: anfangen müsste, dass ich mich damit befasse, wie kann ich auch Rollenspielen, die vielleicht

00:36:11: nicht so aussehen wie ich, weil ich beim Previously On zum Beispiel alle Stimmen selber gesprochen

00:36:15: habe. Klingen aber nach jungen Frauen, alten Frauen, Männern, alten Männern. Also das

00:36:23: ist Potenzial natürlich für einzelne Schauspielende viel größer, weil sie mir Rollen annehmen

00:36:27: können. Aber klar, können dann alle noch Schauspielern? Kann natürlich auch sein, dass

00:36:36: die Bühne wieder dazu gewinnt, weil Leute keinen Bock haben auf nur KI-generierten Content.

00:36:40: Also ich hoffe, das Berufsbild bleibt bestehen. Ja, auch da. Exakt die gleiche Frage, glaube

00:36:47: ich, bei den personalisierten Filmen, diesen hyperpersonalisierten Filmen, die technisch

00:36:53: denkbar sind. Ich meine auch, Schauspieler sind ja Teil eines popkulturellen Diskurses

00:36:59: und wenn das dann wegfällt, glaube ich, auch da wird etwas fehlen. Aber klar, das wird

00:37:04: sich vielleicht ausdifferenzieren. Also auch da gibt es ja Stimmen, die sagen, wir werden

00:37:09: vielleicht im nächsten Markt haben für KI-generierte Dinge, aber auch so quasi eine Art Gütesiegel,

00:37:15: da hier spielen noch echte Menschen mit diesem Film. Schaut es euch an. Es bleibt auf jeden

00:37:21: Fall spannend, glaube ich, wie sich das so ausdifferenzieren wird, die ganze Geschichte.

00:37:25: Wir kommen langsam zum Schluss. Es ist immer ein bisschen schwierig, natürlich so sagen,

00:37:32: ich gebe euch jetzt mal ein Tipp und so. Es kann ja oft ein Zeigefinger sein, aber wir

00:37:37: versuchen es trotzdem mal. Wenn du Medienschaffenden beim Umgang mit oder gerade im Video bereichst,

00:37:44: ja, Tipps, sagen wir mal drei, vielleicht, wenn es nur ein oder zwei werden, auch egal,

00:37:49: aber wir haben ja hohe Ansprüche hier. Welche drei Tipps werden das?

00:37:54: Also fundamental bleibt die Story. Ich glaube, die erfolgreichsten KI-Filme machen, dann werden

00:37:59: auch am Skript die meiste Zeit verbringen. Robert McKee Story, das Buch muss man in

00:38:07: und auswendig können, dann eher im KI-Bereich. YouTube Tutorials gibt es, also man kann sich

00:38:14: eine ganze KI-Ausbildung online beschaffen, wenn man den richtigen Leuten folgt. Curious

00:38:21: Refuge kann ich empfehlen. Für die haben wir auch einen KI-Animationskurs produziert,

00:38:26: aber die haben auch AI-Filmmaking-Kurse und so weiter. Die sind im Profibereich, kosten

00:38:29: auch Geld, aber ich kann sie auch wirklich persönlich ans Herz legen, selbst wenn ihr

00:38:33: nicht unseren Kurs macht. Also es entwickeln sich auch wirklich Weiterbildungen in dem

00:38:40: Bereich und als dritten Tipp einfach ausprobieren. Also versuchen so viel wie möglich damit

00:38:47: zu arbeiten, weil es wird nicht verschwinden, es wird nicht verboten. Die ersten komplett

00:38:54: ethisch trainierten KI-Modelle sind auch schon verfügbar, also das Argument wird in Zukunft

00:38:58: nicht mehr existieren. Das ist eine Aussage. Ganz zum Schluss noch der Grund, auch einen

00:39:04: Grund warum du hier bist, ist ja, weil wir dich am 1. April bei unserem Special, unserem

00:39:09: Event Special Future Video auf der Bühne sehen werden. Vielleicht nur so ein ganz kleiner

00:39:14: Taser. Worüber redest du denn da so?

00:39:17: Es ist immer schwierig zu sagen im Voraus, weil sich ja alles immer ändert.

00:39:22: True.

00:39:23: Ich werde, glaube ich, einen Überblick geben davon, was momentan möglich ist in verschiedenste

00:39:27: Richtungen. Wir sind im Fotorialen Bereich unterwegs mit Previously On, im Kinderanimationsbereich

00:39:32: mit Spaceswets. Und ich werde in der Viertelstunde so viel wie möglich reinpacken, dass Leute

00:39:39: sehen, okay wow, das hat ja tatsächlich Potenzial. Vielleicht sollten wir uns das mal angucken.

00:39:43: Also dann da auch natürlich vieles vorüber wir heute gesprochen haben, dann nochmal

00:39:48: auch mit Bildern unterstützt in dem Fall, was wir hier im Podcast ja nicht haben. Aber

00:39:55: darauf könnt ihr euch freuen und wenn ihr das und andere Sachen natürlich auch nicht

00:39:59: verpassen wollt, kommt vorbei von unserer homepage medientage.de. Da gibt es die Tickets. Da

00:40:03: könnt ihr euch anmelden für Future Video am 1. April, unter anderem mit Albert Bozesan,

00:40:09: der heute bei uns zu Gast war. Und einen ja, wilden Ritt haben wir unternommen durch

00:40:14: die Möglichkeiten und Herausforderungen von künstlicher Intelligenz in der Videoproduktion.

00:40:19: Liebe Albert, vielen, vielen Dank. Danke, Lukas.

00:40:21: Und der guten Ordnung halber zum Schluss, liebe Hörerinnen und Hörer, wie immer macht

00:40:26: es gut, bleibt stabil und bis zum nächsten Mal.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.