Folge 151: Alexa, was ist aus dir geworden? Dominik Meißner über Voice im Zeitalter der Generativen KI

Transkript anzeigen

00:00:00: Ich glaube wirklich, wir sind an einem Punkt, wo man wieder nach vorne schauen kann und sich überlegen muss,

00:00:04: ist es gerade wieder ein Tipping Point da, es sind viele Technologien, die vielleicht zusammenwachsen und dann einfach so ein Revival von Spracher es hinschaut.

00:00:11: Und ich glaube auch, dass einfach ganz neue Use Cases geben wird und es bleibt auf jeden Fall spannend im Voice Markt.

00:00:17: Wir sprechen heute über eine Technologie, um die es in den vergangenen Jahren ruhiger geworden war,

00:00:23: aber wo sich jetzt wieder einiges tut, wie Dominic Meisner zu berichten weiß, einer der Gründer der Voice Agentur 169 Labs.

00:00:31: Wir sprechen darüber, warum wir Voice vor ein paar Jahren ein bisschen überhyped haben, wo wir jetzt stehen und welche Dynamik Alexa Plus

00:00:40: vor kurzem von Amazon in den USA gelongt, reinbringen könnte. Jetzt geht's los.

00:00:45: *Musik*

00:00:47: This is Media Now. Das Update für alle, die Medien machen.

00:00:52: *Musik*

00:00:58: Mein Name ist Luca Schöne und ich begrüße euch zu dieser Folge unseres Podcasts.

00:01:04: Kleine Home Story zu Beginn, ist ja nie ganz verkehrt, man soll ja Anekdoten erzählen von sich selber,

00:01:09: da habe ich mal gelernt, weil Personalisierung und so. Ich habe eine Alexa bei mir im Wohnzimmer stehen, wie wahrscheinlich viele von euch auch.

00:01:17: Und ja, was soll ich sagen? Da steht sie halt. Manchmal stelle ich den berühmten Teil mal, wenn ich mir was koche.

00:01:24: Und noch selten da frage ich dann manchmal sogar nach dem Wetter, aber auch da nutze ich eigentlich lieber die App vom Deutschen Wetterdienst,

00:01:30: weil ich die für sehr viel präziser halte als das, was Alexa mir da manchmal sagt.

00:01:34: Es gibt auch mehr Informationen. Ja, und das war's dann eigentlich auch schon mit der Nutzung, ehrlicherweise, ab und zu mal noch Radio.

00:01:40: Aber dann hört's auch echt schon auf. Ja, und da steht sie halt, diese Alexa.

00:01:45: Und offenbar geht das nicht nur mir so, dass diese typischen Nutzungssituationen so immer noch irgendwie da sind,

00:01:50: aber viel weitergegangen scheint es zumindest bisher nicht mit diesen Sprachassistenten.

00:01:56: Wo es schien mal so das nächste große Ding zu sein.

00:01:59: Da sind heute dann doch viele ein bisschen skeptischer geworden, auch in der Medienbranche.

00:02:03: Start über Alexa reden wir seit ja auch schon über zwei Jahre, zwischendurch über ChatGPT.

00:02:08: Aber vielleicht ändert sich da gerade auch mal wieder ein bisschen was,

00:02:11: denn Amazon bringt gerade mit Alexa Plus ein neues Modell an den Start.

00:02:16: Darüber sprechen wir gleich und wer weiß, vielleicht ist das so ein bisschen ein Comeback der Sprachassistenten,

00:02:21: so im Windschatten der generativen KI. Das ist zum Beispiel eine Frage, die wir klären wollen.

00:02:26: Und mit wem tun wir das? Mit einem echten Experten, der Voice schon gemacht hat, bevor es ein Buzz World war.

00:02:31: Nämlich mit Dominic Meisner von der Voice Agentur 169 Labs. Schön, dass du da bist.

00:02:36: Ja, Lukas, du. Vielen lieben Dank für die Einladung. Ich freue mich hier bei dir zu sein.

00:02:40: Sehr, sehr gerne. Du baust ja mit deinen Kolleginnen zusammen seit ja wieviel Jahren eigentlich jetzt schon?

00:02:46: Seit ihr unterwegs? Baut ihr Anwendungen für Sprachassistenten?

00:02:50: Wir sind wirklich direkt mit der Markteinführung Alexa in Deutschland gestartet, 2017 haben wir unsere ersten Skills gebaut

00:02:56: und sind wirklich damit sozusagen vor bzw. mit dem Hype eigentlich losgelegt und haben unser Eventur gegründet,

00:03:02: die sich ja wirklich nur auf Sprachanwendungen stützt und seitdem sind wir da frei fleißig am Basteln.

00:03:08: Ja, und seid ja auch viele in der Medienbranche unterwegs. Wir kennen uns ja jetzt auch schon ein bisschen.

00:03:13: Wir haben von ein paar Jahren mal zusammen die oder ihr habt die Konferenz All About Voice organisiert, die wir unterstützen durften vom Mediennetzwerk Bayern.

00:03:21: Daher kennen wir uns ja auch und da haben wir schon dieses Hype-Thema, was es damals ja auch zusammen bearbeitet.

00:03:29: Was ist eigentlich deiner Meinung nach passiert? Warum ist diese Hype dann so abgeflaut und wir haben in den letzten zwei Jahren

00:03:36: sehr, sehr wenig nur noch über Alexa und Co. gesprochen?

00:03:39: Ich glaube, es ist wahrscheinlich immer nennt jedes Hypes und wenn man sich den Hype-Seikel anschaut und was wir auch damals oder viele auch damals ja auch gesagt haben,

00:03:48: wir sind hier gerade in Hype und es ist jetzt gerade ein bisschen das Thema sehr hochgeblasen.

00:03:52: Es war einfach eine bahnbrechende Technologie oder es mit einer großen Faszination und sicher auch eine wahnsinnig schnell wachsende,

00:04:01: wenn man gesehen hat, wie schnell auch neue Geräte verkauft wurden, wie die Marktturchdringung im deutschen oder weltweiten Haushalten,

00:04:07: da durch alle extra Geräte eigentlich auch getrieben wurde, kann man ja schon sagen, das war ja schon sehr überraschend und sehr bahnbrechend für das,

00:04:14: was man da gesehen hat, für eine neue Technologie, die man gesehen hat.

00:04:17: Es hat sich natürlich jetzt immer mit neuen Technologien, wenn man sich die anschaut am Anfang, die Versprechungen oder die Visionen, Fantasien,

00:04:27: da gab es manche, die waren richtig und manche, die waren falsch und ich glaube, und vielleicht ist es jetzt ein 75, 25 oder es ein 50/50,

00:04:36: vielleicht ist es eher ein 50/50 und davon waren halt manche Sachen, die nicht, dass jetzt alles nur noch mit Sprache bedient wird,

00:04:42: hat sich nicht bewahrheitet, auf der anderen Seite, dass viel mit Sprache möglich ist und mit Sprache bedient werden kann,

00:04:49: ist ja dann, sage ich mal, die andere Seite der Medaille, die man sich anschauen sollte.

00:04:52: Wir haben damals, das war 2018/19 glaube ich, gab es dann immer so diese Vorhersagen,

00:05:01: 2025 wird jede zweite Suchanfrage weltweit per voice gestellt werden, ist jetzt so nicht eingetreten.

00:05:09: Was sind denn so mögliche Gründe dafür, dass dieser Siegeszug, der sich ja am Anfang so angedeutet hat,

00:05:14: dann doch ja so ein bisschen ins Stocken geraten ist zumindest?

00:05:18: Also ich glaube, also ich glaube, die, die Slight mit 2025 ist für die zweite Suchanfrage per voice stattfinden,

00:05:25: war ja, ich glaube, in jeder Präsentation, die Pflichtslight, die irgendwie am Anfang als Opener drin sein musste.

00:05:32: Also insofern, das war wirklich viel zitiert und wirklich, sage ich mal, krachen gescheitert,

00:05:37: wenn man sich die heutigen Zahlen anschaut, muss man ja wirklich ehrlicherweise sagen, aber nichtsdestotrotz warum

00:05:43: und abseits davon, dass man jetzt nur eine Suchanfrage stellt und Antworten bekommt,

00:05:48: es wurden ja auch wahnsinnig viele Applikationen gebaut, wo man sozusagen in mehreren Kategorien,

00:05:54: ich sag mal Entertainment, Radiomediennutzung, Smart Home, Steuerung deiner Geräte und dann sage ich mal noch mehr so Richtung

00:06:01: Assistenten, wo ich Essensbestellungen oder Konfigurationen von Produkten, die ich dann bestellen kann,

00:06:08: sozusagen, die eher in die Richtung gehen und Shopping-Experienz ist vielleicht sind.

00:06:12: Und eine Vielzahl, quasi wurde, sage ich mal, so ein bisschen diese Spaghetti an die Wand bild,

00:06:18: wurde rausgebracht und released.

00:06:21: Ich glaube, wir hatten irgendwann im Zuchseiten 100.000 Skills in Deutschland Store und ich glaube,

00:06:26: und dann wurde erst im nächsten Schritt mal nachgedacht oder hat man dann erst angefangen

00:06:30: oder hat man erst gesehen, wie Leute überhaupt die Sprarassistenten benutzen, was sie damit machen

00:06:33: und ich glaube so ein bisschen, warum viele Sachen nicht so erfolgreich waren, wie man anfangt dachte,

00:06:38: ist, glaube ich, dass man vielleicht so ein bisschen diese, die überschätzt hat, wie komplexe Dinge ich mit zum Sprarassistenten

00:06:46: habe, was man auch steuern kann, was ein Interface, was nicht mehr visuell ist, was mir nicht auf einen Blick

00:06:52: viele Optionen geben kann, sondern mir Optionen vorlesen muss, dass es nicht so gut ist, wenn ich,

00:06:57: also einfach schwierig ist, dann darin zu navigieren, ein visuell interface-loses Interface, wo ich nicht

00:07:03: wirklich auch eine Menüführung habe oder mal ein Hauptmenü, wo ich einfach alles per Sprache machen muss,

00:07:09: ist halt, kann vielleicht in der Tiefe oder in der Komplexität nicht so gut funktionieren, wie wir es

00:07:14: am Anfang vielleicht dachten. Und ich glaube auf der anderen Seite vielleicht auch eine Schwäche der ganzen Technologie,

00:07:19: wenn man sich jetzt heute large-english-molars anschaut, wie ich da wirklich mit natürlicher Sprache sehr komplexe

00:07:23: Dinge einsprechen kann, die sehr gut verstanden werden, das ist einfach eine neue, eine neue Evolutionstufe

00:07:30: von Sprachinterfaces, die aktuell gerade passiert, ausgerollt wird, die uns damals 2017 nicht zur Verfügung stand.

00:07:36: Deswegen kommt man eher auf diese, sage ich mal, diese, diese Alexa-Lingo, die sich jetzt jeder einprägt,

00:07:42: wo er einfach genau weiß, welche Sätze er sprechen muss, in welche Reihenfolge und damit irgendwie seine Alexa steuert.

00:07:47: Und das ist natürlich nicht am Ende nicht intuitiv, benutzerfreundlich und vor allem für die komplexen Use-Cases, wo ich sage,

00:07:53: ich möchte eine Pizza bestellen, und zwar eine große, eine kleine und übrigens auf die eine mitzwiebeln, auf die andere ohne zwiebeln,

00:08:00: ach mach doch wieder, mach doch eine Dritte dazu und im Hintergrund spricht noch jemand rein und sagt,

00:08:04: hey, ich will gar keine Pizza, es sind einfach die Sachen, die man anfängt, dachte, dass das die Killer-Use-Cases sind

00:08:10: und die sind halt einfach unglaublich schwierig und haben sich nicht durchgesetzt.

00:08:14: Auf der anderen Seite durch die leichten Use-Cases, wenn man heute anschaut, was sind die Use-Cases, die wirklich gut funktionieren auf Alexa,

00:08:19: sind es ja die ganz einfachen, sage ich mal, die in Richtung Command und Control gehen.

00:08:23: Lichtlarren, Lichtaus, Weckerstellen, Radio hören, ich will eine Einschlaffhilfe haben, gibt mir die Nachrichten,

00:08:28: Wetterbericht, alles vielleicht auch ein bisschen Routinen getrieben ist, also das sind die Sachen, die nach wie vor im Alltag stattfinden und sehr gute Nutzung haben.

00:08:36: Das ist ja die Frage, das sind ja so die Use-Cases, also wir haben ja immer noch eine sehr, sehr hohe Durchdringung mit diesen Geräten

00:08:45: in den deutschen Haushalten, ich glaube in jedem vierten Haushalt, jeder zweite Person in Deutschland hat Zugang zu einem Smart Speaker.

00:08:54: Ist das eigentlich, also weil ich, aber ich beschäftige mich natürlich auch beruflich mit solchen Dingen,

00:09:00: bei mir habe ich schon festgestellt in den letzten ein, zwei Jahren natürlich dann auch mit der Nutzung von Chatchivity das Gegenüber

00:09:05: Alexa jetzt red ich schon, als wäre es irgendwie ein Mensch, aber so eine Nutzungsfrustration eingetreten ist,

00:09:12: weil ich in vielen Momenten gemerkt habe, irgendwie funktioniert es ja nicht so, wie ich jetzt nämlich mit Chatchivity unterhalte

00:09:19: und für mich ist Alexa irgendwie dann, das ist kaum noch eine Alternative, ist es wohl so eine Frustration, die viele haben oder sind die Leute eigentlich zufrieden damit mit den Use-Cases,

00:09:30: die dieses Gerät so kann, wie kann man das irgendwie einschätzen?

00:09:33: Ich glaube sicher, es war am Anfang eine Überschätzung der Technologie da und die Erwartungen sehr hoch und an ein natürlich sprachliches Interface

00:09:44: und deswegen glaube ich haben Leute wirklich alles eingesprochen, was sie im Kopf gekommen ist und dann kam halt leider zu oft die Antwort darauf habe ich leider keine Antwort oder ich könnte,

00:09:54: heute kann ich damit leider nicht helfen, was natürlich frustrierend ist und natürlich zwei Sachen passiert sind,

00:09:59: auf der einen Seite wurde Technologie nachgezogen, aufgrund von nicht beantwortenden Anfragen kann man natürlich das ganze System optimieren, was Zug für Zug passiert ist,

00:10:07: was aber natürlich, der die erste Anfrage stellt, wo eine falsche oder schlechte Antwort kommt, natürlich frustriert,

00:10:13: den nächsten oder den Holzen, wo dann die Antwort richtig kommt, natürlich, der überrascht ist dann nicht mehr, dass es richtig ist, weil er erwartet hat, dass es richtig ist.

00:10:20: Und ich glaube, was man jetzt einfach sieht in den letzten zwei Jahren durch Lab-Language-Model ist, JetGPT, dass einfach die Erwartungshaltung an Sprachinterfaces deutlich größer geworden ist

00:10:30: und damit glaube ich die Frustration schon auch nochmal geschürt worden ist, warum, wenn ich mich jetzt mit meinem JetGPT-Assistent am Telefon so gut unterhalten kann,

00:10:40: warum kann ich das nicht auch mit meiner Alexa zu Hause machen?

00:10:42: Und das ist ja quasi auf jeden Fall ein Thema, wo man sieht, dass irgendwie da so Raum für Verbesserung noch da ist.

00:10:49: Amazon versucht ja jetzt da mitzugehen, sozusagen hat Alexa Plus gelounscht, bis jetzt nur als Bezahlmodell in den USA, aber es ist schon natürlich auch geplant,

00:11:02: das ist das Ganze dann auch in Europa. Irgendwann an den Start geht, man weiß noch nicht so ganz genau, wann das der Fall sein wird, glaube ich, wenn ich richtig informiert bin.

00:11:09: Was ändert sich da denn jetzt? Was kann Alexa Plus besser, mehr als die Alexa, die wir so kennen in unserem Alltag?

00:11:19: Also grundsätzlich ist Alexa Plus oder der Vorläufer schon sehr lange angekündigt, weil Amazon ja auch sofort gesehen hat mit JetGPT und large language-Models,

00:11:29: was denn eigentlich die Technologie fake ist und natürlich was möglich ist und warum sie eigentlich an der Stelle nicht nachziehen können oder verbessern können.

00:11:38: Insofern haben sie vor zwei Jahren schon das Announcement, dass ja auch in Zukunft Alexa large language-Modell fähig wird und es hat leider sehr lange gedauert, bis es auch wirklich in die Richtung gegangen ist,

00:11:48: weil ich glaube auch massive Schwierigkeiten dahinter stecken, sowas zu bauen und mit einer bestehenden Infrastruktur, das gilt Infrastruktur, Smart Home Steuerung irgendwie auch zu integrieren,

00:11:58: das am Ende ja auch irgendwie benutzerfreundlich ist und so ein bisschen Halizionationen und dem rechtlichen Rahmen natürlich auch irgendwie klar gesteckt werden muss.

00:12:05: Und dann ist jetzt im letzten Monat das große Announcement oder sehr große Event gewesen, dass Alexa Plus jetzt gestartet wird, zunächst nur in Amerika für die US-Haushalte und mit einem Bezahlmodell,

00:12:19: 20 Dollar pro Monat für Prime-Mitglieder umsonst und dann ist jetzt der nächste Schritt der Rollout dann auf andere Sprachen oder andere Länder,

00:12:28: wie du gesagt, richtigerweise sagst, da ist bis jetzt noch kein Datum wirklich bekannt.

00:12:32: Ich denke mal, in Laufe dieses Jahres müsste da eigentlich schon auch was passieren.

00:12:36: Was ist jetzt die große Veränderung? Was ist die Neuerung an Alexa Plus?

00:12:40: Alexa Plus soll einfach mehr genau diese Glücke schließen, die wir gerade eben besprochen haben, dass conversational Interface wieder wirklich mit natürlichsprachig, mit hieber werden,

00:12:50: also ich kann dann wirklich ganze Sätze einsprechen, einen latschen Engelschmodell damit befüllen und bekommen dann generative Antworten auf meine Fragen.

00:12:58: Und das, das ist quasi die Vision, die dahinter steckt und das wollen Sie im Prinzip sozusagen mit drei Säulen das ganze betreiben oder sage ich mal integrieren.

00:13:08: Und die drei Säulen sind einmal, wenn jetzt Anbieter schon eine bestehende AP haben, wo sie Daten zur Verfügung stellen.

00:13:14: Also ich bin jetzt zum Beispiel jetzt schon ganz konkret auch für die Medienbranche, ich bin jetzt News Anbieter und habe irgendwie Nachrichten und Entertainment Bereiche.

00:13:22: Die biete ich jetzt über eine AP an, die irgendwie abgefragt werden können.

00:13:26: Da gibt es eine Beschreibungssprache, da beschreibe ich dann oder sage dem latschen Engelschmodell, wie sieht meine AP aus, was sind dort Verinhalte drin?

00:13:33: Welche Anfragen kann ich beantworten?

00:13:35: Und dann kann der Konsumentin auf der einen Seite seine natürlichsprachlich einsprechen und die AP wird dann befragt, Daten herausgezogen, aufbereitet, zusammen remixed,

00:13:46: sage ich mal und dann der Nutzerin zur Verfügung gestellt und auch beantwortet.

00:13:51: Die zweite Säule, die es gibt von den dreien, ist die, dass man jetzt schon eine bestehende Webseite hat und einen bestimmten User Flow, der irgendwie da abgebildet wird.

00:13:58: Also irgendwie nix, irgendwann ein Konfigurator, wo ich mir bestimmte Sachen zusammenklicken kann und am Ende vielleicht bestellen kann.

00:14:03: Da beschreibe ich diesen Webflow oder diesen Schritt, diese einzelne Schritte, die ich auf meiner Webseite mache, auch wieder mit einer Beschreibungssprache.

00:14:11: Und dann wird das Latsch Engelschmodell in der Lage sein, über diese Webseite quasi durchzuklicken und Formulare auszufüllen und auch eine Aktion auszufüllen.

00:14:20: Vielleicht in der Medienbranche, glaube ich, nicht so die Riesenanwendungsfälle.

00:14:23: Und die dritte Säule wird sein, dass man, wenn man jetzt schon einen Agent gebaut hat, einen Latsch Engelschmodell Agent, dass man den auch an Alexa anschließen kann und dann, wo er jetzt schon in der Spracheingabe oder eine Texteingabe kommt,

00:14:36: irgendwas gebaut wird, ein Musikstück aufgrund meiner jetzigen Stimmung irgendwie zusammengestellt wird und dann zum Beispiel bei Alexa ausgeliefert wird.

00:14:44: Also schon Medieninhalte jetzt nicht nur sprachlich, sondern auch Dateien, MP3s, Musikstücke, Mut, also alles, was da in dem Bereich im Medien ist, auch ausgeliefert werden kann.

00:14:56: Okay, also dass man einfach Alexa sagt, wie fühle ich mich gerade und dann Alexa den passenden Song generiert dazu.

00:15:03: Interessant auf jeden Fall.

00:15:05: Natürlich die wichtige Frage, die gerade für die Medienbranche immer dahinter steht.

00:15:10: Also wenn ich das richtig verstehe, natürlich bei ChatGbt zum Beispiel ist ja immer die Frage, welche Quellen werden angegeben, worauf wir zurückgegriffen.

00:15:20: Das ist bei Alexa stelle ich mir das schwieriger vor, aber das war bis jetzt ja auch häufiger schon so, wie man jetzt dann eine Frage stellt und bekommt eine Antwort.

00:15:27: Sagt Alexa ja wahrscheinlich nicht, die Quellen sind übrigens die und die und die und die und die.

00:15:32: Eigentlich ja das ist wirklich absurd oder was heißt nicht gewollte, ja, würde sie die Quellen vorlesen, würde ja keiner mehr wissen, was man will.

00:15:42: Das stimmt.

00:15:43: Und das Problem eines Voice Interfaces, dass nicht irgendwo noch ein Logo eingeblendet werden kann, um zu sagen, woher habe ich die Informationen?

00:15:49: Also insofern, ich glaube, dass das sicher auch eine Schwäche des reinen Sparinterfaces ist, dass ich eine Antwort bekomme und eigentlich gar nicht so richtig weiß, woher sie kommt, wie so sie ist, ob sie halationiert ist oder wie ich mich da welche Quelle dahinter sehe.

00:16:02: Sich versteckt auf jeden Fall.

00:16:04: Also das ist sicher auch ein Problem, was irgendwie auftauchen wird, was man sich erlösen muss.

00:16:07: Abgesehen von diesem Kritikpunkt frage ich mich so ein bisschen, also Alexa zieht da ja jetzt nach, zumindest würde ich das jetzt auf der Draufsicht irgendwie betrachten mit einem relativ großen Abstand.

00:16:20: Also wir sind ja inzwischen, ChatGPT ist eine Massenanwendung geworden, viele Leute interagieren damit, sprechen oder schreiben wirklich damit wie mit einem Freund oder mit jemanden, mit dem man sich halt austauscht.

00:16:32: Wie oder wo, würde ich sagen, will sich jetzt Amazon mit Alexa Plus positionieren?

00:16:38: Ist das wirklich Konkurrenz zu ChatGPT und Co?

00:16:41: Ist das überhaupt noch irgendwie sinnvoll da irgendwie reinzugehen?

00:16:45: Oder haben die irgendwie was anderes in anderen Markt, vielleicht im Deckt, wo will Amazon so hin damit?

00:16:52: Das ist eine gute Frage, da muss ich ja natürlich in den Kopf von Amazon rein schauen und dich...

00:16:56: Das ist schwierig, ja.

00:16:58: Ich kann nur vermutungen aufhören.

00:17:00: Wir können ja auch immer Mut maßen.

00:17:01: Ich darf mal orakeln, ja.

00:17:02: Ich glaube grundsätzlich ist natürlich das Thema Large Language Models für jeden Konzern aktuell ein großes Thema, dass man, wenn man die Kapazität finanziellen Möglichkeiten hat,

00:17:15: dass man irgendwie ein eigenes Large Language Models zusammenbaut und auch betreibt und zur Verfügung stellt, was ja Amazon als gemischt war,

00:17:24: handelt mit AWS, ja auch mit Betrok ein eigenes Large Language Models hat, wo sie natürlich auch wollen, dass das genutzt wird.

00:17:31: Insofern, ich würde sagen, sie positionieren sich da schon klar gegen oder als Konkurrenz zu ChatGPT oder OpenAI,

00:17:40: weil sie einfach auf ihre eigene Technologie da im Hintergrund auch bauen.

00:17:42: Also würde ich auf jeden Fall sagen.

00:17:44: Insofern, glaube ich, baut man da was auf.

00:17:50: Am Ende ist aber Alexa, wie ChatGPT ja auch nur das Interface für das Large Language Model.

00:17:55: Aber das ist jetzt nicht das Latch Language Model, das ist ja nicht bei Alexa eingebaut sein und das wird ja auf Large Language Models zurückgegriffen.

00:18:02: Insofern auch, wie gesagt, dieser Ansatz bringen ja einen Agent, der auch bei Alexa Plus möglich sein soll.

00:18:08: Da könnte ja auch ein OpenAI bestehendes GPT-Model schon auch Antworten liefern und angeschlossen werden.

00:18:15: Also es wird keine Exklusivität auf Betrok oder Amazon Infrastruktur geben.

00:18:22: Also insofern, glaube ich, ist vielleicht ein bisschen losgelöst von Alexa eher, der, sag ich mal, Amazon versus OpenAI versus Microsoft.

00:18:31: Ein Thema, das jeder versucht, sein eigenes Large Language Model irgendwie an den Markt zu bringen und Nutzer drauf zu schmeißen.

00:18:36: Das ist sicher die Strategie dahinter, würde ich schon sehen.

00:18:40: Gehen wir mal so ein bisschen hin zur Medienbranche wieder, für die wir diesen Podcast auch machen.

00:18:46: Ihr habt euch ja bei euch ja natürlich auch seit Jahren mit Medienanwendungen beschäftigt, hat mit verschiedensten Medienhäusern zusammengearbeitet, Skills entwickelt.

00:18:55: Wir haben ja eine Zeit lang so ein bisschen auch dieses sehr viele Rumprobieren.

00:19:00: Wie kann man denn Leute zur Interaktion bewegen mit Inhalten, die wir haben und so.

00:19:06: Wenn wir da uns da jetzt die Entwicklung bei Alexa Plus zum Beispiel anschauen, eröffnet das vielleicht auch wieder, du hast ja gerade das Musikbeispiel schon genannt, Musik generieren lassen.

00:19:14: Eröffnet das auch für Medien wieder neue Chancen.

00:19:17: Quasi da vielleicht nochmal, wenn die Technologie dann auch in Europa da sein wird, da nochmal drauf zu schauen, können wir damit denn vielleicht jetzt was machen?

00:19:27: Also wie gesagt, ich glaube ja, es ist ja immer noch so, dass die Mediennutzung einen sehr hohen Anteil auf Alexa Gewenden aktuell hat.

00:19:34: Radio hören, Musik hören, ist ja wirklich den Just-Cast Nummer eins, der immer noch gut

00:19:39: funktioniert und auch wo die Geräte einfach auch regelmäßig im Einsatz sind. Also insofern,

00:19:43: ich glaube deswegen, sollte man da auf jeden Fall hinschauen und überlegen, ob es da nicht

00:19:48: vielleicht eine Revival gibt. Ich glaube grundsätzlich muss ja jedes Medienhaus aktuell auch überlegen,

00:19:53: wie sie mit large language Models umgehen und wie ihre Inhalte dort auffindbar sind,

00:19:57: abrufbar sind. Also insofern, ich glaube schon, es ist auf jeden Fall ein Thema zu sagen,

00:20:01: okay, wie kann ich bei Alexa Plus mit meinen Inhalten, also grundsätzlich zwei möglich oder zwei,

00:20:05: der eine Raum ist ja da, Mediennutzung auf Alexa ist ein starker Use-Case findet, auch aktuell noch

00:20:11: stark statt. Es ist einfach der eine Fakt und der andere Fakt, sagen wir mit large language Models,

00:20:17: wird ein neuer Raum eröffnet, der ja eh bespielt werden muss von Medienräumen. Also würde ich

00:20:23: sagen, da schlägt man einem Prinzip so ein bisschen zweifliegen ja mit einer Klappe. Insofern sollte

00:20:27: man sich schon überlegen, wie man dort auch in Zukunft stattfinden kann, wie man vielleicht

00:20:31: seinen eigenen Inhalt dort unterbringen kann, mit auch Remix-Möglichkeiten, Abfahrgemöglichkeiten,

00:20:35: die irgendwie da in Zukunft auch möglich sein werden. Was ich ja ganz spannend finde,

00:20:41: ich habe das ein bisschen mitbekommen, dass ihr ja in den vergangenen Monaten, ein, zwei Jahren sehr

00:20:47: viel in der Hotelbranche unterwegs wart und Anwendungen für Hotels, für die Hotelbranche

00:20:53: gebaut habt. Wenn du vielleicht einmal kurz erzählst, was ihr da genau macht, also was für

00:20:57: Anwendungen in Hotelzimmern sozusagen sind und was natürlich dann die zweite Frage für mich wäre,

00:21:03: kann man aus dem Nutzungsverhalten, wie Leute das Ding, wenn sie im Hotelzimmer sind,

00:21:08: kann man daraus irgendwas ableiten, was für die Medienbranche vielleicht auch irgendwie interessant

00:21:13: sein könnte? Auf jeden Fall gerne. Es ist einfach der, wir kommen aus der, wir kommen

00:21:19: im Prinzip aus der Ecke und sagen, wir bauen Custom Assistance, also wirklich ein Assistent, der

00:21:24: für einen bestimmten Newcase, für eine bestimmte Umgebung designt ist und darauf irgendwie gute,

00:21:31: wirklich als Assistent da sein kann. Und da ist einfach, war von vorne oder auch schon von

00:21:35: längerer Zeit, war schon der Wunsch, auch ins Hotelzimmer zu gehen, weil es irgendwie da so ein

00:21:38: bisschen Sinn macht, da einen Gerät im Zimmer zu haben, was man zum einen natürlich für

00:21:43: Entertainment nutzen kann, also Weckerstellen, Radio hören und Informationen abfragen und auf der

00:21:48: anderen Seite natürlich auch für den speziellen Newcase-Hotellerie auch Möglichkeiten bieten kann,

00:21:52: sodass ich dann auch wirklich Fragen zu meinem Aufenthalt stellen kann, wann ist meine

00:21:56: Abreise, wann ist Check-Out hier, wann gibt es Frühstück, hat der Pool noch offen und auf der

00:22:01: anderen Seite natürlich auch Aktionen auslösen kann, wie ich möchte eine Late-Check-Out buchen oder

00:22:05: ich möchte heute auf die Zimmerreinigung verzichten oder ich möchte gerne eine Spa-Anwendung buchen,

00:22:11: also dass man auch auf der anderen Seite da auch Services anbietet, die man auch im Hotelzimmer

00:22:15: dann direkt transactionsbasiert auch beziehen kann. Es ist und jetzt sagen wir das sagen wir

00:22:21: auf der einen Seite immer eine Hypothese, auf der anderen Seite natürlich sehen wir auch jetzt die

00:22:24: Daten mit unseren Aktionen. Wir sehen, dass einfach Leute ins Hotelzimmer gehen und dort

00:22:31: den Alexa sehen, Alexa entweder schon kennen, 25 Prozent der Haushalte haben wir Alexa zu Hause,

00:22:36: sofort bedienen andere, die es nicht zu Hause haben, zumindest ja schon mal davon gehört haben,

00:22:40: jeder, ich glaube jeder in Deutschland weiß ungefähr was das Gerät kann und wie man es

00:22:44: ansprechen kann und wie man sich einen Witz erzählen lassen kann sozusagen und anfangen ist

00:22:48: auch nutzen und wir sehen einfach das wirklich 95 Prozent der Gäste auch das Gerät einmal

00:22:54: pro Aufenthalt mindestens mal benutzen, insofern hohe Akzitanz da ist und man sieht auch und das

00:23:00: ist eigentlich auch so ein bisschen wie schließt sich ein bisschen der Kreis, was sind die Use Cases,

00:23:03: wir sehen unseren Daten ganz klar, die Leute hören Musik, Radio stellen sich im Wecker,

00:23:07: viele kommen rein und wollen natürlich als erstes mal, wollen dann abends das Licht

00:23:12: ausschalten, finden den Lichtschalter nicht und sagen Alexa Licht aus, leider haben wir noch

00:23:16: nicht überall das Smartphone Steuerung drin, aber du siehst auch was wie die Routinen zu Hause

00:23:20: sind, die man einfach auch als Erwartung an ein modernes Hotelzimmer hat und wenn man Alexa

00:23:26: sieht, dass man gleich mal sagt okay die muss ja eigentlich auch das Lichtsteuern können und

00:23:29: vielleicht auch Temperatursteuern können und damit auch den Nutzen hat, also insofern die Learnings

00:23:34: sind eigentlich die, dass das wirklich wir sehen, dass der Use Case bekannt ist und die Leute sehr

00:23:42: intuitiv damit umgehen und wenn man es schon kennt und hat auch so nutzen wie zu Hause und

00:23:48: auch Leute die noch keinen Anknüpfungspunkt hatten von zu Hause auch durch das einfache

00:23:53: Interface und die Besienung auch relativ schnell reinkommen und das Gerät auch benutzen können

00:23:58: und was einfach auch ganz lustig ist, ein bisschen anekdotisch auch, wir können eigentlich aus der

00:24:03: Nutzung sehen wir sofort, wenn Kinder im Hotelzimmer sind, weil dann einfach die Nutzung gleich

00:24:07: zehnmal höher ist das Gerät, weil die sich sofort darauf stürzen, damit rumspielende

00:24:11: Begeisterung haben, die wir vielleicht nicht so haben oder diese die Lust haben irgendwas

00:24:14: herauszukitzeln, also wir können ohne dass wir da große Informationen haben, wissen wir eigentlich

00:24:19: sofort, dass Kinder im Zimmer waren, weil die einfach mit dem Gerät sofort los spielen und

00:24:22: ausprobieren und darauf los und einfach eine sehr hohe Nutzung haben, was wir aber natürlich auch in

00:24:27: unserem anderen Bereich in dem Konsumergerät, die bei den Leuten zu Hause stehen auch sehen,

00:24:32: dass einfach die Kinder Nutzung und der Haushalt mit Kindern, die sind dem offen wollen

00:24:39: damit gerne rumspielen, es gibt auch viel Kids Entertainment, das ist sich auch ein Newscast,

00:24:42: der sehr gut funktioniert, auch Sparer resistent ist. Also das ist ja genau diese, gerade Kinder

00:24:48: interagieren dann ja richtig, also das ist ja so ein bisschen die Frage, was ja auch viele

00:24:53: Medienunternehmen ausprobiert haben über die Jahre, ist ja genau dieses Menschen in eine

00:24:58: Interaktion mit den Inhalten zu bringen, also nicht nur spielt man ein Radioprogramm ab und

00:25:02: dann läuft man Radioprogramm oder spielt in Podcast und dann läuft der Podcast, sondern wirklich

00:25:06: diese Austausch, um also nicht stärker die Leute stärker an die Marke zu binden irgendwie,

00:25:12: also das ist ja so oft der Gedanke dahinter. Bei Kindern funktioniert das ganz gut, das haben

00:25:17: wir schon gehört. Woran schallt das denn bei Erwachsenen? Das frage ich mich, wir haben bei

00:25:23: Mediennetzwerk Bayern vor ein paar Jahren ja das auch schon mal so ein bisschen ausprobiert hatten,

00:25:27: so ein Mediendemonstrator, das war so ein selbstfahrendes Auto, haben wir da simuliert und haben

00:25:32: da auch versucht so interaktive Use Cases zu implementieren und so weiter, das ist ein Projekt,

00:25:36: was jetzt auch, was es auch nicht mehr gibt und ich frage mich halt immer und mich wird

00:25:42: echt interessieren, wie du dazu stehst, wollen die Leute das vielleicht gar nicht? Also ist

00:25:47: das vielleicht etwas, weil der Nutzen davon irgendwie nicht so sofort zur Sicht bei es außer

00:25:50: ist, ist halt Spielerei und in gewissen Nischen so Games oder so mag das vielleicht funktionieren,

00:25:55: aber so sage ich mal im Alltag, im normalen Haushalt nicht, also dass wir so meine These

00:26:01: vielleicht haben die Leute da gar nicht so eine große Lust drauf in der Masse, so ständig

00:26:05: mit dem Gerät zu interagieren, sondern die wollen sagen, mach das, dann soll das Gerät das machen.

00:26:08: Also ich, ich glaube da hast du, du hast auf jeden Fall sagen mal den Nagel schon auf dem Kopf,

00:26:14: wenn du sagst, die Leute wollen den Gerät irgendwas sagen, mach das, also insofern ist

00:26:19: doch schön, wenn es dann auch und es muss funktionieren.

00:26:22: Das ist dann macht ja.

00:26:23: Genau, wenn es dann auch macht und wenn man antun wie es das kann ich leider nicht für dich

00:26:25: tun. Also insofern, ich glaube das ist total der Usekist und Legitim, also jetzt ist die

00:26:32: Frage so ein bisschen, warum nutzen das, warum wird das nicht so genutzt wie wir es in

00:26:36: Vorstellen. Ich sage mal 25 Prozent deutschen Haushalt ist ja schon mal eine Hausnummer,

00:26:41: ja. Wo wollen wir hin? 100 Prozent werden wir nicht erreichen, ilisorisch, also es vielleicht

00:26:46: sind wir mit 25 Prozent sozusagen, ist die Kurve da flach geworden und wir sind da in

00:26:51: dem Bereich wo wir, ehrlicherweise ja weit über die Erde, ob das weg ist und schon eigentlich

00:26:57: in der breiten Masse sich bewegt. Wo würde man andere Technologien sehen oder wo sieht

00:27:03: man dann ein Sättigungsgerat, also wie viel, ja, es ist natürlich auch schwierig zu vergleichen

00:27:07: mit was. Also insofern, ich glaube auf jeden Fall, wieso nutzen, wieso wird das nicht benutzt,

00:27:12: ist ja eine gute Frage. Also ich meine klar, Datenschutz ist natürlich immer ein Thema

00:27:17: des, der Großes, ich glaube aber und der am Anfang auch irgendwann großes, groß immer

00:27:22: diskutiert wurde. Ich glaube das ist aber eher wahrscheinlich nicht so eine große Masse,

00:27:26: also das ist, da sprechen wir wahrscheinlich eher von 10, 15 Prozent die vielleicht das

00:27:29: ganze ablehnen. Interessanterweise, wenn man sich auch zurückdenkt und jetzt wie alle,

00:27:35: der Großsatz, Alexa hört mich immer ab, er hat sich ja ehrlicherweise auch nicht bewahrheitet,

00:27:40: muss man jetzt mal sagen, also bis auf vielleicht mal Emerson Mitarbeiter, die irgendwie zwischendrin

00:27:44: mal was irgendwie eine Sprachnachricht abgehört haben und dann auch wirklich dafür ja auch

00:27:47: große Strafen kassiert haben und entsprechend sankzioniert worden sind, ist ja das noch

00:27:51: nicht, ist eigentlich, Stimmt, und das Thema ist eher ruhiger geworden, ist ja, eher ruhig

00:27:54: geworden. Also da keine großen Skandale und irgendwie Datensammlung und jetzt Alexa weiß

00:27:59: alles über mich, also insofern, ja ich glaube sagen wir so, das Datenschutz Thema vielleicht,

00:28:04: das andere ist vielleicht einfach auch, vielleicht sind wir auch mit der Technologie noch nicht

00:28:07: so weit, dass wir einfach den News Case noch nicht so sauber umsetzen und irgendwie keiner

00:28:12: will Technologie oder irgendwas haben, was frustrierend ist und Frustration hat, also

00:28:15: und vielleicht zu viele Frustrationserlebnisse, die mich dann dazu bewegen, das nicht mehr

00:28:20: zu benutzen. Zu dem Thema gibt es in einer aktuellen Studie auch ganz interessante Zahlen

00:28:26: finde ich, das ist die Mu Voice Studio, also Mu wie die Q macht mit 3U und Ausrufezeichen,

00:28:31: da sind ein paar interessante Fakten drin, das verlinke ich natürlich gerne in den Show

00:28:36: Notes auch. Wir hatten ja gerade Hotelzimmer als so abgeschlossenen Raum für eine

00:28:42: bestimmte News Case, das Auto ist natürlich auch so ein abgeschlossener Raum für einen

00:28:46: bestimmten News Case und da finde ich zwei Zahlen eigentlich ganz interessant. Zum einen

00:28:52: ist die Nutzung in Autos gar nicht, also zumindest hat mich überrascht, dass sie noch relativ

00:28:56: gering zu sein scheint, also das ist bald, eigentlich bietet sich das ja so an, im Auto

00:29:01: denkt man, das ist die Sache, es gibt ja total Sinn da alles mit Sprachschirmen zu machen,

00:29:05: ist aber noch gar nicht so in der breiten Masse angekommen wie man denkt, aber und das finde

00:29:09: ich interessant. 63% sagen in der Studie, sie würden zum Beispiel so ein News Case beim

00:29:14: Auto fahren wie "Ich möchte Infos zu meiner Umgebung abfragen", aber solche News Cases

00:29:20: gibt es noch kaum, beschweren sie sich dann auch in der Studie, wo hakt es denn da aus

00:29:24: deiner Sicht? Also der Nied ist ja offensichtlich da und auch die Aufgeschlossenheit und die

00:29:30: Leute haben schon Lust und sehen schon den Mehrwert den Nutzen, aber dann hakt es offensichtlich

00:29:35: zu meinen Sagen, was die befragten an News Cases dafür.

00:29:39: Es ist ja interessant, weil der Mediendemonstrat, wo man genau den News Case hatte, Mediennutzung

00:29:46: im Auto und natürlich mit Sprachsteuerung, da haben wir alle drauf oben gedacht und

00:29:54: herum experimentiert mit, der News Case ist irgendwie der No-Brainer, ich habe meine

00:29:58: Hände am Lenkrad, warum sollte man knöpfe bedienen, Displays tatschen und irgendwas

00:30:04: eintippen. Also insofern, das ist ja das Versprechen, dass irgendwie da war. Ich glaube, man hat

00:30:11: ja auch zum Beispiel gesehen, Mercedes hat ja als einer der ersten oder super schnell,

00:30:15: ich glaube im Kosmos der Automobilindustrie, JET-TUBT ins Auto gebracht, sodass ich mit

00:30:21: meinem Mercedes anfangen an Open AI stellen konnte und dann auch beantwortet worden. Also

00:30:27: man hat ja sofort auch gesehen, dass da irgendwas Neues da ist, was man richtig gut benutzen

00:30:32: kann. Jetzt ist die Frage, warum wird es nicht so benutzt? Ich glaube, es ist natürlich

00:30:36: immer ein bisschen schwierig, der Kosmos des Autos mit Autoindustrie und wie die Player

00:30:41: da zusammenarbeiten, ist ja kein einfacher, langejährige Beziehungen von Lieferanten.

00:30:45: Also die kann ich aus eigener Erfahrung sagen, da irgendwie reinzukommen, ist sehr, sehr

00:30:51: schwierig, das zu durchschauen überhaupt erst mal, wer da was macht und genau.

00:30:55: Genau, ich glaube auch, die Lieferketten schwer zu durchschauen, wer denn überhaupt jetzt

00:30:58: hier für den Spracher, der zuständig ist, wer das Mikrofon baut, wer auf der anderen

00:31:03: Seite den Lautsprecher baut, wer darin irgendwie die Intelligenz oder die Software baut, der

00:31:11: große Gedanke ja auch Monetarisierung, wie gibt es eventuell Marketplaces für Apps im

00:31:15: Auto oder auch Sprachanwendungen im Auto, da hat sich ja auch gar nichts bewegt, dass

00:31:19: man sagen würde, da würde vielleicht irgendwie so ein App Store für Automotive sich entwickeln.

00:31:24: Ich glaube, da ist einfach so ein bisschen das Umfeld nicht gerade das Beste für Innovationen.

00:31:29: Es ist auch kein wenig Offenheit oder Open Source da oder Sachen, dass das independent

00:31:35: Firmen, Entwickler, Projekte ins Auto reinkommen.

00:31:38: Es muss immer gleich die große Marke sein, die einfach mit riesen Aufwand daherkommt

00:31:41: und deswegen sind vielleicht die Use Cases, die da abgebildet sind, jetzt nicht die Innovativsten

00:31:45: am Ende.

00:31:46: So, jetzt ist natürlich die Frage, auf der anderen Seite stellt sich die Frage, was, wenn

00:31:51: ich im Auto fahre, was sind meine Use Cases?

00:31:54: Natürlich klar, Navigation von A nach B kommen, vielleicht dann irgendwie mal eine Steuerung

00:31:59: von irgendwie Auswahl an Inhalten, kann ich mir auf jeden Fall vorstellen, dass ich mich

00:32:04: irgendwie durchnavigiere, ob ich jetzt irgendwie das Fenster hoch oder runter fahren lasse per

00:32:10: Sprachbefehl, weiß ich, wird schon wieder schwierig.

00:32:12: Auf der anderen Seite ist das eigentlich das Smart Home Thema, was zu Hause ja funktioniert

00:32:14: oder gemacht wird.

00:32:15: Also, ich glaube, das sind einfach die Use Cases auch ein bisschen rar.

00:32:19: Und dass ich jetzt auf einer zweistündigen Autofahrt mich nur mit einem Jet-Upt unterhalte,

00:32:25: zwei Stunden lang ist jetzt irgendwie, glaube ich, auch nicht das, was man jetzt wirklich

00:32:29: haben will.

00:32:30: Das stimmt, gerade auch, wenn man mit der Familie unterwegs ist, wenn man sich ja mit der Familie

00:32:33: unterhalten, deswegen genau.

00:32:37: Aber also, was die Studie auch auf jeden Fall zeigt, das fand ich auch interessant, das

00:32:43: hat man am Anfang ja auch schon besprochen, weil es gab auch immer mal wieder Stimmen,

00:32:48: wie hast du sicherlich auch gehört in den ein, zwei Jahren, die gesagt haben, wo ist

00:32:51: es tot?

00:32:52: So, das ist irgendwie, das ist vorbei, aber es war ja nie vorbei.

00:32:55: Also, die Dinger stehen ja überall oder fast oder zumindest in einem Viertel der Haushalte

00:32:58: und sehr viele Menschen haben Zugriff drauf.

00:33:01: Sie werden genutzt, halt nur nicht so, wie wir uns das manchmal in unserem Hype, in

00:33:07: unserem Hype-Enthusiasmus, glaube ich, irgendwie so vorgestellt haben.

00:33:10: Aber die Zahlen zeigen auf jeden Fall, die Dinger werden genutzt, die sind da, die Leute sind

00:33:16: aufgeschlossen, sie zu nutzen, sehen ihren Mehrwert und ich glaube, das ist etwas, was

00:33:20: man auch immer wieder sich sagen muss.

00:33:22: Jetzt kommen wir zu dem Punkt, aber nur 13 Prozent sagen in der Studie, dass sie bereit

00:33:29: wären, für ein besseres Alexa-Angebot zu bezahlen.

00:33:31: So, in den USA ist es ja jetzt noch, wenn man jetzt nicht Prime-Kunde ist, ein Bezahlangebot.

00:33:36: Ist es irgendwie typisch Deutsch oder fehlt es da halt einfach dann irgendwie einen genug

00:33:41: Mehrwert?

00:33:42: Ich glaube, auf der einen Seite, die Leute gesagt haben, Voice ist, oder sagen Voice

00:33:49: ist tot, ich glaube, es sind die gleichen Leute, die vor 2017 gesagt haben, alles wird noch

00:33:54: per Voice bedient.

00:33:55: Ich steis bestimmt eine große Schnittmenge da, das glaube ich auch.

00:34:00: Ich durfte.

00:34:01: Und es hat sich einfach so ein Realismus doch irgendwie da eine Branche ist auf jeden Fall

00:34:05: einzugehalten, ein gesunder Realismus.

00:34:07: So, mit den neuen Möglichkeiten und Zahlungsbereitschaft für Alexa Plus.

00:34:12: Ich glaube, es ist unheimlich schwierig, wenn ich Studien durchführe und zur Zahlungsbereitschaft

00:34:19: frage bei Dingen, die es noch nicht gibt, weil man einfach der Mehrwert muss dargestellt

00:34:27: werden.

00:34:28: Und jeder hat eine andere Vorstellung, was für ihn Mehrwert ist.

00:34:31: Und deswegen, ich glaube, da ist es ganz schwierig zu sagen, was ist die Zahlungsbereitschaft.

00:34:35: Auf der anderen Seite, ich glaube, es stimmt.

00:34:37: Man sieht ein bisschen, eine Zurückhaltung in Zahlungsbereitschaft oder Abonmodellen

00:34:41: in Deutschland, würde ich auf jeden Fall sehen, dass wir da ein bisschen eher zurückhalten

00:34:44: sind.

00:34:45: Auf der anderen Seite, wenn man sich jetzt anschaut, Open Air Height, JGPT Pro, auch mit 20 Dollar

00:34:50: im Monat, da ist ja dann auch, wenn der Nutzen da ist und der ist ja für die professionellen

00:34:55: Anwender.

00:34:56: Also, ich sehe viele, die wirklich damit, die einen starken Nutzen davon haben und locker

00:35:03: die 20 Euro für ausgeben, weil sie sehen, dass es einfach ihre Arbeit so erleichtert,

00:35:06: dass die 20 Euro wirklich leicht wieder reingeholt werden und man vielfaches dann auch übertroffen

00:35:11: werden von dem, was dann auch als Nutzen rauskommt.

00:35:13: Also, insofern kann ich mir das vorstellen.

00:35:15: Die Frage ist, ob das, jetzt muss man vielleicht auch wieder schauen, ist dieser Nutzen, wie

00:35:20: kann dieser Nutzen am Sprachassistenten generiert werden?

00:35:22: Wenn man sich das anschaut, JGPT, ich würde sagen, 99 Prozent aktuell per Textinterface

00:35:30: bedient.

00:35:31: Also, ich tippe es am Bildschirm ein, sitze an meinem Laptop oder Desktop und gebe Texte

00:35:37: ein, lasse mir Texte generieren, mach Copy-Paste, füge die woanders ein, benutze Remix das Ganze,

00:35:42: benutze das Ganze.

00:35:43: Der reine Sprachuse Case, dass ich jetzt wirklich was reinspreche und eine Information zurückbekomme,

00:35:48: die mir irgendwie mehr Wert gibt, die ich mir abweichere, sag ich mal, in meinem Kopf und

00:35:54: mich schlauer macht, ist wahrscheinlich rar.

00:35:58: Also, dann aber wird es wahrscheinlich wieder ein bisschen, sag ich mal so, ich mich aus

00:36:02: dem Fenster lehne, ich mache jetzt die neue Studie, ich sage 2030, werden alle Sprachenfragen

00:36:08: nur noch von Lars Lengelsch Models beantwortet, um wieder den Hype ein bisschen zu spüren.

00:36:14: Wie du sehen uns, deine fünf Jahre wieder.

00:36:16: Genau, fünf Jahre wieder.

00:36:18: Aber könnte, oder was ja auch Stimme sind, dass Lars Lengelsch Models die komplette

00:36:23: U-Suche ersetzen werden und wir nur noch mit Lars Lengelsch Models suchen und dann könnte

00:36:28: ja wirklich das Sprachinterface als Anfrage und Ausgabemodell für eine Suchanfrage sehr

00:36:33: gut sein.

00:36:34: Das ist jetzt nicht mehr wirklich so, diese Produktivitätstool, dass ich mir Texte generieren

00:36:38: lasse, die ich dann wirklich mit Copy-Paste irgendwo einsetzt oder weiter verwende, sondern

00:36:41: eher wirklich Anfragen stellen, eine kurze Antwort bekommen und dann ist auch irgendwie,

00:36:45: vielleicht mache ich noch zwei Rückfragen und dann ist irgendwie diese Session auch wieder

00:36:49: beendet damit.

00:36:50: Und dann wird ein Spracher-Send natürlich wieder interessant für das Ganze.

00:36:52: Jetzt hast du mir die Antwort auf, wo sind wir da vielleicht in fünf Jahren?

00:36:56: Hast du mir jetzt einfach vorweggenommen mit exakt fünf Jahren?

00:36:59: Das ist doch so wundervoll.

00:37:01: Aber genau, ich glaube, das ist so ein bisschen die Frage.

00:37:04: Wir haben spannenderweise kurz bevor wir diese Aufnahme gestartet haben in einem Meeting,

00:37:08: genau über diese Frage, wie verändert sich gerade einfach die Suche doch auch rasanter

00:37:13: gerade als das vielleicht viele auch dann am Ende erwartet haben, weil ja auch geht es

00:37:16: Google mit KI-Zusammenfassungen am Anfang arbeitet.

00:37:20: Und das ist, glaube ich, in dem Gesamtkontext muss man das, glaube ich, auch dann am Ende

00:37:24: natürlich sehen.

00:37:25: Da könnten Spracher-Assistenten, wenn wir uns an diese Art der Suche gewöhnt haben,

00:37:29: man gibt was ein und bekommt direkt was, das ist ja genau die Funktionsweise, die Spracher-Assistenten

00:37:35: hat irgendwie bieten und da ist dann sicherlich wieder eine Chance, dass diese Voice-Technologie,

00:37:40: die in den letzten Jahren so etwas zumindest ein bisschen eingeschlafen schien, weg war

00:37:44: sie natürlich nie und tot wird sie auch nicht sein.

00:37:46: Aber sagen wir mal ein bisschen eingeschlafen, dann doch wieder ein bisschen wichtiger wird.

00:37:51: Lieber Dominik, vielen, vielen Dank.

00:37:53: Wir haben einen kleinen Abriss durch den State of Voice 2025 gemacht.

00:37:58: Wir haben nicht alle, die Hälfte aller Suchanfragen, wie wir das vor ein paar Jahren gesagt haben,

00:38:04: aber Voice ist noch da und es tut sich gerade wieder einiges.

00:38:07: Und vielen Dank, dass du uns da ein bisschen Licht ins Dunkel gebracht hast.

00:38:10: Danke schön.

00:38:11: Ja, vielen Dank für die Einladung und ich glaube wirklich, wir sind an einem Punkt, wo

00:38:14: wirklich man wieder nach vorne schauen kann und sich überlegen muss, ist es gerade wieder

00:38:18: ein Tipping-Point da, viele Technologien, die vielleicht zusammenwachsen und dann einfach

00:38:21: so ein Revival von Spracherstätten bringen.

00:38:23: Und ich glaube auch, dass einfach ganz neue Use-Cases geben wird und es bleibt auf jeden

00:38:29: Fall spannend im Voice-Markt.

00:38:30: Wir schauen uns das an.

00:38:31: Danke.

00:38:32: Und zum Schluss bleibt nicht mehr viel zu sagen außer macht's gut, bleibt stabil und bis

00:38:37: zum nächsten Mal.

00:38:38: This is Media Now, das Update für alle, die Medien machen.

00:38:44: Danke schön.

00:38:51: Danke.

00:39:02: Danke.

00:39:04: Danke.

00:39:07: Untertitel im Auftrag des ZDF, 2010

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.