Folge 163: Das waren die MEDIENTAGE MÜNCHEN 2025 - mit dem KI-Empire und der Macht von Communities
Shownotes
Transkript anzeigen
00:00:00: Wenn das einer der führenden KI-Forscher der Welt.
00:00:17: kann man glaube ich sagen, Richard Socher beim KI-Gipfel der Medientage München so sagt, kann das vielleicht ein klein wenig Hoffnung machen.
00:00:24: Und darum ging es viel bei den Medientagen.
00:00:26: Die Rolle von KI, die Rolle des Journalismus und wie die Technologie und digitale Mechanismen und wie wir sie einsetzen, unsere Rolle als Medien so verändern.
00:00:36: Dazu hören wir in dieser Folge unter anderem Valerie Weber, Paul Ronsheimer und ein Gespräch mit Korrektivfaktencheckerin Sophie Timmermann.
00:00:44: Jetzt geht's los.
00:00:50: Das Update für alle, die Medien machen.
00:01:06: Mein Name ist Luca Schöne und ich begrüße euch zu dieser Folge unseres Podcast.
00:01:12: Ja, die Medientage sind schon wieder vorbei.
00:01:14: Vor wenigen Minuten, jetzt wo ich das hier aufnehme, ist der Journalism Summit.
00:01:18: Ich kann schon nicht mehr reden, zu Ende gegangen.
00:01:21: Monate lange Vorbereitung entleht sich hier dann immer in drei herausfordernden, aber auch schönen Tagen.
00:01:27: Und bevor wir unsere Zelte hier im House of Communication wieder abbrechen, darf ich noch ein paar Highlights der Konferenz für euch zusammenfassen.
00:01:35: Nähe schaffen.
00:01:36: Communities bedienen.
00:01:37: Echter Austausch in der digitalen Welt.
00:01:39: Und das alles angesichts der KI, deren Tools, die uns helfen und gleichzeitig irgendwie auch konkurrent um die Aufmerksamkeit sind.
00:01:47: Das waren große Themen der MTM-QC.
00:01:51: Aber wovon reden wir denn eigentlich, wenn wir über KI reden?
00:01:54: Die Frage hat unter anderem Karen How aufgegriffen, die Autorin von Empire of AI.
00:02:00: Sie hat Fragen gestellt, die es immer mitzudenken gilt, wenn man KI nutzt.
00:02:05: Zum Beispiel, wem nützen die Large Language Models am Ende wirklich, wer bezahlt den Preis für den TechHype?
00:02:12: Und die enormen Datenmengen bei KI an Fragen, solche Fragen hat sie sich gestellt.
00:02:17: Karen Howe, wie es darauf hin, dass es auch bei den KI-Anbietern darum geht, Menschen so lange wie möglich auf ihren Plattformen zu halten.
00:02:25: Und das wissen wir wohl auch alle, die die Anschlussfragen von ChatGPT kennen.
00:02:29: Ala, soll ich dir jetzt auch noch dabei helfen?
00:02:33: Für Karen Howe ist es wichtig, dass gerade Journalismus immer wieder auf diese Fragen schaut.
00:02:38: und was sie.
00:02:39: Sonst noch so gesagt hat, das könnt ihr übrigens in unserem Blog der Medientage nachlesen, da hat das meine Kollegin Petra Schwegler für euch zusammengefasst.
00:02:49: Den Link gibt's in den Show notes.
00:02:51: Und gleichzeitig, ja und da ist sie wieder, die Gleichzeitigkeit der Dinge, gleichzeitig ist KI auch Chance.
00:02:58: Hören wir oft und sagt auch der KI-Forscher Richard Socher.
00:03:08: Journalist, Opportunity.
00:03:12: Right
00:03:12: now, no one can really afford to have a journalist in every village of like, two hundred, five hundred people or so.
00:03:20: But with AI and the usage of, for instance, public data, voting records, government budgets, infrastructure projects and so on, you could actually
00:03:29: write
00:03:30: articles about.
00:03:31: how did this zip code vote, even if there are very few people, so you can kind of scale and stay hyper-local.
00:03:39: Ich denke, dass Journalisten ein wichtiges Teil der Demokratie sind.
00:03:45: Ich denke, dass es viel Druck gibt.
00:03:47: Ich denke nicht, dass die Kontent, die ist ungewöhnlich, noch weniger Leute arbeiten.
00:03:53: Aber es ist auch klar, dass ich nicht viel des wichtigsten Teiles der Journalisten, die editorialen Juden sind,
00:04:06: wissen,
00:04:07: Stories actually matter.
00:04:08: and having a sense for that, doing actual interviews with people and building human connections, doing investigative work and original reporting,
00:04:18: building trust,
00:04:19: having a brand.
00:04:20: I think a lot of companies now need to lean into their brands and then thinking about just even asking the right questions.
00:04:27: Ja, die richtigen Fragen stellen.
00:04:29: Das wollen sich natürlich auch Medien hierzulande im Umgang mit künstlicher Intelligenz.
00:04:34: Elisabeth Gamphal, Produktmanagerin bei der DPA, fragt sich, wie KI das Verständnis von journalistischen Produkten verändert.
00:04:56: Transcripts
00:04:57: are also relevant for the public
00:05:00: or I don't know, interview transcripts,
00:05:02: press recordings or
00:05:03: raw data.
00:05:05: And the
00:05:06: other thing we see, we see
00:05:07: it when we are using
00:05:08: OpenAI or Chatchivity or Perplexity.
00:05:16: Also when you think
00:05:18: in information bits, it matches.
00:05:21: Neue
00:05:21: Userbehaviour.
00:05:22: People are getting used
00:05:23: to
00:05:26: have a dialogue with information through chat
00:05:28: or through voice.
00:05:29: And instead of relying
00:05:31: on the classical
00:05:32: news parameter,
00:05:33: we learned in school, which presents information from the most
00:05:37: important
00:05:38: to the most important one,
00:05:41: adaptive products
00:05:42: become possible.
00:05:44: Products that are built...
00:05:47: Products that built
00:05:49: knowledge
00:05:49: iteratively, that
00:05:50: built them in layers,
00:05:52: and according to pull, rather than push principles.
00:05:55: When I talk about a pull principle,
00:05:57: I mean by that,
00:05:59: you are
00:06:00: publishing an article on a homepage.
00:06:04: With pull, I mean the audience actively shapes their own information journey.
00:06:10: They can request specific aspects, zoom in or out.
00:06:19: Mary Kilk, Chief AI-Office der deutschen Welle, sieht weitere Anwendungsfelder für den Journalismus.
00:06:43: Und am Beginn
00:06:44: oder unterliegend
00:06:45: ist,
00:06:46: dass die administrativen
00:06:47: Foundation
00:06:48: die technologische Infrastruktur
00:06:49: ist.
00:06:51: Und ich schaue mich an diese gesamte Produktion im Moment
00:06:53: an.
00:06:54: Und ich finde, dass die AI eigentlich mit jedem
00:06:58: Schritt
00:07:00: helfen kann.
00:07:01: Ich nehme nur eine, nur für die Forschung.
00:07:02: Das ist auch etwas, was Richard hat erwähnt.
00:07:05: Wir nennen es Augmented Information
00:07:06: Management, oder was du willst.
00:07:08: Und wir können große
00:07:10: Langemodelle nutzen, aber auch älteren Technologien.
00:07:14: but actually
00:07:15: AI tools are great for anyone of us who's working with knowledge
00:07:19: and with language.
00:07:21: And this is just one way that helps me.
00:07:23: I have
00:07:23: this note-taking tool,
00:07:26: Obsidian, where I input everything
00:07:28: that I write
00:07:29: and I can save articles that I find
00:07:31: online
00:07:32: and I can highlight them.
00:07:33: And then, for example, when I prepared this talk,
00:07:35: Ich kann eine A.I.-Modelle schreiben und
00:07:38: eine A.I.-Modelle betrachten, die von allen Texten, die ich für mich curatiert habe.
00:07:46: Und als ich sie schaue,
00:07:53: bekomme ich diese
00:07:54: Sources auf der
00:07:56: rechten Seite.
00:07:56: Und
00:07:57: es findet ... Ja, wir merken, es geht jetzt um die pragmatischen Angänge mit KI.
00:08:01: Und so einen pragmatischen Umgang hat auch Matthias Pfaff, der CDO von RegioCast.
00:08:10: sehr interessiert ein, aber nicht in einer globalen Logik, sondern wir sagen, wir machen einen, keine Ahnung, Storytelling-Podcast.
00:08:16: Das haben wir bis jetzt ein Jahr für gebraucht.
00:08:18: Jetzt gibt es eine Deep-Search-Funktion, mit der du da schneller hinkriegen kannst.
00:08:21: Probieren wir mal aus.
00:08:22: Ist dieser Mikroschritt in einer redaktionellen Erstellungsprozess etwas, was uns weiterbringt?
00:08:27: Ja, nein.
00:08:27: Wenn ja, okay, wie können wir das besser machen?
00:08:29: Wenn nein, probieren wir vielleicht mal was anderes aus.
00:08:32: Aber ansonsten ist KI in Teilen auch vollständig... überhaupt, glaube ich, innerhalb von redaktionellen Prozessen.
00:08:40: Das wäre auch ein Gedanke, den ich mal hier teilen möchte.
00:08:43: Als KI so wirklich aufkam, so in den Zweiundzwanzig war das ja.
00:08:46: Was ist als Erstes passiert?
00:08:47: Man hat versucht irgendwie Radiomoderatoren zu ersetzen.
00:08:49: Ja, es gab hier die ganzen Pressemitteilungen.
00:08:51: Ich glaube, Walri, du hast auch was gemacht.
00:08:52: Guck mal, wir haben ja erst eine Station, die nicht mehr von Menschen moderiert wird.
00:08:55: Ich glaube, heute wollen wir das anders sehen und sagen, wir sollten eigentlich sehr darauf gehen, zu sagen, dass es hier human generated, also insbesondere, wenn es um Nähe und so weiter geht.
00:09:02: Aber... Wenn du überlegst, du hast ein Unternehmen, an welcher, dieses Unternehmen ist ein Content-Unternehmen, ein Näheunternehmen, ein Personenunternehmen nach außen.
00:09:10: An welcher ersten Stelle wirst du denn Anfang KI zu, Reinsmann, richtig in der Buchhaltung?
00:09:16: Daran denkt aber keine Sau.
00:09:17: So, das heißt, ihr habt hoch ineffiziente Prozesse in eurem Haus drin, wo aber natürlich die Kreativen meist anfangen, das zu nutzen.
00:09:25: Sie sitzen nur mal in der Redaktion.
00:09:27: Aber wirklich, ich meine, ihr kennt es, glaube ich, alle, die in der Geschäftsführung sind, was du da achtmal für Unterschriften drunter dödeln musst und sagt, ich habe es schon dreimal freigegeben und dann kommst du noch mal und sagt, es ist uns lieber, wenn du es noch mal machst.
00:09:37: Oder ja, wir haben jetzt ein KI-Tool, das vorschlägt, was da im Buchungstext ist und sagt, naien,
00:09:42: naien einfach,
00:09:43: ich gebe es dann doch wieder so ein.
00:09:45: Ich glaube, das ist nochmal ein Thema, gerade so für die Geschäftsführungs-Kollegen, wo du sagst, guck doch mal, wo du das gerade in deinem administrativen Bereich einsetzen kannst, wo du da Dinge vereinfachen kannst, weil da hast du meist strukturierte Daten, da kannst du wirklich lokale Modelle machen.
00:09:58: und in der kreativen Bereich ist es tatsächlich so, wenn es um News geht und Zusammenstellungen geht, wir sehen es ja gerade hier, wir werden ja auch mit KI mehr oder weniger gerade transkriptet, tolle, einzelne Tools, wenn du sie zusammenbringen kannst, ist super, aber da brauchst du trotzdem mal noch jemanden drauf, der sagt, wir wollen mal in die Richtung gehen oder wir wollen das ausprobieren oder sowas, es macht sich nicht von alleine.
00:10:15: Ja, irgendwer muss die Entscheidung treffen, wie die KI einzusetzen ist und ja, am Ende dem Markenerfolg auch einfach dient.
00:10:22: Und dieser irgendwer wird wohl erst mal noch ein Mensch bleiben.
00:10:26: Und grundsätzlich stellt sich die Frage, welche Rolle definieren Medien denn für sich in einer zunehmend von KI-generierten Welt?
00:10:34: Die Frage stellt sich auch Valerie Weber aus Sicht einer Radiomacherin als Geschäftsführerin der Antenne Bayern Group.
00:10:41: Es geht darum, die Moderatoren auch als Markeninfluencer oder Markenbotschafter zu verstehen.
00:10:47: und dann das Monetarisierungsmodell
00:10:48: dahinter hängt natürlich ganz krass an diesen Menschen.
00:10:52: Also ja, wir bauen sie auf, wir lassen sie authentisch, wir fördern und featuren sie,
00:10:56: aber natürlich geht es nachher um die Nähe zu den Personen in der Regel und nicht in die Nähe zur Marke,
00:11:01: aber diese
00:11:02: Personen wiederum
00:11:03: laden auch die Marke auf,
00:11:04: nämlich... machen die Marke vital und bringen natürlich dadurch auch den anderen Kunden wieder her, der sagt, okay, das sind
00:11:11: Menschen, die tatsächlich im Leben
00:11:13: stehen und die vielleicht auch für meine Produkte
00:11:15: werben können.
00:11:16: Also ich glaube schon,
00:11:17: dass das
00:11:17: ein großes, also das Personenmarketing, was wir noch gar nicht wirklich spielen, das wird sicherlich ein großes Stück
00:11:24: der Zukunft werden.
00:11:27: Aber tatsächlich
00:11:27: ist das Thema so ein bisschen
00:11:29: für uns im Moment mit diesem Überschwemmen an Reichweite
00:11:32: durch KI.
00:11:33: Das wäre ja auch unsere Rolle.
00:11:34: Ich zeig das jetzt mal auch für die Öffentlich-Rechtlichen.
00:11:37: Wird das hart werden?
00:11:38: Das ist so.
00:11:38: zu
00:11:39: die Produktion.
00:11:40: Da sind die Privatzehnte in Produktionen von Informationen.
00:11:44: Das
00:11:44: war halt nur begrenzt.
00:11:45: Ist das das Terrain der Privaten?
00:11:47: Also regional sicherlich.
00:11:48: Aber wir wollen jetzt nicht der DPA-Konkurrenz machen.
00:11:51: Aber da Informationen, der größte Publisher der Zukunft, wird vermutlich die KI sein.
00:11:57: Und die Frage ist, was ist denn
00:11:58: da noch unsere Rolle?
00:11:59: Und dann ist unsere Rolle tatsächlich mit unseren Marken, unseren Vertrauensmarken, das Thema
00:12:04: eben Vertrauensmarketing.
00:12:05: und so sagen wir stehen dafür, dass wir das sortieren.
00:12:09: Also die Wahrheit
00:12:10: wird derbestimmen,
00:12:11: der die Information sortieren
00:12:13: kann.
00:12:14: Und jeder wird das wissen,
00:12:16: die KI sortiert schon sehr
00:12:17: gut.
00:12:23: Also Menschen werden zu Marken, Identifikations- und Vertrauensfiguren.
00:12:29: Ja und wie groß?
00:12:30: Diese ganzen Veränderungen dieser Shift ist, das weiß Tobias Schiewek, CEO von We Are Era.
00:12:36: Und er sagt, dass es sogar noch um was größeres geht als die Creator Economy, den noch auch nur ein Teil von einer größeren Gesache ist.
00:12:46: Nämlich, dass es um Communities geht, dass es eigentlich eine Economy gibt, die sich um gemeinsame Werte scharet, um einen Sense of Belonging und das sind eben Communities.
00:12:54: Und wie man sich damit auseinandersetzt.
00:12:56: Wenn man es auf Zuschauer bewegt, dann ist Zuschauer natürlich sehr passiv.
00:13:02: Ein ganz wichtiger Punkt, den wir im Creator Business sehen, ist, dass Zuschauer eben nicht mehr passiv sind oder zuschauende, sondern dass es eine Bewegung in sich ist und dass das ein Hybridmodell ist.
00:13:12: Es gibt keine erfolgreiche Creator-Persönlichkeit da draußen, die nicht in irgendeiner Form, Interaktion oder Austausch mit der Community sucht.
00:13:19: Und genau daran scheitern schon die meisten Kollaborationen, wenn man das nicht mitspielt.
00:13:22: Wenn ich als rechte Inhaberin sage oder als Marke sage, ich stelle mich mit auf die Bühne, dann habe ich schon den ersten Fehler gemacht.
00:13:29: Ich muss eigentlich die Bühne bauen.
00:13:30: Jeder muss irgendwas in die Community reintragen, damit es als Community funktioniert.
00:13:35: So, und das, jetzt wird es groß.
00:13:38: Aber das ist das, was wir eigentlich am meisten immer erzählen.
00:13:45: Was das für den Journalismus am Ende bedeutet, wurde dann zum Abschluss der Medientage gerade eben Wo ich das hier aufnehme, habe ich schon erwähnt.
00:14:05: Beim Journalism Summit diskutiert, unter anderem war Paul Ronsheimer da, stellvertretender Chefredakteur der Bild und Podcaster beim Podcast, ganz passend zu Creator Economy, Ronsheimer.
00:14:16: Also der trägt seinen Namen.
00:14:19: Beim Summit hat er mit Yasmin Imbarek über das Thema gesprochen.
00:14:22: Also erst einmal glaube ich, dass es Marken schon immer gab.
00:14:25: Ein Markus Lanz, den gibt es auch schon seit, weiß ich nicht, seit der Show jetzt, fünfzehn Jahre oder zwanzig Jahre ganz viele andere, die im Fernsehen eine Rolle spielen.
00:14:32: Deswegen ist Creator in dem Sinne nichts Neues, nur die Tatsache, dass man es eben auf so vielen verschiedenen Bühnen mittlerweile machen kann.
00:14:38: Und dass es eigentlich, wie soll ich sagen, demokratischer geworden ist, weil jeder dahin gehen kann und sagen kann, ich möchte was erzählen oder ich möchte irgendwas vortragen.
00:14:45: Ich denke, es wird ein Mix bleiben.
00:14:48: Ich glaube, dass es sehr stark in eine Richtung geht, dass Leute orientieren.
00:14:52: haben wollen, in bestimmten Feldern, egal was es ist, Fußball, Politik, Innen, Außen, was auch immer, und da wird es einen wahnsinnig großen Markt geben.
00:15:02: Man selbst sollte sich daran orientieren, finde ich immer, wie man Jealous geworden ist.
00:15:07: Ich bin Lokalreporter geworden, damals in Ostfriesland hat mich für die Geschichten im Stadtrat interessiert, heute interessiere ich mich eben auch noch dafür, aber auch für vieles andere.
00:15:16: Und ich glaube, wenn man das einfach transparent ausbreitet, ich finde auch zu Gixi Gaxi irgendwie Quatsch.
00:15:23: Ich glaube manchmal, wenn die Leute bekannter werden oder dann Podcast haben, ich glaube nicht, dass sich die Leute so wahnsinnig viel für mein Privatleben zum Beispiel interessieren, sondern ich versuche es echt irgendwie darauf zu konzentrieren.
00:15:37: Und vor allem, das wollte ich noch sagen, ich versuche nur dann selbst über Dinge zu reden.
00:15:42: Deswegen habe ich diesen Mix aus, ich bin mit meinem Chorus da, Philipp Jatov oder ich habe einen Gast, weil ich bei ganz vielen Themen ich zwar so ein bisschen auskenne, aber die Leute verstehen würden, dass ich nicht so tief drin bin, wie vielleicht jemand anders.
00:15:56: Deswegen versuche ich dann einen Gast dazu zu holen und zu sagen, ich kenne mich ganz gut aus, aber du noch besser.
00:16:01: Wie würdest du denn sagen, wird sich das Verhältnis verändern zwischen Medienhäusern, die auch weiter an journalistischen Standards festhalten und eben journalistischen Creatern, die ja nicht irgendwie an Work so ein Code of Ethics oder so gebunden sind, wenn sie fest angestellt sind.
00:16:16: Ich glaube, das könnte ein Problem werden, weil ich weiß nicht, ob das
00:16:18: gerade auch hier war,
00:16:20: dieses, dass man Menschen vertraut, unabhängig davon, was sie für ein Werdegang haben, wenn sie authentisch sind und eben ehrlich wirken.
00:16:27: Das ist ja schon etwas, was auch ansteigt.
00:16:29: Also ich finde, dass man das im besten Podcast im Markt sehen kann, dass, obwohl es wahnsinnig große Marken sind, wie Tagesschau, heute Journal oder andere, dass die da, wie soll ich sagen, zumindest bislang kaum eine Rolle spielen, sondern dass die Leute sich orientieren an Personen, ja, du bei Apokalypse, ich bei Maim oder wer auch immer und die Leute eben in Personen beim Podcast denken.
00:16:51: Und ich glaube, es ist komplett die falsche Idee zu glauben, du hast eine Marke im Alten, ja, keine Ahnung, ich mache jetzt Bild.
00:16:57: der Podcast, wird nicht funktionieren, genauso wie würde ich jetzt behaupten, Tagesschau, also wenn man die Ansprüche nimmt, die die Tagesschau hat, wie viele Leute sie jeden Tag schauen und wie viel den Podcast hören, funktioniert das ja auch nicht.
00:17:09: Das heißt, Personenmarken werden funktionieren.
00:17:13: Ich denke, Medienhäuser müssen sich anpassen.
00:17:15: Ein bisschen skeptischer, dem Trend gegenüber zeigt sich Juliane Leopold, Chefredakteurin Digitales bei ARD aktuell und hat dabei vor allem große Marken wie die Tagesschau im Blick.
00:17:26: Ich kann nur bestätigen, dass das Spiel Anspruchsvoller geboren
00:17:30: ist in den letzten
00:17:31: fünf, sechs Jahren, einfach weil es noch mehr Akteure gibt und noch mehr Quellen und weil auch noch mehr direkte Kommunikation der Quellen in Anführungszeichen, dass politische Akteure sind, soll Ministerpräsidenten geben, der ... wie Lieder aufnimmt und Würste ist auf Instagram und so.
00:17:49: Garli Grüe.
00:17:50: Die Staatsgangslei.
00:17:52: Also
00:17:54: da hat sich einfach wirklich grundlegend was verändert und das verändert einfach auch unser Geschäft.
00:17:57: Für uns als Marke ist es so, dass wir, glaube ich, ein paar Vorteile haben.
00:18:02: Von uns erwartet niemand, dass wir die Allerersten sind, aber es erwarten die Menschen, dass wir die Allerverlässlichsten
00:18:09: sind.
00:18:11: bestimmt unseren Kompass sehr stark.
00:18:12: Und das juckt mich natürlich auch noch einen Fingern auf, dass das Paul Völn gesagt hat, nochmal Bezug zu nehmen.
00:18:18: Es ist sicherlich
00:18:18: so, es wird keinen Paul Ranzheimer der Tagesschau geben.
00:18:24: Die
00:18:24: Tagesschau ist der Paul Ranzheimer der Tagesschau.
00:18:27: Also die Marke, der Tagesschau ist so groß und das ist uns auch wichtig, dass wir bewusst ist nicht sehen, dass zu einem einzelnen Gesichter unglaublich strahlender vortreten.
00:18:42: Und das
00:18:43: macht dann auch die Podcast-Strategie
00:18:44: aus.
00:18:44: Also es ist schon ein Sinn dabei, dass wir keinen Influencer oder keinen News-Heini aufbauen, der jetzt die ganze Marke überstrahlen soll.
00:18:55: Wir glauben, dass es durchaus nachhaltiger ist
00:18:57: an der Stelle.
00:18:58: Kritik an den etablierten Medien hatte Sebastian Esser im Gepäck, Gründer und Geschäftsführer von Steady und er macht es auch an Strukturen fest, warum sich viele etablierte Medienmarken schwer tun mit den neuen Entwicklungen.
00:19:11: rund um die Creator Economy.
00:19:13: Also ich glaube, dass die Kultur in der Medienbranche natürlich nicht so wahnsinnig progressiv ist.
00:19:19: Das hat auch einfach mit der Geschichte unseres Berufs zu tun.
00:19:23: Das war einfach eine Industrie, die musste auf Andruck.
00:19:27: Zeitpunkte abends um, man war das immer, keine Ahnung, um vier oder was, da musste halt alles fertig sein und jedes Komma stimmen.
00:19:32: Und da saß halt jemand, der hat die richtige Ärger gemacht, wenn dieses Komma halt falsch war.
00:19:36: und das war meistens ein Typ und der hatte ich auch gerne mal angeschissen.
00:19:40: Und zu ganz weg sind wir davon immer noch nicht.
00:19:42: Und das verträgt sich natürlich überhaupt nicht gut mit einer Medienwirklichkeit, wo es auch ganz viel um Dialog
00:19:49: und
00:19:50: Kommunikation geht.
00:19:53: Gefühle, oder Vibe, sag ich mal eher, das passt nicht gut zusammen.
00:19:58: Und wir haben oft die Erfahrung gemacht, dass Leute aus Medienorganisationen von denen fast abgestoßen werden und sich dann einfach selbst machen müssen, weil sie in diesen Strukturen noch nicht mehr funktionieren.
00:20:11: Und ich glaube, dass das aber weniger ein Problem ist für die Creators oder Medienmacherinnen, sagen wir immer, weil Journalisten wollen immer nicht Creators genannt werden aus irgendeinem Grund.
00:20:22: sondern das ist ein Problem für die Institution.
00:20:26: Also das, was du eben gefragt hast, ich glaube, dass das schon eine große Gefahr für die Medien ist, ich weiß aber gar nicht, ob das eine Gefahr ist für das Publikum, dass die zerrieben werden zwischen auf der einen Seite dieser Distruption durch die Diszipluzionsveränderungen, durch AI und so weiter, haben wir irgendwie drei Tage jetzt ganz viel drüber gehört, auf der anderen Seite aber die neue Creator-Welt.
00:20:50: Wo Leute, die mit ihrer Glaubwürdigkeit als Mensch für etwas stehen können, einfach viel besser geeignet sind, um Inhalte zu transportieren, eine ähnliche Rolle auch in der Gesellschaft einnehmen.
00:21:03: Ich bestreite auch, dass die irgendwie weniger
00:21:05: Vertrauen genießen
00:21:06: als irgendwelche Marken, also Paul Ronsheimer Bildzeitung.
00:21:10: Also, ich glaube, es kann schon gut sein, dass die Medien da in den nächsten Jahren oder Jahrzehnten zerrieben werden.
00:21:16: Ja, das Thema ist noch nicht auserzählt.
00:21:18: Gerade für den Journalismus.
00:21:19: So viel steht fest, das wird es weiter zu gestalten und zu diskutieren bleiben.
00:21:24: Genau wie ein anderes großes Thema, das uns bei den Medientagen schon lange begleitet und ständiger begleiter ist, das Thema Desinformation.
00:21:32: Und darum geht es jetzt noch im abschließenden Talk mit Sophie Timmermann von Korrektiv.
00:21:45: Ja, zu Gast fast schon zum Schluss.
00:21:47: Wir haben noch nicht ganz, ja, noch einen halben Tag vor uns.
00:21:49: Der mediente Gemündchen hier im Haus of Communication ist jetzt Sophie Timmermann.
00:21:54: Ich freue mich sehr, dass du da bist.
00:21:56: Hi, danke, dass ich da sein kann.
00:21:57: Ja, sehr gerne.
00:21:59: Du leitest das Faktencheck Team von Korrektiv und ihr veröffentlicht ja wirklich sehr viele Faktenchecks seit Tief drinnen in dem Thema Desinformation, was uns ja hier bei den Medientagen seit Jahr und Tag, kann man sagen, beschäftigt und begleitet.
00:22:15: Leider.
00:22:15: Du machst investigative Recherchen auch um das Thema Desinformation und ja, baust mit dem Faktenforum Deutschlands auch eine Faktencheck Community auf oder habt ihr schon aufgebaut und wollt sie erweitern.
00:22:26: beschäftigt sich intensiv, damit ein kleiner Auszug vielleicht noch während der Corona-Pandemie in Kalifornien hast du auch zum Thema recherchiert und zum Anstieg von alternativen Medien in Großbritannien hast du gearbeitet.
00:22:38: Also bist da wirklich tief drin.
00:22:40: Wie wird man eigentlich nicht verrückt, Sophie?
00:22:42: Ich weiß nicht, sag du es mir, ob wir schon da sind oder nicht.
00:22:48: Also ich glaube, wenn wir Leute bei uns einstellen oder Menschen mich fragen, hey, weil das ist natürlich total das Thema, das brennt und es ist super wichtig und wir haben total viel Interesse auch von außen, dass Leute sich beteiligen müssen.
00:23:01: Das möchte ich auch total schön.
00:23:03: Aber es ist natürlich auch echt ein hartes Thema, weil natürlich sind die Dinge, mit denen du dich beschäftigst.
00:23:09: Erst mal.
00:23:10: in der Regel negativ eine Falschmeldung, die aus der Politik kam oder irgendeine Aufnahme, die falsch verbreitet wird.
00:23:18: Ich glaube, was uns immer sehr motiviert, ist ein bisschen der Impact und auch der Zuspruch, den wir erfahren von Leserinnen und Lesern, das sind echt teilweise auch sehr schöne persönliche Rückmeldungen.
00:23:30: Im Großen und Ganzen natürlich, wenn wir Kampagnen entlarven können und das Gefühl haben, wir tragen dazu bei, dass sich Menschen eventuell aufgeklärt fühlen, zum Beispiel bei der Bund.
00:23:39: des Tageswahl haben wir eine russische Desinformationskampagne entlarvt, die sich gegen Politiker wie Merz oder Habeck gerichtet haben.
00:23:45: Und das sind so Dinge, glaube ich, die uns motivieren, weiterzumachen.
00:23:50: Aber ich möchte nicht lügen, das braucht einen Ausgleich neben der Arbeit, damit man nicht verrückt wird.
00:23:54: Und im Rabbit Hole von Telegram den ganzen Tag landet.
00:23:57: Das denke ich mir.
00:23:58: Du hast mir vorgesprochen, ich weiß nicht, wie gesagt, du hast jetzt einfach hier erzählt, dass du ein Sportpodcast zum Beispiel machst.
00:24:05: Zum Ausgleich vielleicht zu dieser sicherlich sehr anstrengenden und psychisch aus der fordernden Arbeit, wenn man sich damit tagtäglich beschäftigt.
00:24:12: Also manchmal muss man einfach eine Runde.
00:24:15: laufen wir hin, um ein bisschen die Telegram-Weiträge hinter sich zu lassen.
00:24:19: Aber ich glaube, jeder und jede hatte auch ein anderes Ventil bei uns im Team.
00:24:23: Das Musik ist, ob es einfach ist, ein Kaffee trinken und abhängen.
00:24:26: Aber es ist total wichtig, dass da auch die Arbeit, Arbeit lassen lässt, weil sonst drehst du durch.
00:24:31: Resilienz
00:24:32: aufbauen.
00:24:33: Ja, genau.
00:24:33: Und Grenzen setzen für sich selbst natürlich.
00:24:36: Wir reden ja viele bei Desinformation.
00:24:37: Es ist ja ein Wort, es gibt so viele Wörter in dieser Medienwelt, die so schnell gesagt sind.
00:24:43: Was ist Desinformationen überhaupt?
00:24:45: Das Informationen ist, wenn wir das jetzt einfach definieren wollen, das gezielte Verbreiten von Falschinformation.
00:24:53: Also Falschinformation begegnet uns ja öfter, auch online und die ist nicht immer mit böse Absicht verbreitet.
00:25:00: Das passiert ja manchmal ganz schnell, wenn du in deinem WhatsApp-Chat eine Nachricht hast, die dir weitergeleitet wird und die Person, die es dir geschickt hat, wusste halt am Ende nicht, dass das vielleicht falsch oder irreführend war.
00:25:12: Und das Information ist eben diese gezielte Verbreitung, also die Person der Akteur, die Akteurin wusste halt genau, dass das falsch ist und sie möchte dich irreführen.
00:25:21: Und das ist natürlich eine Agenda, die ist politisch oder auch wirtschaftlich, die man ganz genau beobachten muss.
00:25:29: Gibt es da noch verschiedene Arten, frage ich mich immer, weil also das ist ja so die Basic Definition.
00:25:38: Hängt es davon ab, welche Akteure, welche Interessen verfolgen?
00:25:43: Gibt es eine Kategorisierung von Desinformationen?
00:25:45: Wie arbeitet ihr da?
00:25:46: Oder ist das für euch gar nicht so wichtig?
00:25:48: Wie ist das bei Korrektiv?
00:25:51: Hier gibt es bestimmte Themengebiete, die einfach sehr anfällig sind für Desinformation, dazu Fall oder auch dazu gehören Migration, Gesundheit, Klimapolitik, Krisen und Konflikt.
00:26:03: Vor allem auch sehr unübersichtliche Nachrichtenlagen, also wenn noch nicht so gesicherte Informationen bereitstehen und Menschen natürlich das Bedürfnis haben, sich informieren zu wollen.
00:26:15: Und dann hat Desinformation natürlich sehr, sehr leicht.
00:26:18: Wenn wir uns Wahlen angucken, Das ist natürlich eine sehr, sehr gute Grundlage.
00:26:22: Ein perfekter Nährboden, könnte man sagen, für Desinformation.
00:26:25: Haben wir gesehen bei der Bundestagswahl, bei der EU-Wahl, bei der US-Wahl, bei Wahlen weltweit, dass da auch bestimmte Taktiken und Mechanismen immer wieder kommen.
00:26:33: Und deshalb ist der Austausch untereinander mit Kolleginnen und Kollegen so wichtig, weil wir zum Beispiel, ich gehe jetzt einfach mal rein in unsere Arbeit gesehen haben, dass das, was wir ja bei der US-Wahl beobachtet haben, da gab es nämlich eine Kampagne mit AIFE.
00:26:49: zum Beispiel, die sich gegen bestimmte Politiker gerichtet hat und die hat dann umgeschwenkt auf Deutschland, nachdem bekannt wurde, dass es eben vorgezogene Neubein gibt.
00:26:59: Und wir kannten eben die Art und Weise der Vorgehensweise, dass zum Beispiel falsche Webseiten Erstellt wurden im Namen von angeblich ja Lokalmedien und darüber eben mit KI-Fakes zum Beispiel Missbraus für Vorwürfe fabriziert wurden, also wirklich so Defamierungsversuche.
00:27:15: Und das konnten wir dadurch besser nachvollziehen in Deutschland und das hat uns sehr geholfen.
00:27:19: Also das man sieht schon ist natürlich ein weites Welt und KI, das hast du das Stichwort auch schon genannt, verändert sicher auch die Art und Weise, wie Desinformationen verbreitet wird.
00:27:32: Die Absicht bleibt die gleiche, würde ich immer sagen, aber KI ist natürlich ein Instrument, um sie anders zu verbreiten.
00:27:38: Wie begegnet euch das?
00:27:40: Spürt ihr das schon, dass das mehr wird, intensiver wird, besser wird oder im Anführungszeichen besser, qualitativ so, dass man es gar nicht mehr unterscheiden kann?
00:27:49: Oder ist die Frage inzwischen sogar eher andersrum, dass man halt alles anzweifelt inzwischen, auch selbst die echten Sachen, die man sieht?
00:27:57: Ich glaube alles das, was du gerade angesprochen hast.
00:28:00: Ganz interessant.
00:28:01: Diese Woche hatten wir ein paar Videos, die über Sora, das ist ja von OpenAI, das neue Tool, generierte Videos, die auf TikTok... verbreitet wurden.
00:28:13: und da sieht man, dass das viele Menschen tatsächlich geglaubt haben.
00:28:18: Das war ein Beispiel von einem jungen Mann, der eine Oma angeblich im Bus wegschubst und deshalb natürlich Empörung war, was da passiert.
00:28:28: und das Ganze war fabriziert, obwohl dieses Sorrowabel halt total klar im Video zu sehen war.
00:28:35: Und wenn man sich angeschaut hat, bestimmte Artefakte und Details, eben im Video konnte man schon noch erkennen, dass das eben... KI war, aber es wird auf jeden Fall immer schwieriger.
00:28:45: Gleichzeitig ist das, was du angesprochen hast, dass Menschen auch immer mehr echte Aufnahmen, authentisches in Frage stellen, weil sie alles gleich als KI abtun, auch sehr gefährlich, weil wir dadurch natürlich so ein bisschen die Grundlage verlieren, ja, auf welchen Fakten, auf welcher Basis argumentieren wir eigentlich.
00:29:04: Als letzten Punkt vielleicht.
00:29:06: Wie verbreitet ist das?
00:29:07: Also KI spielt eine große Rolle und auch eine größer werdende Rolle bei uns.
00:29:12: Aber man muss sagen, es braucht keinen KI, um einen mächtigen Fake zu verbreiten, der wirklich viral geht.
00:29:18: Und vielleicht da auch noch mal ein Beispiel, um das ein bisschen greifbarer zu machen, als ich darf.
00:29:24: Es gab, war das vor einem Monat, auf jeden Fall sehr, sehr vor kurzem ein Video, das ist wirklich viral geworden, so ein Video von einer Menschenmenge, die angeblich sent them home skandiert.
00:29:36: Es wurde verbreitet von einem englischsprachigen Account, Marco Rubio Fan Account.
00:29:41: Ganz interessant, finde ich das.
00:29:43: Also auf Englisch, dass es eben in Deutschland passieren würde und Turns out, das waren HSV-Fans auf dem Weg ins Stadion und die haben gesungen, scheiß sagen, Pauli.
00:29:53: Und das war eben eine authentische Aufnahme superbasic mit dem Video und dem Audio, das ein bisschen gekuttet wurde, ein bisschen gekürzt und es wurde millionenfach gesehen.
00:30:01: und Menschen haben sich wirklich empört und haben eben auch gegen Migrationsskarneten in den Kommentaren und es zeigt eben, dass es eben auch sehr, sehr, sehr simpel sein kann, das Informationen zu verbreiten.
00:30:15: Dann die Debatte, also das wird ja dann auch, ist ja auch so schnell gesagt, KI macht das schlimmer.
00:30:21: Deswegen habe ich das auch so vorsichtig anmoderiert gerade, so dass es natürlich als Tool wird es eingesetzt, aber das Problem reicht ja viel tiefer.
00:30:28: Also wenn sozusagen Zweifel an allem gesehen wird, was irgendwie auch sogar echt und authentisch ist oder authentisches genommen wird und einfach in den anderen Kontext gesetzt wird, wie werden wir diesen Problem denn her?
00:30:42: Also das ist ja, es wäre einfacher zu sagen.
00:30:45: KI ist schuld an Desinformation und jetzt regulieren wir das.
00:30:48: Ist natürlich auch nicht einfach, ist mir schon klar, aber so vom Denken her einfacher als ja KI ist.
00:30:53: natürlich macht das das vielleicht als Tool kann das irgendwie auch dafür genutzt werden, aber das Problem liegt leider noch tiefer.
00:31:00: Es geht ja wieder zurück zur Frage des Vertrauens.
00:31:05: Das ist so die Grundlage.
00:31:06: Wie schaffen wir es, Vertrauen auch in Recherchen, in Medien, in Journalistinnen zu schaffen, dass man eben auch weiß, an wem kann ich mich vielleicht wenden?
00:31:17: oder wo finde ich vertrauenswürdige Berichterstattung zu einem Thema, wenn wir zum Beispiel sowas begegnet.
00:31:23: Wir haben einen WhatsApp-Chatbot zum Beispiel, wo uns Menschen sehr niederschwellig einfach solche Hinweise schicken können.
00:31:30: Wenn Ihnen was begegnet und Sie das Gefühl haben, hier stimmt vielleicht was nicht, oder ich bin mir unsicher, ich glaube, diese Anlaufstellen anzubieten, das ist auch ein Schlüssel, dass man eben so einen direkten Kontakt hat und Menschen das Gefühl haben, wenn ich verunsichert bin, wenn ich Angst habe, wenn ich irgendwie Unmut spüre, es gibt tatsächlich vielleicht auch Plattformen und ich gebe das überall, es gibt tolle Redaktionen, an die ich mich wenden kann.
00:31:56: Und vielleicht zum Thema KI, natürlich ist KI eine Gefahr.
00:31:59: weil die Schwelle und die Schnelligkeit, wie man Sachen verbreiten kann, die ist natürlich jetzt sehr, sehr gering.
00:32:06: Und gleichzeitig ist es eine Chance auch für uns, solche Fakes oder Fälschungen.
00:32:13: zu erkennen, indem wir im Tools nutzen, die uns in unsere Recherche unterstützen, nicht ersetzen, aber wird sein Teil der Recherche sein können.
00:32:20: Das war wieder die zwei Seiten.
00:32:21: Die
00:32:22: zwei
00:32:22: berühmten KI mit KI-Medaillen-Seiten.
00:32:25: Richtig,
00:32:26: richtig.
00:32:27: KI ist natürlich das eine, was sich sicherlich auf eure Arbeit ausgewirkt hat, das andere.
00:32:33: Du beschäftigst ja schon ein paar Jahre jetzt auch mit dem Thema Desinformationen.
00:32:37: Was hat sich noch verändert über die vergangenen Jahre?
00:32:40: Also wir sehen ja auch in der Gesellschaft tun sich ganz viele Dinge.
00:32:43: Du hast die Wahlen angesprochen, die viel verändert haben, sowohl in den USA als auch hierzulande.
00:32:49: Wir sehen den Krieg in Gaza, wir sehen den Krieg Russlands gegen die Ukraine.
00:32:55: Es sind ja alles Sachen, die da auch rein spielen.
00:32:57: Also wie hat sich das Phänomen desinformationen verändert über die vergangenen Jahre?
00:33:02: Ich weiß nicht, wie es dir geht, aber gefühlt war diese letzten Jahre einfach Dauerkrisenmodus.
00:33:08: Und darüber sprachen wir eben schon.
00:33:11: der perfekte Nährboden für das Informationen.
00:33:14: Ich weiß nur, als ich angefangen habe, du hast es angesprochen, habe ich mich auch vor mit dem Thema schon beschäftigt, aber ich bin in die Redaktion gekommen und kurze Zeit später, Februar, zwei-tausend-zwanzig, die russische Invasion oder der Angriffskeg startet, dann kam der siebte Oktober, dann kam Wahlen dazwischen, zwischendurch immer noch die Corona-Pandemie.
00:33:36: Die war ja auch noch.
00:33:37: Ja, genau.
00:33:37: Die war ja auch noch und die geht auch nicht weg.
00:33:41: Und das ist natürlich eine Situation, wo viel Verunsicherung herrschen, wo es das Informationen sehr leicht hat.
00:33:48: Und gleichzeitig muss man sagen, weil ich die Frage auch immer wieder bekomme, ist das etwas Neues?
00:33:53: Das Informations hat es natürlich schon immer gegeben in verschiedene Art und Weise.
00:33:57: Gehört ja auch zum politischen Wahlkampf dazu, auch schon früher.
00:34:03: Aber ich würde schon sagen, dass der Diskurs online sich ein bisschen verändert hat, dass der Ton auch rauer geworden ist.
00:34:10: Art und Weise, wie wir zumindest online kommunizieren.
00:34:15: Der macht mir auch ein bisschen Sorgen, weil es eben weniger Austausch ist und mehr Verhärtung.
00:34:20: Jetzt ist ein Rezept dagegen ja der Faktencheck.
00:34:24: Und Journalisten sind Fakten verpflichtet oder sollten ihnen verpflichtet sein.
00:34:28: Und jetzt leitest du den Faktencheck von Korrektiv?
00:34:35: Wie geht ihr da genau vor?
00:34:36: Also die Entscheidung erstmal, was checkt ihr überhaupt und wie checkt ihr das dann?
00:34:42: Ist eine sehr gute Frage.
00:34:43: Also wir machen jeden Morgen Monitoring.
00:34:45: Das bedeutet alle bei uns im Team.
00:34:47: Wir haben über zehn fest angestellte Journalistinnen und Journalisten, die schwärmen erst mal aus auf einen Plattform.
00:34:54: Telegram, X, Facebook, Instagram, Threads.
00:34:58: Komplett rein ins Rabbit Hole.
00:34:59: Komplett
00:35:00: rein ins Rabbit Hole.
00:35:01: Deshalb sprachen wir darüber, du musst dir sicher sein, dass du das möchtest.
00:35:04: Und da wird man natürlich fündig.
00:35:06: Also erstmal muss man ganz klar sagen, es gibt immer mehr zu checken, als dass wir Ressourcen und Zeit haben.
00:35:11: Das tragen wir alles zusammen und natürlich haben darüber hinaus auch Menschen die Möglichkeit, uns Hinweise zu schicken, zum Beispiel über den WhatsApp Chatbot.
00:35:19: Das sind extrem hilfreiche Hinweise, weil zum Beispiel WhatsApp ja auch eine Blackbox für uns
00:35:23: ist.
00:35:23: Was
00:35:23: kursiert dann eigentlich in den Gruppen?
00:35:25: Und dann gibt es dort hat die Möglichkeit, dass Menschen uns Hinweise schicken oder Dinge, die bei ihnen selber aufgeploppt ist.
00:35:31: Diese Themen nehmen wir mit in die Redaktion.
00:35:33: jeden Morgen um zehn Uhr treffen wir uns und besprechen die Themen.
00:35:37: Dabei orientieren wir uns an drei wesentlichen Kriterien.
00:35:40: Wie viral ist das Ganze?
00:35:42: Also was für eine Reichweite hat das?
00:35:44: Wie nachrichtlich relevante ist es, wenn zum Beispiel irgendwo eine Attacke war oder einen Anschlag?
00:35:50: hat sich vielleicht etwas nicht sofort millionfach verbreitet.
00:35:53: Aber natürlich ist es wichtig zu wissen, können wir das jetzt schon verifizieren, die Aufnahme oder sagen, hey, das ist aus einem anderen Ort, das zeigt eigentlich was ganz anderes.
00:36:02: Und der dritte Faktor, der natürlich nicht immer so greifbar ist, aber auch relevant ist, Was ist der potenzielle Schaden für die Gesellschaft oder bestimmte Gruppen, wenn es ums Thema Gesundheit gibt, kann natürlich auch Auswirkungen darauf haben.
00:36:18: vertraue ich einen bestimmten medizinischen Vorgang oder wenn es um das Thema Migration geht, Bürgergeld, Webizitis eigentlich etc.
00:36:28: Und das sind so die Kriterien, die da mit einspielen.
00:36:31: Darüber diskutieren wir und am Ende entscheiden wir uns für Themen.
00:36:34: Die werden dann umgesetzt, immer von einem Autor, einer Autorin und die Texte bei uns werden von zwei verschiedenen Personen dann nochmal angeschaut, religiert, geprüft selber, dass die Fakten stimmen und dann wird der Text veröffentlicht.
00:36:48: Wie groß ist die Gefahr und wie geht ihr dann damit um mit diesen Faktenchecks?
00:36:55: diesen, dieses, diese Desinformationen nochmal weiter zu verbreiten.
00:36:59: Es ist superrelevant der Punkt, dass wir uns auch überlegen, müssen wir zu diesem Thema auch einen Faktencheck machen, weil wir natürlich auch Gefahr laufen, das Thema größer zu machen.
00:37:10: Ich gebe dir ein Beispiel, es gab eine russische Desinformationskampagne, die sich konkret an Faktencheck-Redaktionen und Medienschaffende gerichtet hat, die Nachrichten geschrieben haben, E-Mails, hey, mir ist das begegnet, wollt ihr dazu nicht einen Faktencheck machen?
00:37:23: Das ganze so.
00:37:24: aber dem Zweck dienen, dass man das Thema und bestimmte Narrative bekräftigt.
00:37:29: Weil das zum Beispiel gar nicht viral war bzw.
00:37:31: auf X nur durch Bots künstlich in die, also eine große Reichweite erreicht hatte, haben wir uns dann immer dagegen entschieden.
00:37:40: Aber das ist total relevant.
00:37:41: und ja, so eine, das ist jetzt ein bisschen veraltet, aber etwas, was man eigentlich immer in den Titel packen wollte, ist schon mal dieses Debunking.
00:37:50: Also von dem Faktencheck, das man direkt klar stellt in der Überschrift.
00:37:54: Ich entkräftige die Behauptung.
00:37:56: Dadurch wiederholt man sie natürlich auch.
00:37:57: Also, das sind so bestimmte Faktoren, die wir uns immer wieder überlegen oder auch überlegen zum Thema Desinformation bei der Bundestagswahl.
00:38:04: Ich mache es wieder ein bisschen greifbarer.
00:38:06: Gab es zwei falsche Nachrichten zu Habeck und Merz und aber ging es zum Beispiel um konkrete Missbrausvorwürfe.
00:38:13: Wir haben gesagt, wir wollen darüber schreiben, aber wir geben keine Details, weil wir nicht wollten, dass diese Thematik, dieses Narrativ, aufgegriffen wird.
00:38:21: Das ist diese Kampagne gab und eben gefälschte Webseiten, gefälschte Krankheitsakten, angebliche Zeugenaussagen, ohne aber in dieses Thema einzusteigen.
00:38:32: Und das ist auch eine Möglichkeit, solchen Themen dann nachzugehen.
00:38:38: Du hast gerade schon die Limitierung natürlich durch Ressourcen einfach angesprochen.
00:38:42: Man kann ja nicht alles aufgreifen und auch ihr könnt nicht alles aufgreifen als Team bei Korrektiv.
00:38:48: Wo sind denn so die inhaltlichen Grenzen oder die Wirkungsgrenzen von Faktenchecks auch?
00:38:55: Natürlich ist es, würde ich als ausgebildeter Journalist auch immer sagen, es ist ja keine Alternative sie nicht zu machen, aber sie haben halt auch haben ja auch Grenzen.
00:39:03: Welche sind das?
00:39:04: Absolut.
00:39:06: Und da gibt es auch in den letzten Jahren ein paar Entwicklungen, das man gesagt hat, es braucht auf jeden Fall immer noch Faktenchecks, vor allem, wenn das Informationen hoch Konjunktur hatte, zum Beispiel während einer Wahlperiode und dann einfach virale Falschnachrichten, ob von einer Politikerin oder eine Politiker oder über die besagte Person, das ist ja beides gefährlich, dass man da auch aufklären muss weiterhin.
00:39:30: Aber das andere ist, dass wir jetzt mittlerweile einen Schritt vorgehen wollen und sagen, neben diesen normalen Faktenchecks wollen wir auch das Prebunking stärken, also diese Art und Weise, wie wir selber uns alle ermächtigen Faktenchecken zu können.
00:39:45: Das heißt, wenn uns was begegnet, dass wir selber ein paar Werkzeuge in die Hand bekommen, um Aufnahmen zu verifizieren oder zumindest zu wissen, hey, was sind so ein paar Indizien oder Aspekte, die mich kritisch sein.
00:39:58: lassen sollen.
00:40:02: Die Diskussion, ich weiß nicht, wie weit du die dann auch verfolgst, aber ich fand das ganz interessant.
00:40:09: Ich muss das jetzt kurz ablesen, weil ich den Namen richtig sagen will.
00:40:12: Es gibt Professor Dr.
00:40:13: Jeanette Hoffmann vom Weizenbaum-Institut, die dazu sehr viel forscht.
00:40:17: Und die sagt, das ist bei Desinformation sehr viel um Kategorien auch in den Mediendiskussionen oder wie Medien über Desinformation auch sprechen.
00:40:26: So war falsch.
00:40:27: Und dann machen wir einen Fakten-Shake und dann sagen wir, das war falsch.
00:40:30: Und so ist es richtig.
00:40:31: Aufgabe von Journalismus auch am Ende.
00:40:33: Allerdings ist Desinformation der Zweck von Desinformation ist ja eigentlich eine mobilisierende.
00:40:39: Also es geht ja darum, die Leute, die man vielleicht eh schon in seinem oder die eh schon im ähnliches Weltbild haben, endgültig auf die Seite zu ziehen oder das zu festigen, die Strukturen und Faktenchecks richten sich eigentlich nur an Leute, die eh schon wissen, dass das Quatsch ist, um das nochmal zu bekräftigen.
00:40:56: Wie blickst du auf diese Diskussion, dass so ein Faktencheck, dass die zwar natürlich gut sind, aber die Wirkung vielleicht gar nicht so groß ist am Ende und dann nur die Leute erreicht, die eh schon auf der Seite der Fakten in Anführungszeichen stehen.
00:41:10: Also erst mal zu dem Punkt der Kategorisierung, da kann ich total nachvollziehen, dass es ja manchmal auch, glaube ich, bei Medien dieses Bedürfnis ist, wir wollen jetzt eine Antwort liefern und ich glaube, dass es trotzdem wichtig ist, dass es manchmal auch nur eine Zierung gibt.
00:41:24: Wir zum Beispiel haben Ich glaube acht Kategorien, also von richtig bis falsch, aber dazwischen gibt es auch unbelegt oder fehlender Kontext oder größtenteils falsch, weil es eben nicht so ist, dass etwas manchmal kategorisch falsch ist, sondern vielleicht Teile einer Aussage stimmen, Teile aber auch nicht.
00:41:42: diese Kategorie unbelegt war zum Beispiel während der Corona-Pandemie eher genutzt bei uns, weil wir bei manchen Sachen einfach keine... wissenschaftliche Grundlage hatten damals.
00:41:54: Und das auch wichtig war, als solches festzuhalten.
00:41:58: Gleichzeitig ist es wichtig zu sagen, es gibt aber auch keine Belege für das Gegenargument, genauso wie es wichtig ist zu sagen, es gibt keine Belege für das Argument, dass man dann trotzdem auf dieser Basis eben diskutieren kann.
00:42:12: Ich glaube, das ist ganz, ganz wichtig.
00:42:14: Grundsätzlich stimme ich dem zu, dass Faktenchecks nur ein Mittel sind, um das Informationen zu bekämpfen.
00:42:21: Ich glaube, am Ende sind wir alle gefragt.
00:42:24: Und wir stellen uns immer die Frage, wie erreichen wir genau die Leute mit unseren Faktenchecks, die vielleicht mit dieser Falschnachricht konfrontiert sind?
00:42:33: Weil, wie du richtig sagst, die Menschen, die auf unsere Webseite kommen, die sind uns wahrscheinlich recht positiv gesinnt oder haben das Gefühl, da finden sie eine Recherche, die sie vielleicht hilfreich finden.
00:42:44: Es gibt ja zum Beispiel noch diese Kooperation mit Meta, wo Faktencheck-Redaktionen weltweit mit Facebook etc.
00:42:53: kooperieren.
00:42:53: indem sie Faktenchecks, die sie unabhängig recherchieren und veröffentlichen, aber dort auf der Plattform verlinken können.
00:42:59: Das heißt, wenn du online ein Facebook-Beitrag gesehen hast, der falsche Angaben zum Bürgergeld macht und irgendeine Faktencheck-Redaktion in Deutschland hat dazu ein Faktencheck gemacht und verlinkt, wird der Beitrag nicht gelöscht, aber du hast die Möglichkeit den Faktencheck.
00:43:15: die durchzulesen und zumindest ein bisschen Kontext zu bekommen.
00:43:19: Und das sind eigentlich solche Kooperationen, die wir mehr brauchen, so Räume, die wir schaffen, wo wir wirklich gemeinsam in den Austausch kommen.
00:43:28: Und ich glaube, das ist mein Glaube dieser Ansatz der Beteiligung, dass wir Leute ein besseres Verständnis geben müssen von journalistischer Recherche und dadurch eben das Vertrauen in uns und generell die Medien berechnet.
00:43:44: Es gibt ja wirklich tolle Donalismus da, dass wir das wieder stärken.
00:43:48: Unbestritten und die Menschen auch so einen gewissen Maßen einen Teil davon werden zu lassen.
00:43:52: Absolut.
00:43:53: Also was ja euer WhatsApp-Tool zum Beispiel angesprochen, dass man halt auch so ein bisschen dieses ja sich selber zu ermächtigen sozusagen auch Teil dieser Bewegung zu sein, Teil dieses, weil ich glaube schon nach wie vor klar, es gibt immer den Teil der Gesellschaft, die sich dann mobilisieren lassen durch diese Information, aber es glaube ich, es gibt den großen Teil, die auf dieses ganze Rumgeschrei und so einfach gar keinen Bock haben.
00:44:17: Also das glaube ich nach wie vor.
00:44:18: Total.
00:44:19: Und denen halt irgendwie die Chance, Möglichkeit zu geben, irgendwie dann teilt davon zu werden, irgendwie, dass sie auch selbst wirksam werden können bei solchen Fragen, falls ich auch für sehr, sehr wichtig.
00:44:29: Total.
00:44:30: Wir sprachen ja vorher auch drüber, wie hältst du das aus, aber wie machst du weiter?
00:44:35: Und das ist tatsächlich, wir haben ja auch, wie du auch schon angesprochen hattest, Deutschlands erste Faktencheck-Community hier ins Leben gerufen.
00:44:42: Also da laden wir wirklich alle, die Interesse haben.
00:44:44: Es braucht keine Vorkenntnisse, gemeinsam mit uns zu recherchieren.
00:44:48: Also wir begleiten sie, sie können Themen mitbringen, wir bringen Themen mit und wir machen den Faktencheck zusammen.
00:44:55: Und da sind so tolle Menschen dabei und die auch wirklich Interesse haben, dieses Wissen weiterzugeben an ihre Umgebung und dadurch irgendwie auch als Motivikator zu agieren.
00:45:06: Und das gibt mir natürlich auch Motivation, weil natürlich ist es ein Problem und wir sehen online.
00:45:11: dass es Gruppen gibt, die einfach keinen Interesse haben an faktenbasierten Diskurs, aber es gibt eben auch die Gegenseite und die ist total toll.
00:45:19: Ja, absolut.
00:45:20: Ich mach jetzt, ich klau jetzt was, weil Anne Will fragt in ihrem sehr guten Podcast.
00:45:28: Am Ende immer, wo stehen wir bei dem Thema in einem Jahr?
00:45:30: Ich wandelt das ein bisschen ab, wo stehen wir bei dem Thema in fünf Jahren?
00:45:36: Also wenn du dir unsere Seite angeschaut hast, dann weißt du, dass wir keine Meinungen und keine Zukunftsproktür machen.
00:45:47: Also dazu gibt es keine Faktenchecks.
00:45:50: Ich hoffe, dass wir ein Stück weiter sind.
00:45:52: Dieses Jahr vor allem, auch mit den Entwicklungen bei den Tech-Plattformen, war schon sehr besorgnisernehmend.
00:45:58: also die Ansage von Zuckerberg, dann auch, dass sich andere... Das war
00:46:03: auch dieses Jahr alles schon.
00:46:04: Ich
00:46:04: habe auch jetzt ein bisschen reflektiert und das war im Januar... Das war
00:46:07: am Anfang des Jahres, ne?
00:46:09: Also krass, was alles passiert ist.
00:46:11: Okay, sorry, ich war gerade kurz.
00:46:13: Okay, das war auch im
00:46:15: Jahr.
00:46:16: Ja, ich bin bei dir.
00:46:19: Es ist verdammt viel passiert und deshalb, was mir Hoffnung gibt, ist, dass dieses Bündnis und die Zusammenarbeit von Faktencheck-Organisationen, die ist richtig, richtig gut und sehr, sehr kollegial.
00:46:33: Da arbeiten alle sehr gut und eng zusammen und das braucht es auch.
00:46:38: Ich glaube, wenn wir da weitermachen, und es aus der Politik auch Impulse gibt, das Thema ernst zu nehmen, auch mit Bezug auf ausländische Einflussnahme, aber auch auf inländische Einflussnahme, dann hoffe ich, dass wir weiterkommen.
00:46:54: Am Ende wird es eine gesellschaftliche Frage sein, wollen wir uns damit auseinandersetzen und wollen wir wirklich das Thema mehr in Schulen tragen, in Kooperationen, in... des Arbeitsumfeld in Unternehmen.
00:47:08: Und dann haben wir noch nicht über die Verantwortung die Politikerinnen und Politiker ja auch bei dem Thema haben und ja auch desinformationskampagnen oft anstoßen mit gewissen Aussagen und so.
00:47:19: Ja, also das ist nicht nur eine Aufgabe der Medien, absolut.
00:47:22: Ja, aber ich glaube einfach um zu sagen, ich glaube, wir würden diesen Job nicht machen, wenn wir nicht das Gefühl haben, wir könnten damit was bewirken.
00:47:29: Und ich hoffe einfach, dass wir damit so weitermachen können und dass wir nicht aufgeben.
00:47:36: Und deshalb in fünf Jahren.
00:47:39: Mascha und vielleicht gibt es gar keine Faktencheckerinnen und Faktenchecker mehr, weil das Problem gelöst ist.
00:47:44: Wir werden uns widersprechen.
00:47:45: Wir werden uns vielleicht widersprechen und das dann diskutieren, wie es dann aussieht.
00:47:49: Aber auch da zusammen ist der Weg, Kooperation und... Einfach auch dadurch eine Kraft erzeugen, dass man halt zusammengeht und das Phänomen zusammen bekämpft.
00:47:59: Sophie Thimmermann, vielen Dank, dass du dir noch kurz Zeit genommen hast, direkt nach dem Panel jetzt hier im Podcaststudio.
00:48:05: Und ich wünsche dir noch eine schöne Restmedientage und viel Erfolg weiterhin bei eurer so wichtigen Arbeit.
00:48:11: Danke schön.
00:48:12: Danke fürs Gespräch.
00:48:19: Ja, das waren sie also schon wieder, die Medientage München.
00:48:22: Schaut gerne vorbei auf unsere Seite medientage.de für Bilder, Berichte, Blogartikel, Pressemitteilungen und schaut unbedingt auch auf unsere Social-Kanäle für Videos, Reels, Interviews und und und.
00:48:34: Alles, was hier so passiert ist im House of Communication in diesen drei Tagen, gibt's da nochmal zum Nachschauen, nachlesen, nachhören, nachfühlen.
00:48:42: Das ist ja auch wichtig in diesem digitalen Welt, das haben wir gelernt.
00:48:45: Also da gibt's viele Eindrücke, schaut da vorbei, wenn ihr nicht hier sein konnte oder wenn ihr hier wart, um nochmal in Erinnerung zu schmelken.
00:48:53: Und auch hier im Podcast werde ich natürlich in den nächsten Wochen einige Inhalte nochmal zum Thema machen, Revue passieren lassen.
00:49:00: Aber jetzt baue ich erstmal hier ab im HOC, wie wir es nennen, im House of Communication.
00:49:06: Und dann sind wir nächstes Jahr wieder hier.
00:49:08: Für mich war es das dann also an dieser Stelle.
00:49:10: Macht's gut, bleibt stabil und bis zum nächsten Mal.
00:49:17: Das Update für alle, die Medien machen.
Neuer Kommentar