Die trügerische Sicherheit mit der KI

    Künstliche Intelligenz ist mittlerweile im Alltags- und Berufsleben ein alltägliches Werkzeug. Auch in der Berichterstattung, in der Öffentlichkeitsarbeit und im Transportieren von Inhalten und Meinungen jeglicher Art. Gerade unter permanentem Zeitdruck und mit knappen Ressourcen, wirkt KI wie eine Erleichterung. Doch genau hier beginnt das Risiko: KI erzeugt keine Wahrheit. Sie erzeugt Plausibilität. Und diese Unterscheidung entscheidet über Glaubwürdigkeit.

    Systeme wie ChatGPT, Gemini, Copilot oder Claude und andere so genannte LLM versprechen Effizienz, Tempo und Orientierung in einer Welt, die zugleich schneller und unübersichtlicher geworden ist. Aber Achtung: Sprachmodelle funktionieren grundlegend anders als wissenschaftliche oder journalistische Recherche. Sie prüfen keine Quellen, sie gewichten keine Belege, sie kennen keine Relevanz im redaktionellen Sinn. Sie berechnen Wahrscheinlichkeiten für sprachlich passende Fortsetzungen – und erzeugen damit ein überzeugendes Abbild dessen, was in grossen Textmengen häufig vorkommt. Das Resultat wirkt oft sicher, ruhig und konsistent – selbst dann, wenn es inhaltlich unvollständig, veraltet oder frei erfunden ist. Lücken werden nicht als Lücken markiert, sondern überbrückt. Das System ist darauf optimiert, hilfreich zu wirken – nicht darauf, Zweifel sichtbar zu machen. Ein klares «Das weiss ich nicht» ist für ein Sprachmodell ein schlechter Output.

    Tückische «narrative Halluzination» – ein Beispiel aus Basel
    Besonders tückisch ist die narrative Halluzination: Wenn Informationen fehlen oder widersprüchlich sind, beginnt KI, eine Geschichte zu bauen. Diese Geschichte besteht aus realen Versatzstücken, wird aber zu einer neuen, scheinbar logischen Erzählung verdichtet. Ein Beispiel aus Basel zeigt, wie schnell das passiert: In einer KI-generierten Zusammenfassung zur städtischen Verkehrsplanung tauchte die Behauptung auf, Basel-Stadt habe im Rahmen der Klimastrategie 2030 eine schrittweise Einführung autofreier Zonen in allen Innenstadtquartieren beschlossen. Klingt plausibel, passt in den Zeitgeist – ist aber als flächendeckender politischer Beschluss so nicht existent. Hier wurden Debatten, Pilotprojekte, verkehrsberuhigte Zonen, politische Vorstösse und Zielrichtungen zu einer verbindlichen Entscheidung verschmolzen, die in dieser Form nie gefällt wurde. Die Halluzination entsteht aus einer Musterlogik: Klimaziele, urbane Mobilität, autofreie Zonen – Begriffe, die häufig gemeinsam auftreten. Die KI ergänzt, was gut zusammenpasst.

    Gerade im Schweizer Kontext verstärkt sich dieses Risiko. Föderale Zuständigkeiten, lange Entscheidungswege und politisch aufgeladene Diskussionen sind für Sprachmodelle ein Minenfeld: Fragmente aus unterschiedlichen Ebenen (Bund, Kanton, Gemeinde), unterschiedlichen Zeitpunkten (Debatte, Vorstoss, Pilot, Umsetzung) und unterschiedlichen Textsorten (Medienbericht, Kommentar, Partei-Communiqué) werden leicht zu einer scheinbar kohärenten Gesamtaussage verschoben.

    Systeme wie ChatGPT, Gemini, Copilot oder Claude versprechen Effizienz, Tempo und Orientierung in einer Welt, die zugleich schneller und unübersichtlicher geworden ist. Aber Achtung: Sprachmodelle funktionieren grundlegend anders als wissenschaftliche oder journalistische Recherche.

    Wenn Verbreitung Fakten ersetzt
    Noch heikler wird es bei gesellschaftspolitisch sensiblen Themen. KI-generierte Texte übernehmen oft Narrative, die im öffentlichen Raum stark zirkulieren, aber faktisch nicht stimmen. Ein typisches Beispiel: die Behauptung, Geflüchtete erhielten in der Schweiz höhere Sozialleistungen als die einheimische Bevölkerung. Das ist nachweislich falsch; in der Regel sind die Leistungen für Asylsuchende und vorläufig Aufgenommene stark reglementiert. Dass sich das Narrativ dennoch hält, liegt weniger an Fakten als an Verbreitung. Genau hier liegt ein systemischer Effekt: KI unterscheidet nicht zwischen wahr und falsch, sondern zwischen häufig und selten. Was oft zitiert, geteilt oder wiederholt wird, wirkt in der statistischen Logik «wichtiger» – unabhängig von der Qualität. Die KI lernt damit nicht primär aus dem besten, sondern aus dem «lautesten» Material.

    Diese Dynamik ist besonders gefährlich im Zusammenspiel mit sozialen Medien, alternativen Nachrichtenseiten und emotionalisierten Debatten. Vereinfachte Erzählungen verbreiten sich leichter als differenzierte Einordnung. Dadurch können Halbwahrheiten, verzerrte Frames oder verschwörungsoffene Deutungen in KI-Antworten einfliessen – nicht als platte Falschmeldung, sondern als subtiler Rahmen. So entsteht der Übergang von Halluzination zu Verschwörung: Wenn KI bei Fragen zu Macht, Politik oder Krisen vermeintlich «schlüssige» Erklärungen liefert, die auf unbewiesenen Zusammenhängen beruhen, werden diese Aussagen gefährlich, weil sie nicht offensichtlich falsch sind. Sie wirken sachlich und bedienen gleichzeitig ein latentes Misstrauen. KI wird so ungewollt zum Verstärker von Filterblasen: Sie spiegelt, was bereits kursiert – und verleiht dem Ganzen den Anschein von Neutralität.

    Besonders kritisch wird es, wenn Halluzinationen nicht als Fehler erkannt werden, sondern durch Wiederholung sozial legitimiert werden. Öffentlichkeit funktioniert nicht nur über Fakten, sondern über Sichtbarkeit, Frequenz und Anschlussfähigkeit. Je öfter eine Behauptung gepostet, zitiert und weitergetragen wird, desto vertrauter wirkt sie – und desto eher wird sie geglaubt. Was als fehlerhafte KI-Antwort begann, kann sich durch algorithmische Verstärkung und massenhafte Reproduktion in ein scheinbares «Allgemeinwissen» verwandeln. Die Quelle verliert an Bedeutung; entscheidend ist die Wiederholung. Reichweite ersetzt Überprüfung.

    Die Mitverantwortung der Medien
    Hier geraten auch Medien in eine Mitverantwortung – nicht weil sie (bewusst oder unbewusst) Desinformation verbreiten, sondern weil strukturelle Zwänge die Fehleranfälligkeit erhöhen. Unter Ressourcenmangel wird seltener vor Ort verifiziert, häufiger wird aus bereits zirkulierenden Informationen kompiliert. Faktenchecks erfolgen zudem oft selektiv: Einzelne Zahlen oder Details werden geprüft, während der übergeordnete Deutungsrahmen unberührt bleibt. So kann eine Geschichte formal korrekt wirken, obwohl ihre zentrale Prämisse falsch oder unbelegt ist. Der Effekt: Eine Erzählung wird durch Berichterstattung nicht nur beschrieben, sondern – ungewollt – verstärkt.

    Besonders kritisch wird es, wenn Halluzinationen nicht als Fehler erkannt werden, sondern durch Wiederholung sozial legitimiert werden. Öffentlichkeit funktioniert nicht nur über Fakten, sondern über Sichtbarkeit, Frequenz und Anschlussfähigkeit.

    Das Phänomen der Musterüberlagerung
    Hinzu kommt das Phänomen der Musterüberlagerung: Ähnliche Begriffe, Ereignisse oder Akteure werden zu einer kohärenten, aber falschen Aussage verschmolzen – etwa wenn Initiativen, Abstimmungen, kantonale Zuständigkeiten oder Gerichtsurteile durcheinandergeraten. Besonders anfällig sind Superlative und zeitliche Zuspitzungen («erstmals», «historisch», «beispiellos», «seit Jahrzehnten»). Sie sind sprachlich attraktiv, erhöhen aber das Risiko falscher Behauptungen. Deshalb reicht heute oft ein Faktencheck der KI-Antwort nicht mehr aus – es braucht einen Faktencheck zum Faktencheck, weil die KI Unsicherheit selten sichtbar macht und Behauptungen als abgeschlossene Tatsachen präsentiert.

    KI als Werkzeug, nicht als Autorität
    Die Konsequenz daraus ist kein KI-Verzicht, sondern ein bewusster, defensiver Einsatz. KI eignet sich hervorragend zum Strukturieren, Umformulieren, Zusammenfassen – und als Sparringspartner, wenn man ihr geprüftes Material gibt. Als Quelle taugt sie nur bedingt. Hilfreich sind klare Arbeitsanweisungen wie: «Markiere alle Aussagen, die verifiziert werden müssen», «Kennzeichne Unsicherheiten explizit» oder «Trenne Fakten, Annahmen und Interpretationen». Noch besser ist es, KI nicht nach Fakten «fragen» zu lassen, sondern sie Fakten verarbeiten zu lassen, die bereits geprüft sind.

    Denn Verantwortung bleibt menschlich. KI verändert Arbeitsabläufe, aber sie hebt die Grundprinzipien des Journalismus nicht auf: Recherche, Quellenkritik, Kontext und Zweifel. Gerade weil KI so überzeugend klingt, braucht es mehr Skepsis, nicht weniger. Die grösste Gefahr liegt nicht in der Technologie selbst, sondern in der trügerischen Sicherheit, die sie vermittelt. Wer Plausibilität mit Wissen verwechselt, öffnet die Tür für Fehler, Verzerrungen und unbeabsichtigte Narrative – in einer Zeit, in der Vertrauen in Medien ohnehin fragil ist. KI kann helfen. Aber sie darf niemals das letzte Wort haben.

    JoW

    Vorheriger ArtikelGrosser Saison-Schlussverkauf: Jetzt und nur für kurze Zeit 60 % Rabatt auf alle Topmarken!
    Nächster ArtikelLernen, vertiefen, weiterdenken – Impulse für Coaching und Mentoring