Zwei weitere Panels vertiefen das Thema
Eva Weissenberger (WKO) moderierte das Panel mit Claudia Zettel, Chefredakteurin von „futurezone“, Eugenia Stamboliev, Medienwissenschaftlerin und Technikphilosophin an der Universität Wien, und Maimuna Mosser, CEO von Google Austria.
Angesichts zunehmender Desinformation und der wachsenden Rolle von KI sinke das Vertrauen der Öffentlichkeit in die Medien. Zettel sah das Problem weniger im abnehmenden Vertrauen selbst, sondern eher darin, dass die Menschen vermehrt auf andere Quellen wie YouTube oder X ausweichen. „Ich glaube, die Grundproblematik ist, dass es zwei Welten gibt. (...) Unser Verständnis von Fakten unterscheidet sich von jenem anderer Gruppen“, erklärte Zettel. Stamboliev sah ebenfalls eine Vertrauenskrise, seit Technologie zunehmend das Bildungssystem prägt: „Wir zerstören unsere Vertrauensverhältnisse.“ Sie betonte, dass viele Technologien auf dem Markt nicht wissenschaftlich fundiert seien, weshalb Nutzer*innen KI-generierte Inhalte zusätzlich überprüfen müssen.
Mosser betonte die Verantwortung von Google, Desinformation vorzubeugen: „Unsere Tools sollen qualifizierte Informationen liefern und die Sichtbarkeit solcher Inhalte erhöhen.“ Google habe strenge Richtlinien für KI-generierte Inhalte, Desinformation und Hassreden. „KI ist nicht richtlinienlos bei Google verankert“, stellte Mosser klar.
Eine Frage der Verantwortung
Bei einem weiteren Panel mit Mubashara Akthar, Wissenschaftlerin am Kings College in London, Eva Wackenreuther, Faktencheckerin beim ORF und Valerie Schmid, Redakteurin bei der APA, wurde insbesondere über die Verantwortung bei der Erkennung von „Fake News“ geredet.
Schmid sah eine „große generelle Verunsicherung“ bei Leser*innen, bei der „Medien allein nicht ausreichen“, um dieser entgegenzuwirken. Sie kritisierte die ungenügenden Bemühungen von Seiten der Sozialen Medien, die ihren „massiven Verantwortungen“ im Bereich KI und Desinformation nicht zurechtkommen würden. Auch Wackenreuther sah nicht nur die Medien für die Erkennung von KI und Fakes zuständig. Akhtar sah diese in der Wissenschaft. Es brauche eine „Sensibilisierung der Allgemeinheit“, wie man mit KI- generierten Daten umgeht, „branchenspezifische Methoden, Standards und spezifische Richtlinien“ sowie ein stärkerer Blick in Richtung Forschung, damit „die KI-Tools gewisse Standards einhalten können".
Pauline Severin