Können wir unseren Stimmen noch vertrauen?

Mit immer leistungsfähigeren und zugänglicheren KI-Anwendungen ist mittlerweile vieles möglich. Bildgeneration, Textzusammenfassung und auch Stimmerzeugung. Dabei ist es so einfach geworden, dass als vertrauenswürdig geltende Medien gefaked werden, dass wir neue Möglichkeiten brauchen, um uns zu verifizieren.

Seit Photoshop auf den Markt gebracht wurde, müssen wir uns immer wieder in Erinnerung rufen, dass ein Bild, das wir in der Zeitung oder im Internet sehen, kein genaues Abbild der Realität mehr sein muss. Doch auch vor den Zeiten des Internets wurden Bilder schon retuschiert. Ein bekanntes Beispiel ist die Armbanduhr eines Soldaten, der nach Ende des Zweiten Weltkriegs eine sowjetische Flagge über dem Reichstag hisst.

Wie bisher bei Bildern, stellt sich heute aber auch bei Telefonaten die Frage, wie vertrauenswürdig diese noch sein können, wenn mit immer geringerem Aufwand Stimmen lebensecht gefälscht werden können. Kriminelle nutzen so etwas mittlerweile schamlos aus. Wie sollen wir uns da schützen? Sollten wir eine Parole festlegen, die am Anfang jedes Gesprächs genannt wird? Wie können wir uns sicher fühlen, ohne paranoid zu werden?

Jedenfalls sollten wir vorsichtig sein. Nadine Schön, stellvertretende Vorsitzende für Bildung und Forschung, Digitales der CDU/CSU-Fraktion im Bundestag, plädierte im November 2020 für eine „innovationsoffene Datenpolitik“. Sie wolle „weg von der Datensparsamkeit“. Das so stehen zu lassen, halte ich aber für ziemlich fahrlässig. Die wenigsten Leute, die solche Meinungen vertreten, werden sich nämlich dafür verantworten, dass beispielsweise Clearview AI Datensätze von Millionen Gesichtern anlegt und weiterverkauft. Gerade wenn man selbst die Bürger geradezu dazu auffordert , „offener“ mit ihrer Privatsphäre in Netz umzugehen, scheint die Verhinderung von Missbrauch nur noch schwer möglich zu sein.

Ein Beispiel dazu: Im Gespräch mit der Polizei kann bekanntlich alles, was ausgesagt wird, gegen einen verwendet werden. Einen ähnlichen Effekt haben wir im sozialen Internet, dem Web 2.0. Mittlerweile spricht man wegen der Verbreitung von Blockchain-Technologien sogar schon von einem Web 3.0. Wenn man zum Beispiel eigene, Podcasts aufnimmt und veröffentlicht, bekommt potenziell jede KI eine Menge an guten Aufnahmen der eigenen Stimme ohne Hintergundgeräusche, ideal um ein Sprachmodell zur Deepfake-Erstellung zu trainieren.

Diese Vorstellung, nicht unnötig viel von sich zu zeigen, ist keine neue Idee. In anderen Zeiten und Kulturen war es schon oft so, dass es besser war, nicht zu viel von sich Preis zu geben. Es hängt also sehr von der Gesellschaft ab, und die Deutschen gelten insgesamt doch eher als datensparsam und neuen Technologien gegenüber eher misstraurisch.

Wichtig in einer pluralistischen Gesellschaft ist es, dass unterschiedliche Lebensstile und Interessen berücksichtigt werden und nicht begründet mit „Innovation“ allen, auch jenen, die es nicht möchten, ein digitales Leben aufgezwungen wird. Gleichzeitig sollten aber auch diejenigen, die sich ihr Leben und insbesondere ihre Freizeit unkomplizierter gestalten wollen und sich für einen Online-Amtsgang oder bargeldlose Bezahlung entscheiden, nicht in einer Welt von Faxgeräten und Überweisungsträgern festhängen.

Was gegen die bei Datenschützern weit verbreitete Vorstellung der Massenüberwachung durch jedermann spricht, ist, dass oft teure, auf bestimmte Anwendungsfälle zugeschnittene Spionagesoftware sich für den durchschnittlichen Bürger gar nicht lohnen. Die Pegasus-Spyware der israelischen NSO Group kostet laut Recherchen der New York Times $650.000 und zusätzlich $500.000 zur Einrichtung auf 10 Geräten. Bekannte Zielpersonen waren die Präsidenten Frankreichs und Südafrikas sowie der Amazon-Geschäftführer und Eigentümer der Washington Post Jeff Bezos. Bei Journalisten und Aktivisten stellt sich die Frage, wie sehr es auch „kleinere Leute“ betrifft, die beispielsweise als Journalisten in autoritären Staaten als Korespondenten Berichte liefern.

Grundsätzlich schadet es nicht, sich gegen Bedrohungen auf die eigenen Geräte zu schützen. Viele Hersteller von Antivirenprogrammen und in letzter Zeit auch VPNs präsentieren sich gerne als die beste Lösung des Problems. Doch auch schon ganz einfache Sicherheitsmaßnahmen zu befolgen bringt etwas:

  • Systemsoftware immer auf dem neuesten Stand halten
  • keine unbekannten Programme installieren
  • am besten gar nicht erst auf unbekannte Links klicken, von denen Autor oder Zweck unbekannt ist.

KI ist zurzeit so sehr in aller Munde, dass sie als Wunderwaffe gegen alle Probleme verkauft wird. Uns allen die Arbeit abnehmen? Komplexe ethische Entscheidungen treffen? Den Weltfrieden bringen? KI! Doch alles, was eine KI „weiß“ oder „kann“, tut sie ausgehend von ihren Trainingsdaten. Das sieht man an menschlichen Verhaltensmustern, die in KIs wieder auftauchen. Bildgeneratoren reproduzieren Stereotype und wenn beispeilsweise Google mit der Gemini-KI versucht, dagegen anzusteuern, indem mehr Bilder von dunkelhäutigen Menschen generiert werden, waren diese aber dann überrepräsentiert, was zu einer Deaktivierung der Funktion geführt hat. Es ist schwierig, menschliche Vorstellungen von der Realität auf eine „neutrale“ KI zu übertragen.

Die aktuellen Entwicklungen sollten uns dazu bewegen, mehr für uns selbst entscheiden zu können. Wenn Beiträge in sozialen Medien immer leichter gefälscht werden können, wird Medienkompetenz umso wichtiger. Schaut euch gerne meinen Beitrag zum Thema Fake News an: https://www.insider.h-l-g.net/2018/04/17/fake-news-echt-oder/

Bleibt wachsam.

 

Artikel: MoritzM, 12. Klasse

Beitragsbild: sabinevanerp auf Pixabay