print logo

KI-generierte Stimmen schwer nachweisbar

Die Herausforderung: KI-Deepfakes in der Audio-Welt. Vertrauen in Expertenanalyse und gesunden Menschenverstand.
06.02.24 | Interessanter Artikel bei NBC News

- KI-generierte Audios sind schwer erkennbar, verursachen bereits Chaos.


- Deepfake-Erkennung durch KI ist herausfordernd, nie zu 100% sicher.


- Biden's-Verordnung soll AI-Firmen Leitlinien für "Wasserzeichen" geben.



Gefälschte und irreführende Inhalte, die von künstlicher Intelligenz erstellt werden, sind schnell von einer theoretischen Bedrohung zu einer erschreckenden Realität geworden, berichten Kevin Collier und Jasmine Cui auf NBC News.


In jüngsten Fällen, wie einem Fake-Anruf im Namen von Präsident Biden, wird deutlich, dass die Technologie nicht nur existiert, sondern auch aktiv genutzt wird. Deepfake-Erkennungssysteme, wie Reality Defender, setzen auf KI, um KI zu entlarven. Doch auch sie bieten keine hundertprozentige Sicherheit. Die Vielfalt menschlicher Stimmen macht die Erkennung komplex, und viele vorhandene Tools hinken neuen Innovationen hinterher.


Experten warnen vor übermäßigem Vertrauen in Software, da diese oft auf vorhandenen Deepfake-Algorithmen basieren und Schwierigkeiten haben, mit neuen Entwicklungen Schritt zu halten. Die finanzielle Kluft zwischen Unternehmen, die Deepfakes erstellen, und denen, die sie erkennen, erschwert die Lage.


Biden's Verordnung versucht das Problem zu lösen. Amerikanische KI-Unternehmen erhalten vom Handelsministerium Leitlinien, wie sie die von ihnen produzierten Medien mit einem Wasserzeichen versehen können. Aber die Wirksamkeit bleibt abzuwarten.


Die Langsamkeit akademischer Forschung und mangelnde Benchmarks machen die Entwicklung von zuverlässigen Detektionsmethoden schwierig. Trotzdem betonen Experten, dass neben Softwareanalysen auch Expertenanalysen, Informationen über die Herkunft der Audios und kritisches Denken über den Kontext entscheidend sind.


Die Schlussfolgerung liegt in der Kombination von verschiedenen Methoden, da aktuelle Erkennungsprogramme noch nicht vollständig verlässlich sind. Die Erkennung von Unregelmäßigkeiten im Atemmuster oder Sprechstil kann helfen, synthetische Audios zu identifizieren. In Anbetracht der raschen Entwicklung der KI-Industrie ist es entscheidend, dass Marketingmanager nicht nur auf Technologie, sondern auch auf Expertenberatung und gesunden Menschenverstand setzen, um sich vor den Auswirkungen von KI-Deepfakes zu schützen.