Medien
Mit KI gegen Audio Deepfakes
Künstliche Intelligenz hat nicht nur Freunde, denn mitunter wird sie missbraucht. Doch sie bietet auch große Chancen. Beispielsweise beim Aufdecken von Audio Deepfakes.
Die spanische Mediengruppe PRISA Media hat ein neues KI-Tool zur Erkennung von Deepfakes entwickelt. Es heißt VerificAudio und soll Journalisten die bei der Erkennung von Audio-Deepfakes zu unterstützen. Das Tool wurde ins Leben gerufen, um die Vertrauenswürdigkeit von Audio-Inhalten in einer Zeit zu stärken, in der synthetische Stimmen und Voice-Cloning immer häufiger werden. Darüber berichtet Reuters.
Olalla Novoa, Journalistin und Produktmanagerin bei PRISA Media, erklärt, dass sie und ihr Team VerificAudio als Reaktion auf die Herausforderungen entwickelt haben, die durch die Verbreitung von gefälschten Audios entstehen. Diese gefälschten Audios können durch Technologien wie synthetische Stimmen leicht erstellt und in sozialen Medien und Messaging-Apps verbreitet werden.
Deepfake-Erkennung verbessern und verbreiten
Das Projekt, finanziert durch die Google News Initiative, kombiniert maschinelles Lernen und neuronale Netzwerke, um verdächtige Audiodateien zu überprüfen. VerificAudio bietet Journalisten zwei Hauptüberprüfungsoptionen: den Vergleichsmodus, um zu bestimmen, ob Audiodateien von der gleichen Person oder von verschiedenen Personen stammen, und den Identifikationsmodus, um zu bestimmen, ob eine Audiodatei wahrscheinlich echt oder synthetisch ist.
Das Tool ist bereits in den Verifizierungsteams der PRISA Media-Radiosender in Spanien, Kolumbien, Mexiko und Chile im Einsatz und steht für interne Verwendung zur Verfügung. Zukünftig plant das Unternehmen, die Anwendung weiter zu verbessern und auch anderen Medienunternehmen zur Verfügung zu stellen.
- KI
- AI
- Künstliche Intelligenz
- Technologie
- Deepfake
- Medien
- Journalismus
- VerificAudio
- Prisa Media
- Reuters