#45 Wolfgang Stieler: „Wie viel böse Absicht kann man KI unterstellen?“
TechReview-Redakteur Wolfgang Stieler beobachtet …
31 Minuten
Podcast
Podcaster
Beschreibung
vor 3 Jahren
TechReview-Redakteur Wolfgang Stieler beobachtet und berichtet seit
über zwei Jahrzehnten über neue technische Entwicklungen. Mit
großen Sprachmodellen wie GPT-3 ist bald eine künstliche
Intelligenz verfügbar, die selbst den Technologieoptimisten aus dem
Heise-Verlag besorgt aufhorchen lässt. „Je besser ein Sprachmodell
die Welt versteht, desto besser kann man damit auch gezielten
Missbrauch betreiben“, sagt der Redakteur des renommierten
MIT-Magazins im Interview. Wir sprechen mit ihm über die Gefahren
von automatisch generierten Texten, die das Potenzial haben,
politische Meinung zu beeinflussen und den Journalismus grundlegend
zu verändern. Außerdem erklärt Stieler, warum es nichts nützt,
solche Technologien unter Verschluss zu halten oder sich auf die
automatisierte Erkennung und Bewertung von KI-generierten Inhalten
zu verlassen. „Es ist keine Frage ob, sondern wann solche
Sprachmodelle im großen Maßstab zur Verfügung stehen.“ „GPT-3 ist
eine Technologie, die sich leicht missbrauchen lässt.“ „Wir
brauchen einen gesellschaftlichen Rahmen und Regulierungen. Daran
arbeitet die EU – die Frage ist nur, ob sie schnell genug ist.“
„Letztendlich ist es kein rein technisches, sondern ein
gesellschaftliches Problem.“
über zwei Jahrzehnten über neue technische Entwicklungen. Mit
großen Sprachmodellen wie GPT-3 ist bald eine künstliche
Intelligenz verfügbar, die selbst den Technologieoptimisten aus dem
Heise-Verlag besorgt aufhorchen lässt. „Je besser ein Sprachmodell
die Welt versteht, desto besser kann man damit auch gezielten
Missbrauch betreiben“, sagt der Redakteur des renommierten
MIT-Magazins im Interview. Wir sprechen mit ihm über die Gefahren
von automatisch generierten Texten, die das Potenzial haben,
politische Meinung zu beeinflussen und den Journalismus grundlegend
zu verändern. Außerdem erklärt Stieler, warum es nichts nützt,
solche Technologien unter Verschluss zu halten oder sich auf die
automatisierte Erkennung und Bewertung von KI-generierten Inhalten
zu verlassen. „Es ist keine Frage ob, sondern wann solche
Sprachmodelle im großen Maßstab zur Verfügung stehen.“ „GPT-3 ist
eine Technologie, die sich leicht missbrauchen lässt.“ „Wir
brauchen einen gesellschaftlichen Rahmen und Regulierungen. Daran
arbeitet die EU – die Frage ist nur, ob sie schnell genug ist.“
„Letztendlich ist es kein rein technisches, sondern ein
gesellschaftliches Problem.“
Weitere Episoden
26 Minuten
vor 2 Jahren
22 Minuten
vor 3 Jahren
32 Minuten
vor 3 Jahren
34 Minuten
vor 3 Jahren
In Podcasts werben
Kommentare (0)