KI-Forscher und -Unternehmer warnen vor existenziellen Risiken durch AI - Wie gefährlich sind KIs oder könnten es werden? | "KI und Mensch" | Folge 10, Teil 1
1 Stunde 5 Minuten
Podcast
Podcaster
Beschreibung
vor 1 Jahr
Die dunkle Seite der KI: Risiken, Kritik und die Zukunft der
Technologie
Willkommen zur neuesten Episode unseres Podcasts, in der wir uns
intensiv mit dem Thema "Künstliche Intelligenz und das Risiko des
Untergangs" beschäftigen. In dieser Folge diskutieren wir eine
Reihe von Quellen und Perspektiven, die sowohl die potenziellen
Risiken als auch die Kritik an diesen Warnungen beleuchten.
Wir beginnen mit einem Blick auf die Erklärung von www.safe.ai
zum Risiko der KI und berichten über Warnungen von
Branchenführern, die in der New York Times und anderen Medien
aufgegriffen und disktutiert wurden. Eine Studie der Universität
Oxford liefert eine düstere Antwort auf die Frage, ob künstliche
Intelligenz das Ende der Menschheit bedeuten könnte, während
Kritiker diese Warnungen als übertrieben betrachten.
Wir werden auch die aktuellen Risiken diskutieren, die in dem
Artikel "On the Dangers of Stochastic Parrots: Can Language
Models Be Too Big?" (2021) aufgeführt sind, einschließlich der
Verstärkung von Vorurteilen und Stereotypen, der Generierung von
beleidigender Sprache und der Ausnutzung durch böswillige
Akteure.
Darüber hinaus werden wir den Energieverbrauch von KI und die
Auswirkungen auf die Nachhaltigkeit betrachten, basierend auf
einem Artikel von www.zdnet.com. Wir werden auch die
Wahrscheinlichkeit des Untergangs durch KI (auch genannt p(Doom)
/ x-risk) diskutieren, die auf Foren oder Artikeln unter anderem
im Time Magazine behandelt werden.
Schließlich werden wir die Ansichten verschiedener Experten wie
Eliezer Yudkowsky, Yoshua Bengio, Max Tegmark und Geoffrey Hinton
beleuchten, die ihre Gedanken und Bedenken zur KI und ihrem
Potenzial für Risiken geäußert haben.
Wir hoffen, dass diese Episode Ihnen einen umfassenden Überblick
über das aktuelle Gespräch rund um KI und Risiken bietet und
freuen uns auf Ihre Gedanken und Fragen zu diesem wichtigen
Thema. Bleiben Sie dran!
Link-Liste für Teil 1:
https://www.safe.ai/statement-on-ai-risk
https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html
https://www.swr.de/wissen/experten-warnen-vor-ausloeschung-der-menschheit-durch-ki-100.html
Oxford Studie:
https://www.fr.de/wissen/ki-kuenstliche-intelligenz-ende-menschheit-oxford-studie-liefert-duestere-antwort-91821912.html
Kritik:
https://www.tagesspiegel.de/politik/umweltfolgen-durch-kunstliche-intelligenz-gravierend-forscherin-aus-oxford-kritisiert-ausloschungs-warnung-9911783.html
https://theconversation.com/if-were-going-to-label-ai-an-extinction-risk-we-need-to-clarify-how-it-could-happen-206738
Aktuelle Risiken:
On the Dangers of Stochastic Parrots: Can Language Models Be Too
Big? (2021)
https://dl.acm.org/doi/pdf/10.1145/3442188.3445922
Energy-Consumption:
https://www.zdnet.com/home-and-office/sustainability/this-new-aws-tool-shows-customers-the-carbon-footprint-of-their-cloud-computing-usage/
p(Doom) / x-risk:
https://forum.effectivealtruism.org/posts/THogLaytmj3n8oGbD/p-doom-or-agi-is-high-why-the-default-outcome-of-agi-is-doom
https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
Eliezer Yudkowsky https://twitter.com/ESYudkowsky
Yoshua Bengio https://www.bbc.co.uk/news/technology-65760449
Max Tegmark:
https://www.channel4.com/news/ai-extinction-threat-is-going-mainstream-says-max-tegmark
https://time.com/6273743/thinking-that-could-doom-us-with-ai/
Geoffrey Hinton:
https://www.nytimes.com/2023/05/30/podcasts/the-daily/chatgpt-hinton-ai.html
Weitere Stimmen:
https://twitter.com/abacaj/status/1664237098633658368
https://twitter.com/ylecun
https://twitter.com/tdietterich/status/1663602549130432512
https://twitter.com/GaryMarcus/status/1664124885009068032?s=20
https://twitter.com/chrmanning/status/1663920862439915524
Experts survey:
https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/
Folgt uns auf:
Twitter: https://twitter.com/KIundMensch
Twitch: https://www.twitch.tv/kiundmensch
Youtube: https://www.youtube.com/@kiundmensch
Technologie
Willkommen zur neuesten Episode unseres Podcasts, in der wir uns
intensiv mit dem Thema "Künstliche Intelligenz und das Risiko des
Untergangs" beschäftigen. In dieser Folge diskutieren wir eine
Reihe von Quellen und Perspektiven, die sowohl die potenziellen
Risiken als auch die Kritik an diesen Warnungen beleuchten.
Wir beginnen mit einem Blick auf die Erklärung von www.safe.ai
zum Risiko der KI und berichten über Warnungen von
Branchenführern, die in der New York Times und anderen Medien
aufgegriffen und disktutiert wurden. Eine Studie der Universität
Oxford liefert eine düstere Antwort auf die Frage, ob künstliche
Intelligenz das Ende der Menschheit bedeuten könnte, während
Kritiker diese Warnungen als übertrieben betrachten.
Wir werden auch die aktuellen Risiken diskutieren, die in dem
Artikel "On the Dangers of Stochastic Parrots: Can Language
Models Be Too Big?" (2021) aufgeführt sind, einschließlich der
Verstärkung von Vorurteilen und Stereotypen, der Generierung von
beleidigender Sprache und der Ausnutzung durch böswillige
Akteure.
Darüber hinaus werden wir den Energieverbrauch von KI und die
Auswirkungen auf die Nachhaltigkeit betrachten, basierend auf
einem Artikel von www.zdnet.com. Wir werden auch die
Wahrscheinlichkeit des Untergangs durch KI (auch genannt p(Doom)
/ x-risk) diskutieren, die auf Foren oder Artikeln unter anderem
im Time Magazine behandelt werden.
Schließlich werden wir die Ansichten verschiedener Experten wie
Eliezer Yudkowsky, Yoshua Bengio, Max Tegmark und Geoffrey Hinton
beleuchten, die ihre Gedanken und Bedenken zur KI und ihrem
Potenzial für Risiken geäußert haben.
Wir hoffen, dass diese Episode Ihnen einen umfassenden Überblick
über das aktuelle Gespräch rund um KI und Risiken bietet und
freuen uns auf Ihre Gedanken und Fragen zu diesem wichtigen
Thema. Bleiben Sie dran!
Link-Liste für Teil 1:
https://www.safe.ai/statement-on-ai-risk
https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html
https://www.swr.de/wissen/experten-warnen-vor-ausloeschung-der-menschheit-durch-ki-100.html
Oxford Studie:
https://www.fr.de/wissen/ki-kuenstliche-intelligenz-ende-menschheit-oxford-studie-liefert-duestere-antwort-91821912.html
Kritik:
https://www.tagesspiegel.de/politik/umweltfolgen-durch-kunstliche-intelligenz-gravierend-forscherin-aus-oxford-kritisiert-ausloschungs-warnung-9911783.html
https://theconversation.com/if-were-going-to-label-ai-an-extinction-risk-we-need-to-clarify-how-it-could-happen-206738
Aktuelle Risiken:
On the Dangers of Stochastic Parrots: Can Language Models Be Too
Big? (2021)
https://dl.acm.org/doi/pdf/10.1145/3442188.3445922
Energy-Consumption:
https://www.zdnet.com/home-and-office/sustainability/this-new-aws-tool-shows-customers-the-carbon-footprint-of-their-cloud-computing-usage/
p(Doom) / x-risk:
https://forum.effectivealtruism.org/posts/THogLaytmj3n8oGbD/p-doom-or-agi-is-high-why-the-default-outcome-of-agi-is-doom
https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
Eliezer Yudkowsky https://twitter.com/ESYudkowsky
Yoshua Bengio https://www.bbc.co.uk/news/technology-65760449
Max Tegmark:
https://www.channel4.com/news/ai-extinction-threat-is-going-mainstream-says-max-tegmark
https://time.com/6273743/thinking-that-could-doom-us-with-ai/
Geoffrey Hinton:
https://www.nytimes.com/2023/05/30/podcasts/the-daily/chatgpt-hinton-ai.html
Weitere Stimmen:
https://twitter.com/abacaj/status/1664237098633658368
https://twitter.com/ylecun
https://twitter.com/tdietterich/status/1663602549130432512
https://twitter.com/GaryMarcus/status/1664124885009068032?s=20
https://twitter.com/chrmanning/status/1663920862439915524
Experts survey:
https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/
Folgt uns auf:
Twitter: https://twitter.com/KIundMensch
Twitch: https://www.twitch.tv/kiundmensch
Youtube: https://www.youtube.com/@kiundmensch
Weitere Episoden
In Podcasts werben
Kommentare (0)