65: Eliezer Yudkowsky - KI & Das Ende der Menschheit
AutoGPT & Das Alignment Problem
1 Stunde 15 Minuten
Podcast
Podcaster
Beschreibung
vor 1 Jahr
Wir sind heute besonders aufgeregt, denn wir werden das Vorbild
aller Vorbilder vorstellen: Eliezer Yudkowsky. Wer? Ja genau, der
Typ, der so schlau ist, dass er dich zum Nachdenken bringt, noch
bevor du deinen Kaffee ausgetrunken hast.
Bevor wir jedoch in die Hauptshow starten, gönnen wir uns selbst
noch eine Tasse frisch gerösteten Kaffee und geben euch einen
kurzen Einblick in AutoGPT. Ja, das klingt alles sehr nerdig,
aber wir versprechen, dass wir unter 20 Minuten das ganze so
verständlich wie möglich erklären werden.
Und dann geht es auch schon los mit unserem Hauptthema: Eliezer
Yudkowsky und seinem Haupt-Forschungsthema: Generelle Künstliche
Intelligenz und warum es das Ende der Menschheit bedeuten könnte.
Etwas deprimierend aber umso mehr spannend. Irgendwie paradox,
oder? Es ist krass, was passiert! Also schnappt euch einen Kaffee
und hört rein!
Interessante Links:
AutoGPT auf Github
Twitter Feed über AutoGPT Anwendungsfälle
Astral Codex Ten: ACX - rationalist community
Interview zwischen Lex Fridman und Eliezer Yudowsky
Offizielle Website von Eliezer Yudkowsky
Machine Intelligence Research Institute:
https://intelligence.org/
Less Wrong Blog: https://www.lesswrong.com/
Kapitel:
0:00:08 - Frisch gerösteter Kaffee
0:10:42 - AutoGPT Next Level AI
0:28:10 - AutoGPT Anwendungsfälle
0:37:37 - AGI is Summoning the Devil
0:39:52 - Eliezer Yudkowsky
0:43:12 - Was ist AGI?
0:47:58 - Das Alignment Problem
0:56:45 - Das Ende der Menschheit
1:00:03 - Lesswrong.com
1:02:27 - AGI Timeline
1:06:32 - Nett sein zur göttlichen AI
1:09:29 - ACX Community
1:13:28 - Krass was passiert
Kommentare via https://www.imprinzipvorbilder.de/kontakt
Weitere Episoden
1 Stunde 52 Minuten
vor 11 Monaten
1 Stunde 9 Minuten
vor 11 Monaten
1 Stunde 29 Minuten
vor 11 Monaten
1 Stunde 50 Minuten
vor 1 Jahr
1 Stunde 36 Minuten
vor 1 Jahr
In Podcasts werben
Abonnenten
Muldenhammer
Kommentare (0)