65: Eliezer Yudkowsky - KI & Das Ende der Menschheit

65: Eliezer Yudkowsky - KI & Das Ende der Menschheit

AutoGPT & Das Alignment Problem
1 Stunde 15 Minuten
Podcast
Podcaster

Beschreibung

vor 1 Jahr

Wir sind heute besonders aufgeregt, denn wir werden das Vorbild
aller Vorbilder vorstellen: Eliezer Yudkowsky. Wer? Ja genau, der
Typ, der so schlau ist, dass er dich zum Nachdenken bringt, noch
bevor du deinen Kaffee ausgetrunken hast.


Bevor wir jedoch in die Hauptshow starten, gönnen wir uns selbst
noch eine Tasse frisch gerösteten Kaffee und geben euch einen
kurzen Einblick in AutoGPT. Ja, das klingt alles sehr nerdig,
aber wir versprechen, dass wir unter 20 Minuten das ganze so
verständlich wie möglich erklären werden.


Und dann geht es auch schon los mit unserem Hauptthema: Eliezer
Yudkowsky und seinem Haupt-Forschungsthema: Generelle Künstliche
Intelligenz und warum es das Ende der Menschheit bedeuten könnte.
Etwas deprimierend aber umso mehr spannend. Irgendwie paradox,
oder? Es ist krass, was passiert! Also schnappt euch einen Kaffee
und hört rein!


Interessante Links:




AutoGPT auf Github




Twitter Feed über AutoGPT Anwendungsfälle




Astral Codex Ten: ACX - rationalist community




Interview zwischen Lex Fridman und Eliezer Yudowsky




Offizielle Website von Eliezer Yudkowsky




Machine Intelligence Research Institute:
https://intelligence.org/




Less Wrong Blog: https://www.lesswrong.com/




Kapitel:


0:00:08 - Frisch gerösteter Kaffee


0:10:42 - AutoGPT Next Level AI


0:28:10 - AutoGPT Anwendungsfälle


0:37:37 - AGI is Summoning the Devil


0:39:52 - Eliezer Yudkowsky


0:43:12 - Was ist AGI?


0:47:58 - Das Alignment Problem


0:56:45 - Das Ende der Menschheit


1:00:03 - Lesswrong.com


1:02:27 - AGI Timeline


1:06:32 - Nett sein zur göttlichen AI


1:09:29 - ACX Community


1:13:28 - Krass was passiert
Kommentare via https://www.imprinzipvorbilder.de/kontakt

Kommentare (0)

Lade Inhalte...

Abonnenten

MK26
Muldenhammer
15
15
:
: