Könnten Sprachmodelle künftig auch logisch denken?

Könnten Sprachmodelle künftig auch logisch denken?

Der KI-Forscher Günter Klambauer spricht darüber, warum es künstlicher Intelligenz noch schwer fällt, logisch zu schlussfolgern - aber wie das künftig gelingen könnte
24 Minuten
Podcast
Podcaster
Der STANDARD-Podcast über das Leben und die Welt von morgen

Beschreibung

vor 1 Woche
Für viele Menschen gehört das Sprachprogramm ChatGPT längst zum
Alltag. Man lässt das Programm eigene E-Mails schreiben, fremde
Texte zusammenfassen oder Informationen zu bestimmten Themen
liefern. Innerhalb von Sekunden spuckt es einem auf dem Bildschirm
die Antworten aus. Die Ergebnisse sind in vielen Fällen erstaunlich
– und sprachlich einwandfrei. Aussagen auf Wahrheit, Schlüssigkeit
und Logik prüfen, so wie wir Menschen, kann eine künstliche
Intelligenz (KI) jedoch noch nicht. Das könnte sich aber bald
ändern. Gemeinsam mit anderen Forscherinnen und Forschern versucht
der KI-Wissenschafter Günter Klambauer an der
Johannes-Kepler-Universität Linz künstlicher Intelligenz solche
Fähigkeiten beizubringen – und sie dafür am Vorbild des
menschlichen Gehirns zu trainieren. Ein Programm mit solchen
Fähigkeiten könnte künftig etwa auch in sensiblen Bereichen wie in
der Medizin oder bei gerichtlichen Verfahren zum Einsatz kommen,
glaubt Klambauer. Im Podcast spricht der KI-Experte darüber, wie
das in Zukunft gelingen könnte, wie Sprachprogramme momentan lernen
und warum wir KI zu häufig menschliche Eigenschaften zuschreiben.

Kommentare (0)

Lade Inhalte...

Abonnenten

Viivii
Hamburg
15
15
:
: