#7 Kennt Künstliche Intelligenz noch Grenzen?
28 Minuten
Podcast
Podcaster
Beschreibung
vor 4 Wochen
Über rassistische KI, dubiose Forschungsergebnisse und die Frage,
wie viel besser KI überhaupt noch werden kann
Wir öffnen heute die Motorhaube der Large Language Models und
sehen uns an, wie eine KI überhaupt trainiert wird. Wie aus einer
großen Menge Text, einem Beatles-Song und einer
Wahrscheinlichkeitsrechnung die Künstliche Intelligenz ihre
Antworten zusammenbastelt.
Alles beginnt mit einer gigantischen Menge an Daten.
Zeitungsartikel, Webseiten, Studien, Statistiken – die KI
verarbeitet alles, was ihr eingespielt wird. Doch was passiert,
wenn die KI mit falschen, angeblich wissenschaftlichen Studien
gefüttert wird? Die ersten Versionen der KI-Suchmaschinen von
Google, Microsoft und Perplexity gaben ungefiltert widerlegte,
rassistische Theorien wieder – und ließen sie wie Fakten wirken.
Wie konnte das passieren?
Mehr Leistung, mehr Daten – doch wie viel besser kann Künstliche
Intelligenz noch werden? Führen mehr Chips, größere Rechenzentren
und größere Trainingsmodelle denn überhaupt noch zu besserer
KI?
️Die KI-Experten fürchten einen neuen KI-Winter: Die
Verbesserungen zwischen den Modellen von Generation zu Generation
sind nur noch marginal. Die großen Qualitätssprünge bleiben aus.
Woran liegt das? Und kann mehr menschliches Denken im KI-Hirn das
Problem beheben – oder muss das Training von KI ganz neu
konstruiert werden?
Quellen:
https://www.platformer.news/openai-google-scaling-laws-anthropic-ai/?ref=platformer-newsletter&attribution_id=6736969a759328000179d684&attribution_type=post
https://www.reuters.com/technology/artificial-intelligence/openai-rivals-seek-new-path-smarter-ai-current-methods-hit-limitations-2024-11-11/
https://www.wired.com/story/google-microsoft-perplexity-scientific-racism-search-results-ai/
Weitere Episoden
35 Minuten
vor 6 Tagen
30 Minuten
vor 1 Woche
37 Minuten
vor 2 Wochen
29 Minuten
vor 1 Monat
33 Minuten
vor 1 Monat
In Podcasts werben
Kommentare (0)