#7 Kennt Künstliche Intelligenz noch Grenzen?

#7 Kennt Künstliche Intelligenz noch Grenzen?

28 Minuten

Beschreibung

vor 4 Wochen

Über rassistische KI, dubiose Forschungsergebnisse und die Frage,
wie viel besser KI überhaupt noch werden kann





Wir öffnen heute die Motorhaube der Large Language Models und
sehen uns an, wie eine KI überhaupt trainiert wird. Wie aus einer
großen Menge Text, einem Beatles-Song und einer
Wahrscheinlichkeitsrechnung die Künstliche Intelligenz ihre
Antworten zusammenbastelt. 


Alles beginnt mit einer gigantischen Menge an Daten.
Zeitungsartikel, Webseiten, Studien, Statistiken – die KI
verarbeitet alles, was ihr eingespielt wird. Doch was passiert,
wenn die KI mit falschen, angeblich wissenschaftlichen Studien
gefüttert wird? Die ersten Versionen der KI-Suchmaschinen von
Google, Microsoft und Perplexity gaben ungefiltert widerlegte,
rassistische Theorien wieder – und ließen sie wie Fakten wirken.
Wie konnte das passieren?  


Mehr Leistung, mehr Daten – doch wie viel besser kann Künstliche
Intelligenz noch werden? Führen mehr Chips, größere Rechenzentren
und größere Trainingsmodelle denn überhaupt noch zu besserer
KI? 


️Die KI-Experten fürchten einen neuen KI-Winter: Die
Verbesserungen zwischen den Modellen von Generation zu Generation
sind nur noch marginal. Die großen Qualitätssprünge bleiben aus.
Woran liegt das? Und kann mehr menschliches Denken im KI-Hirn das
Problem beheben – oder muss das Training von KI ganz neu
konstruiert werden? 





Quellen:





https://www.platformer.news/openai-google-scaling-laws-anthropic-ai/?ref=platformer-newsletter&attribution_id=6736969a759328000179d684&attribution_type=post


https://www.reuters.com/technology/artificial-intelligence/openai-rivals-seek-new-path-smarter-ai-current-methods-hit-limitations-2024-11-11/


https://www.wired.com/story/google-microsoft-perplexity-scientific-racism-search-results-ai/



Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: