Texte generieren mit GPT-3
37 Minuten
Podcast
Podcaster
Beschreibung
vor 3 Jahren
Send us a text
Maschinelle Übersetzung gibt es schon sehr lange, erste
Pionierversuche gab es bereits in den 1930ern. Sehr große
Verbesserungen brachte der Einsatz von Deep Learning und
künstlichen neuronalen Netzen. Sie ermöglichen Computersystemen,
kontextbezogene Verbindungen zwischen Wörtern und Phrasen
herzustellen. Das "GPT" bei GPT-3 steht für Generative
Pre-trained Transformer. Und den gibt es jetzt schon in der
dritten Ausbaustufe. Der Transformer bekommt einen Input,
wertet ihn mit Hilfe von Deep Learning aus und generiert neuen
Output. GPT, egal ob 2 oder 3, gehört damit zum großen Feld der
künstlichen Intelligenz.
Wir sprechen mit Carsten über seine Erfahrungen und Erlebnisse
mit GPT-2 und GPT-3.
Link zum Fundstück der Woche
Artikel OpenAIs GPT-3
GPT-2 ausprobieren
OPITZ CONSULTING
Digitale Service Manufaktur
Disclaimer: This post contains affiliate links. If you make a
purchase, I may receive a commission at no extra cost to you.
Nina & Frank laden sich Gäste ein und sprechen mit ihnen über
aktuelle Entwicklungen im Umfeld der Künstlichen Intelligenz.
Weitere Episoden
1 Stunde 2 Minuten
vor 1 Monat
13 Minuten
vor 5 Monaten
1 Stunde 3 Minuten
vor 6 Monaten
58 Minuten
vor 7 Monaten
1 Stunde 15 Minuten
vor 7 Monaten
In Podcasts werben
Kommentare (0)