#36 NLP Update: Attention & Big Science
1 Stunde 34 Minuten
Podcast
Podcaster
Entwicklern und Nerds spannende und innovativen Technologien näher bringen - das ist das Ziel von Techtiefen. In jeder Folge wird ein Thema in einem intensiven Gespräche mit wechselnden Experten und Expertinnen ausführlich erklärt. Dabei haben wir den...
Beschreibung
vor 3 Jahren
Natürliche Sprachverarbeitung (NLP) war bereits vor 2 Jahren das
Thema einer Techtiefen Podcast-Triologie. Seit dem hat sich aber
sehr viel getan, insbesondere Transfer-Learning und die Transformer
Technologie haben mächtige Modelle wie Bert oder GPT ermöglicht, es
wird also höchste Zeit für ein Update. Wer zuerst noch einmal die
Grundlagen auffrischen möchte, dem sei [Techtiefen [NLP] Moderne
Sprachverarbeitung](https://techtiefen.de/nlp-moderne-sprachverarbeitung/)
empfohlen. Experte dieser Folge ist Nils Reimers, NLP Forscher bei
Huggingface und Autor der [Sentence-Transformers
Library](https://github.com/UKPLab/sentence-transformers/). Er
erklärt zunächst die wichtigen Neuheiten der vergangen Jahre wie
etwa Transfer Learning, Attention, Transfomer und Neuheiten bei
Tokenization Strategien. Anschließend sprechen wir darüber, wie man
am besten aus einem Text variabler Länge Vektoren mit fixer
Dimensionalität bestimmt. Diese so bestimmten Vektoren sind dann
Grundlage für anspruchsvolle Aufgaben wie Text-Clustering,
Semantische Suche oder Question-Answering Aufgaben. Auch besprechen
wir, wie man einsprachige Modelle mit Hilfe eines Teacher-Student
Verfahrens in fremde Sprachen übertragen kann. Abschließend
berichtet Nils vom [Big Science
Projekt](https://bigscience.huggingface.co/en/#!index.md), einem
einjährigen Workshop bei dem 500 Personen aus über 50 Ländern
mitarbeiten um gemeinsam auf einem französischen Supercomputer das
größte bisher berechnete Sprachmodell zu berechnen. Anders als bei
GPT wird sowohl das Modell, wie auch der Prozess dieses zu
erstellen offen und transparent. Besonders ist dabei auch der
Ansatz, spannende Forschungsfragen bereits vor dem Modelltraining
zu formulieren. Links: - Paper von Nils über die wir gesprochen
haben: - [Sentence-BERT: Sentence Embeddings using Siamese
BERT-Networks](https://arxiv.org/pdf/1908.10084.pdf) - [Making
Monolingual Sentence Embeddings Multilingual using Knowledge
Distillation](https://arxiv.org/pdf/2004.09813.pdf) - [BigScience
Projekt](https://bigscience.huggingface.co/en/#!index.md) -
[Sentence-Transformers
Library](https://github.com/UKPLab/sentence-transformers/) -
[Huggingface](https://huggingface.co/course/chapter1) Online-Kurs
Thema einer Techtiefen Podcast-Triologie. Seit dem hat sich aber
sehr viel getan, insbesondere Transfer-Learning und die Transformer
Technologie haben mächtige Modelle wie Bert oder GPT ermöglicht, es
wird also höchste Zeit für ein Update. Wer zuerst noch einmal die
Grundlagen auffrischen möchte, dem sei [Techtiefen [NLP] Moderne
Sprachverarbeitung](https://techtiefen.de/nlp-moderne-sprachverarbeitung/)
empfohlen. Experte dieser Folge ist Nils Reimers, NLP Forscher bei
Huggingface und Autor der [Sentence-Transformers
Library](https://github.com/UKPLab/sentence-transformers/). Er
erklärt zunächst die wichtigen Neuheiten der vergangen Jahre wie
etwa Transfer Learning, Attention, Transfomer und Neuheiten bei
Tokenization Strategien. Anschließend sprechen wir darüber, wie man
am besten aus einem Text variabler Länge Vektoren mit fixer
Dimensionalität bestimmt. Diese so bestimmten Vektoren sind dann
Grundlage für anspruchsvolle Aufgaben wie Text-Clustering,
Semantische Suche oder Question-Answering Aufgaben. Auch besprechen
wir, wie man einsprachige Modelle mit Hilfe eines Teacher-Student
Verfahrens in fremde Sprachen übertragen kann. Abschließend
berichtet Nils vom [Big Science
Projekt](https://bigscience.huggingface.co/en/#!index.md), einem
einjährigen Workshop bei dem 500 Personen aus über 50 Ländern
mitarbeiten um gemeinsam auf einem französischen Supercomputer das
größte bisher berechnete Sprachmodell zu berechnen. Anders als bei
GPT wird sowohl das Modell, wie auch der Prozess dieses zu
erstellen offen und transparent. Besonders ist dabei auch der
Ansatz, spannende Forschungsfragen bereits vor dem Modelltraining
zu formulieren. Links: - Paper von Nils über die wir gesprochen
haben: - [Sentence-BERT: Sentence Embeddings using Siamese
BERT-Networks](https://arxiv.org/pdf/1908.10084.pdf) - [Making
Monolingual Sentence Embeddings Multilingual using Knowledge
Distillation](https://arxiv.org/pdf/2004.09813.pdf) - [BigScience
Projekt](https://bigscience.huggingface.co/en/#!index.md) -
[Sentence-Transformers
Library](https://github.com/UKPLab/sentence-transformers/) -
[Huggingface](https://huggingface.co/course/chapter1) Online-Kurs
Weitere Episoden
1 Stunde 38 Minuten
vor 6 Monaten
1 Stunde 14 Minuten
vor 7 Monaten
50 Minuten
vor 9 Monaten
2 Stunden 32 Minuten
vor 1 Jahr
1 Stunde 8 Minuten
vor 1 Jahr
In Podcasts werben
Abonnenten
Berlin
Kommentare (0)