#32 AutoML
1 Stunde 54 Minuten
Podcast
Podcaster
Entwicklern und Nerds spannende und innovativen Technologien näher bringen - das ist das Ziel von Techtiefen. In jeder Folge wird ein Thema in einem intensiven Gespräche mit wechselnden Experten und Expertinnen ausführlich erklärt. Dabei haben wir den...
Beschreibung
vor 4 Jahren
Marius Lindauer ist Professor an der Universität Hannover und einer
der Köpfe hinter AutoML.org, einer der renommiertesten
Forschungsgruppen auf dem Gebiet, die unter anderem Auto-sklearn,
Auto-PyTorch und SMAC entwickelt hat. Er erläutert uns,
wie AutoML unterfahrenen Nutzern das Training von state-of-the-art
Machine Learning Modellen ermöglicht und Data Scientist als
mächtiges Werkzeug dienen kann. Zunächst besprechen wir am Beispiel
des Hyperparameter Tunings welche Verfahren existieren, um
automatisch die richtigen Modellkonfiguration aus dem
hochdimensionalen Parameterraum auszuwählen. Die statischen Grid-
und Random Search Verfahren sind zwar gut parallelisierbar, jedoch
sind evolutionäre und bayesian Verfahren durch die Nutzung eines
intelligenten Meta-Learners wesentlich effizienter. AutoML bedeutet
jedoch nicht nur die Optimierung von Hyperparametern, sondern die
integrierte Optimierung der gesamten Machine-Learning Pipeline, vom
Feature-Preprocessing, über das Modelltraining bis hin zum
effizienten Tuning und Stacking. Wir besprechen, wie AutoML von den
ersten Ansätzen im Bereich Neuroevolution sich weiterentwickelt hat
und mit Google AutoML seinen "ImageNet Moment" erlebt hat. Wir
besprechen zudem die aktuell gängigsten Frameworks: Auto-sklearn,
Auto-PyTorch, AutoKeras, AutoGluon, TeaPot und AutoWeka. Links:
AutoML Buch von AutoML.orgAutoML in der Cloud Blog Artikel von
NicoAutoML BenchmarkKI-Campus Online-Kurs zu AutoML
der Köpfe hinter AutoML.org, einer der renommiertesten
Forschungsgruppen auf dem Gebiet, die unter anderem Auto-sklearn,
Auto-PyTorch und SMAC entwickelt hat. Er erläutert uns,
wie AutoML unterfahrenen Nutzern das Training von state-of-the-art
Machine Learning Modellen ermöglicht und Data Scientist als
mächtiges Werkzeug dienen kann. Zunächst besprechen wir am Beispiel
des Hyperparameter Tunings welche Verfahren existieren, um
automatisch die richtigen Modellkonfiguration aus dem
hochdimensionalen Parameterraum auszuwählen. Die statischen Grid-
und Random Search Verfahren sind zwar gut parallelisierbar, jedoch
sind evolutionäre und bayesian Verfahren durch die Nutzung eines
intelligenten Meta-Learners wesentlich effizienter. AutoML bedeutet
jedoch nicht nur die Optimierung von Hyperparametern, sondern die
integrierte Optimierung der gesamten Machine-Learning Pipeline, vom
Feature-Preprocessing, über das Modelltraining bis hin zum
effizienten Tuning und Stacking. Wir besprechen, wie AutoML von den
ersten Ansätzen im Bereich Neuroevolution sich weiterentwickelt hat
und mit Google AutoML seinen "ImageNet Moment" erlebt hat. Wir
besprechen zudem die aktuell gängigsten Frameworks: Auto-sklearn,
Auto-PyTorch, AutoKeras, AutoGluon, TeaPot und AutoWeka. Links:
AutoML Buch von AutoML.orgAutoML in der Cloud Blog Artikel von
NicoAutoML BenchmarkKI-Campus Online-Kurs zu AutoML
Weitere Episoden
1 Stunde 38 Minuten
vor 6 Monaten
1 Stunde 14 Minuten
vor 7 Monaten
50 Minuten
vor 9 Monaten
2 Stunden 32 Minuten
vor 1 Jahr
1 Stunde 8 Minuten
vor 1 Jahr
In Podcasts werben
Abonnenten
Berlin
Kommentare (0)