Episode 106 - Mixture of Experts - Mixtral 8x7b
31 Minuten
Podcast
Podcaster
Beschreibung
vor 10 Monaten
Send us a text
In der letzten Sendung des Jahres 2023 sprechen wir über ein
spannendes Model von Mistral.ai.: Mixtral 8x7b. Ein sparsed
Mixture of Expert Model, das von der Performance auf dem Niveau
von ChatGPT 3.5 ist, dabei aber sehr effizient ist und unter
Opensource Lizenz veröffentlicht wurde.
Wir machen bis zur zweiten Januarwoche 2024 Urlaub. Danach
starten wir wieder durch.
Vielen Dank auch an unseren Sponsor XL2:
XL2 ist ein Joint Venture von Audi und Capgemini,
dass die digitale Transformation in der Automobilindustrie
vorantreibt. Das Unternehmen
erarbeitet innovative End-to-End-Prozesse und implementiert
maßgeschneiderte IT-Lösungen für seine Kunden.
Support the show
Weitere Episoden
28 Minuten
vor 3 Tagen
39 Minuten
vor 1 Woche
29 Minuten
vor 3 Wochen
28 Minuten
vor 1 Monat
In Podcasts werben
Kommentare (0)