Episode 106 - Mixture of Experts - Mixtral 8x7b

Episode 106 - Mixture of Experts - Mixtral 8x7b

31 Minuten

Beschreibung

vor 10 Monaten

Send us a text


In der letzten Sendung des Jahres 2023 sprechen wir über ein
spannendes Model von Mistral.ai.: Mixtral 8x7b. Ein sparsed
Mixture of Expert Model, das von der Performance auf dem Niveau
von ChatGPT 3.5 ist, dabei aber sehr effizient ist und unter
Opensource Lizenz veröffentlicht wurde.

Wir machen bis zur zweiten Januarwoche 2024 Urlaub. Danach
starten wir wieder durch.  

Vielen Dank auch an unseren Sponsor XL2: 

XL2 ist ein Joint Venture von Audi und Capgemini, 
dass die digitale Transformation in der Automobilindustrie
vorantreibt. Das Unternehmen 
erarbeitet innovative End-to-End-Prozesse und implementiert
maßgeschneiderte IT-Lösungen für seine Kunden.


Support the show

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: