Episode Details

Back to Episodes
Episode 106 - Mixture of Experts - Mixtral 8x7b

Episode 106 - Mixture of Experts - Mixtral 8x7b

Season 1 Episode 106 Published 2 years, 3 months ago
Description

Send us Fan Mail

In der letzten Sendung des Jahres 2023 sprechen wir über ein spannendes Model von Mistral.ai.: Mixtral 8x7b. Ein sparsed Mixture of Expert Model, das von der Performance auf dem Niveau von ChatGPT 3.5 ist, dabei aber sehr effizient ist und unter Opensource Lizenz veröffentlicht wurde.

Wir machen bis zur zweiten Januarwoche 2024 Urlaub. Danach starten wir wieder durch.  

Vielen Dank auch an unseren Sponsor XL2: 

XL2 ist ein Joint Venture von Audi und Capgemini, 
dass die digitale Transformation in der Automobilindustrie vorantreibt. Das Unternehmen 
erarbeitet innovative End-to-End-Prozesse und implementiert maßgeschneiderte IT-Lösungen für seine Kunden.

Support the show

Listen Now

Love PodBriefly?

If you like Podbriefly.com, please consider donating to support the ongoing development.

Support Us