Mistral veröffentlicht sein Mistral Large 2 LLM

mistral-veroffentlicht-sein-mistral-large-2-llm

Quelle: Mistral

Schlag auf Schlag geht es weiter bei den LLMs und nach Llama 3.1 folgt Mistral mit seinem Modell Mistral Large 2(2407). Es hat eine Kontextgröße von 128.000 und 123 Milliarden Parameter. Es soll effizient und schnell sein, ist aber mit ca. 5 €/Million Token nicht billig. Mistral zeigt in seinem Blogbeitrag auch Benchmarks und offenbart einige interessante Aspekte, wie die Mehrsprachigkeit und die Fähigkeit, Anweisungen zu folgen. In beiden Bereichen schneidet Mistral Large 2 gut ab und kommt an GPT-4o oder Claude 3.5 Sonnet heran.

Quelle: Mistral

Besonderer Wert soll auf die Vermeidung von „Halluzinationen“ gelegt worden sein. Das Modell soll sogar darauf trainiert worden sein, vorsichtig und genau zu antworten und gegebenenfalls zuzugeben, wenn es eine Frage nicht beantworten kann.

Quelle: Mistral

Auch dieses Modell habe ich kurz getestet und muss sagen, dass es sich teilweise besser schlägt als Llama 3.1-405B. Eine Schwäche der Llama-Modelle zeigt sich hier besonders, sie sind nicht besonders gut im Folgen von Anweisungen. Dafür ist Large-2 aber auch nicht so gut im Reasoning und hat bei meinen Tests auch einfach Dinge übersetzt, die nicht übersetzt werden sollten (Funktion in TypeScript). Im Moment ist aber Claude 3.5 Sonnet mein Favorit, es ist einfach zuverlässig in der Ausgabe und vergleichsweise günstig. Was ist euer Favorit?

Angebot

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies