Codestral 22B wurde von Mistral AI speziell für das Ziel der Code‑Vervollständigung entwickelt.
Es wurde mit mehr als 80 verschiedenen Programmiersprachen trainiert, darunter Python, SQL, Bash, C++, Java und PHP.
Es nutzt ein Kontextfenster von 32 k für die Bewertung großer Code‑Generierungen und lässt sich auf einer GPU unseres Clusters ausführen.
Gemma ist Googles Familie leichter, Open‑Weights‑Modelle, die mit derselben Forschung wie die kommerzielle Gemini‑Modellserie entwickelt wurden.
Gemma 3 27B Instruct ist recht schnell und dank seiner Unterstützung für Vision (Bildeingabe) eine hervorragende Wahl für alle möglichen Unterhaltungen.
Im August 2025 veröffentlichte OpenAI die gpt‑oss Modellreihe, bestehend aus zwei Open‑Weight‑LLMs, optimiert sind und in vielen Bereichen, einschließlich logischem Schließen und Werkzeuggebrauch, State‑of‑the‑Art‑Leistung bieten.
Laut OpenAI erreicht das Modell gpt‑oss‑120b eine nahezu gleichwertige Leistung zu OpenAI o4‑mini bei den Kern‑Benchmarks für logisches Schließen.
Meta LLaMA 3.1 ist das leichtgewichtigste Modell mit der schnellsten Leistung und guten Ergebnissen in allen Benchmarks.
Es ist ausreichend für allgemeine Gespräche und Assistenz.
Erreicht eine gute Gesamtleistung, vergleichbar mit GPT‑4, jedoch mit einem deutlich größeren Kontextfenster und einem neueren Wissenscut‑off.
Beste Leistungen im englischen Textverständnis und weiterem sprachlichen Schließen, wie Übersetzungen, dem Verstehen von Dialekten, Slang, umgangssprachlichen Ausdrücken und kreativem Schreiben.
Open:
✅ Ja
Model‑ID:
llama-3.3-70b-instruct
Wissensschwelle:
Dezember 2023
Parameter:
70 Milliarden
Vorteile:
gute Gesamtleistung, Argumentation und kreatives Schreiben
MedGemma 27B Instruct ist eine Variante von Gemma 3, die für medizinische Texte und Bildverständnis geeignet ist.
Sie wurde auf einer Vielzahl medizinischer Bilddaten trainiert, darunter Röntgenaufnahmen des Brustkorbs, dermatologische Bilder, ophthalmologische Bilder und Histopathologie‑Folien, sowie auf medizinischen Texten wie Frage‑Antwort‑Paaren und FHIR‑basierten elektronischen Gesundheitsakten.
MedGemma‑Varianten wurden anhand verschiedener klinisch relevanter Benchmarks ausgewertet, um ihre Grundleistung zu illustrieren.
Entwickelt von Mistral AI, ist Mistral Large Instruct 2407 ein dichtes Sprachmodell mit 123 B Parametern.
Es erzielt hervorragende Benchmark‑Ergebnisse in den Bereichen allgemeine Leistung, Code und logisches Schließen sowie Befolgung von Anweisungen.
Es ist zudem multilingual und unterstützt viele europäische und asiatische Sprachen.
Open:
✅ Ja
Model‑ID:
mistral-large-instruct
Wissensschwelle:
Juli 2024
Parameter:
k.A.
Vorteile:
gute Gesamtleistung, Programmierung und mehrsprachige Argumentation
Qwen 2.5 Coder 32B Instruct ist ein speziell für Code entwickeltes LLM, das auf Qwen 2.5 basiert.
Es erzielt einen der höchsten Werte bei Code‑bezogenen Aufgaben, vergleichbar mit OpenAIs GPT‑4o, und wird für Code‑Generierung, Code‑Logik und Code‑Fehlerbehebung empfohlen.
Qwen 3 32B ist ein großes, dichtes Modell, das von Alibaba Cloud entwickelt und im April 2025 veröffentlicht wurde.
Es unterstützt logisches Schließen und übertrifft oder ist zumindest auf Augenhöhe mit anderen hochmodernen Reasoning‑Modellen wie OpenAI o1 und DeepSeek R1.
Entwickelt von Alibaba Cloud, ist QwQ das Reasoning‑Modell der Qwen‑LLM‑Serie.
Im Vergleich zu nicht‑Reasoning‑Qwen‑Modellen erzielt es deutlich höhere Leistungen bei Aufgaben, die Problemlösung erfordern.
QwQ 32B ist leichter und schneller als DeepSeek R1 und OpenAIs o1, erreicht jedoch vergleichbare Leistungen.
OpenGPT‑X ist ein Forschungsprojekt, das vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) gefördert und von Fraunhofer, dem Forschungszentrum Jülich, der TU Dresden und dem DFKI geleitet wird.
Teuken\u200f7B\u200fInstruct\u200fResearch\u200fv0.4 ist ein instruktion‑feinabgestimmtes, multilingual‑LLM mit 7\u200fB Parametern, das mit 4\u200fT Tokens vortrainiert wurde und darauf abzielt, alle 24 EU‑Sprachen abzudecken und europäische Werte widerzuspiegeln.
Apertus von Swiss AI ist ein vollständig open-source Sprachmodell, das über 1000 Sprachen unterstützt. Es wurde auf 15T Tokens trainiert und nutzt eine neue xIELU-Aktivierungsfunktion.
GLM-4.7 von Z.ai ist ein leistungsstarkes Sprachmodell mit starken Fähigkeiten im Programmieren, komplexem Denken und Tool-Nutzung. Es bietet verbessertes UI-Design und unterstützt Interleaved Thinking sowie Preserved Thinking.
InternVL 3.5 von OpenGVLab ist ein Open-Source-Multimodalmodell mit visionfähigkeiten. Es nutzt Cascade Reinforcement Learning und einen Visual Resolution Router für bessere Leistung und 4x Inference-Geschwindigkeit.
Qwen 3 VL von Alibaba Cloud ist ein leistungsstarkes Vision-Language-Modell mit GUI-Interaktion, Video-Verständnis und erweiterter OCR in 32 Sprachen. Es unterstützt einen nativen 256K Kontext.
Qwen 3 Omni von Alibaba Cloud ist ein nativ end-to-end multimodales Modell, das Text, Bilder, Audio und Video verarbeitet und Echtzeit-Streaming-Antworten in Text und Sprache liefert. Es unterstützt 119 Text- und mehrere Sprachen für Audio-Eingabe/Ausgabe.