EDU-KI-RLP: Verfügbare KI-Modelle

🇫🇷 Mistral
Codestral 22B wurde von Mistral AI speziell für das Ziel der Code‑Vervollständigung entwickelt.
Es wurde mit mehr als 80 verschiedenen Programmiersprachen trainiert, darunter Python, SQL, Bash, C++, Java und PHP.
Es nutzt ein Kontextfenster von 32 k für die Bewertung großer Code‑Generierungen und lässt sich auf einer GPU unseres Clusters ausführen.
Open:
✅ Ja
Model‑ID:
codestral-22b
Wissensschwelle:
Ende 2021
Parameter:
22 Milliarden
Vorteile:
Programmieraufgaben
🇺🇸 Google
Gemma ist Googles Familie leichter, Open‑Weights‑Modelle, die mit derselben Forschung wie die kommerzielle Gemini‑Modellserie entwickelt wurden.
Gemma 3 27B Instruct ist recht schnell und dank seiner Unterstützung für Vision (Bildeingabe) eine hervorragende Wahl für alle möglichen Unterhaltungen.
Open:
✅ Ja
Model‑ID:
gemma-3-27b-it
Wissensschwelle:
März 2024
Parameter:
27 Milliarden
Vorteile:
Bildverarbeitung, großartige Gesamtleistung
Eingabe‑Typen:
Ausgabe‑Typen:
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
🇺🇸 OpenAI
Im August 2025 veröffentlichte OpenAI die gpt‑oss Modellreihe, bestehend aus zwei Open‑Weight‑LLMs, optimiert sind und in vielen Bereichen, einschließlich logischem Schließen und Werkzeuggebrauch, State‑of‑the‑Art‑Leistung bieten.
Laut OpenAI erreicht das Modell gpt‑oss‑120b eine nahezu gleichwertige Leistung zu OpenAI o4‑mini bei den Kern‑Benchmarks für logisches Schließen.
Open:
✅ Ja
Model‑ID:
openai-gpt-oss-120b
Wissensschwelle:
Juni 2024
Parameter:
120 Milliarden
Vorteile:
großartige Gesamtleistung, schnell
Eingabe‑Typen:
Ausgabe‑Typen:
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
Meta LLaMA 3.1 ist das leichtgewichtigste Modell mit der schnellsten Leistung und guten Ergebnissen in allen Benchmarks.
Es ist ausreichend für allgemeine Gespräche und Assistenz.
Open:
✅ Ja
Model‑ID:
meta-llama-3.1-8b-instruct
Wissensschwelle:
Dezember 2023
Parameter:
8 Milliarden
Vorteile:
schnelle Gesamtleistung
Eingabe‑Typen:
Ausgabe‑Typen:
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
🇩🇪 VAGOsolutions x Meta
SauerkrautLM wurde von VAGOsolutions auf Llama 3.1 70B speziell für Prompt‑Eingaben auf Deutsch trainiert.
Open:
✅ Ja
Model‑ID:
llama-3.1-sauerkrautlm-70b-instruct
Wissensschwelle:
Dezember 2023
Parameter:
70 Milliarden
Vorteile:
Deutschkenntnisse
Eingabe‑Typen:
Ausgabe‑Typen:
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
Erreicht eine gute Gesamtleistung, vergleichbar mit GPT‑4, jedoch mit einem deutlich größeren Kontextfenster und einem neueren Wissenscut‑off.
Beste Leistungen im englischen Textverständnis und weiterem sprachlichen Schließen, wie Übersetzungen, dem Verstehen von Dialekten, Slang, umgangssprachlichen Ausdrücken und kreativem Schreiben.
Open:
✅ Ja
Model‑ID:
llama-3.3-70b-instruct
Wissensschwelle:
Dezember 2023
Parameter:
70 Milliarden
Vorteile:
gute Gesamtleistung, Argumentation und kreatives Schreiben
Eingabe‑Typen:
Ausgabe‑Typen:
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
🇺🇸 Google
MedGemma 27B Instruct ist eine Variante von Gemma 3, die für medizinische Texte und Bildverständnis geeignet ist.
Sie wurde auf einer Vielzahl medizinischer Bilddaten trainiert, darunter Röntgenaufnahmen des Brustkorbs, dermatologische Bilder, ophthalmologische Bilder und Histopathologie‑Folien, sowie auf medizinischen Texten wie Frage‑Antwort‑Paaren und FHIR‑basierten elektronischen Gesundheitsakten.
MedGemma‑Varianten wurden anhand verschiedener klinisch relevanter Benchmarks ausgewertet, um ihre Grundleistung zu illustrieren.
Open:
✅ Ja
Model‑ID:
medgemma-27b-it
Wissensschwelle:
März 2024
Parameter:
27 Milliarden
Vorteile:
Bildverarbeitung, medizinisches Wissen
Eingabe‑Typen:
Ausgabe‑Typen:
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
🇫🇷 Mistral
Entwickelt von Mistral AI, ist Mistral Large Instruct 2407 ein dichtes Sprachmodell mit 123 B Parametern.
Es erzielt hervorragende Benchmark‑Ergebnisse in den Bereichen allgemeine Leistung, Code und logisches Schließen sowie Befolgung von Anweisungen.
Es ist zudem multilingual und unterstützt viele europäische und asiatische Sprachen.
Open:
✅ Ja
Model‑ID:
mistral-large-instruct
Wissensschwelle:
Juli 2024
Parameter:
k.A.
Vorteile:
gute Gesamtleistung, Programmierung und mehrsprachige Argumentation
Eingabe‑Typen:
Ausgabe‑Typen:
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
🇨🇳 Alibaba Cloud
Qwen 2.5 Coder 32B Instruct ist ein speziell für Code entwickeltes LLM, das auf Qwen 2.5 basiert.
Es erzielt einen der höchsten Werte bei Code‑bezogenen Aufgaben, vergleichbar mit OpenAIs GPT‑4o, und wird für Code‑Generierung, Code‑Logik und Code‑Fehlerbehebung empfohlen.
Open:
✅ Ja
Model‑ID:
qwen2.5-coder-32b-instruct
Wissensschwelle:
September 2024
Parameter:
32 Milliarden
Vorteile:
Programmieraufgaben
Eingabe‑Typen:
Ausgabe‑Typen:
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
🇨🇳 Alibaba Cloud
Ein leistungsfähiges Vision‑Language‑Model (VLM) mit konkurrenzfähiger Leistung bei sowohl Sprach‑ als auch Bildverständnisaufgaben.
Open:
✅ Ja
Model‑ID:
qwen2.5-vl-72b-instruct
Wissensschwelle:
September 2024
Parameter:
72 Milliarden
Vorteile:
Bildverarbeitung, mehrsprachig
Eingabe‑Typen:
Ausgabe‑Typen:
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
🇨🇳 Alibaba Cloud
Qwen 3 32B ist ein großes, dichtes Modell, das von Alibaba Cloud entwickelt und im April 2025 veröffentlicht wurde.
Es unterstützt logisches Schließen und übertrifft oder ist zumindest auf Augenhöhe mit anderen hochmodernen Reasoning‑Modellen wie OpenAI o1 und DeepSeek R1.
Open:
✅ Ja
Model‑ID:
qwen3-32b
Wissensschwelle:
September 2024
Parameter:
32 Milliarden
Vorteile:
gute Gesamtleistung, mehrsprachig, globale Angelegenheiten, Logik
Eingabe‑Typen:
Ausgabe‑Typen:
Reasoning / Denken:
Ja
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
🇨🇳 Alibaba Cloud
Entwickelt von Alibaba Cloud, ist QwQ das Reasoning‑Modell der Qwen‑LLM‑Serie.
Im Vergleich zu nicht‑Reasoning‑Qwen‑Modellen erzielt es deutlich höhere Leistungen bei Aufgaben, die Problemlösung erfordern.
QwQ 32B ist leichter und schneller als DeepSeek R1 und OpenAIs o1, erreicht jedoch vergleichbare Leistungen.
Open:
✅ Ja
Model‑ID:
qwq-32b
Wissensschwelle:
September 2024
Parameter:
32 Milliarden
Vorteile:
gute Gesamtleistung, Reasoning, Problemlösung
Einschränkungen:
politische Vorurteile
Eingabe‑Typen:
Ausgabe‑Typen:
Reasoning / Denken:
Ja
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
OpenGPT‑X ist ein Forschungsprojekt, das vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) gefördert und von Fraunhofer, dem Forschungszentrum Jülich, der TU Dresden und dem DFKI geleitet wird.
Teuken\u200f7B\u200fInstruct\u200fResearch\u200fv0.4 ist ein instruktion‑feinabgestimmtes, multilingual‑LLM mit 7\u200fB Parametern, das mit 4\u200fT Tokens vortrainiert wurde und darauf abzielt, alle 24 EU‑Sprachen abzudecken und europäische Werte widerzuspiegeln.
Open:
✅ Ja
Model‑ID:
teuken-7b-instruct-research
Wissensschwelle:
September 2024
Parameter:
7 Milliarden
Vorteile:
europäische Sprachen
Eingabe‑Typen:
Ausgabe‑Typen:
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
🇨🇭 Swiss AI
Apertus von Swiss AI ist ein vollständig open-source Sprachmodell, das über 1000 Sprachen unterstützt. Es wurde auf 15T Tokens trainiert und nutzt eine neue xIELU-Aktivierungsfunktion.
Open:
✅ Ja
Model‑ID:
apertus-70b-instruct-2509
Wissensschwelle:
April 2024
Parameter:
70 Milliarden
Vorteile:
fully open-source, mehrsprachig
Eingabe‑Typen:
Ausgabe‑Typen:
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
🇸🇬 Z.ai
GLM-4.7 von Z.ai ist ein leistungsstarkes Sprachmodell mit starken Fähigkeiten im Programmieren, komplexem Denken und Tool-Nutzung. Es bietet verbessertes UI-Design und unterstützt Interleaved Thinking sowie Preserved Thinking.
Open:
✅ Ja
Model‑ID:
glm-4.7
Wissensschwelle:
April 2025
Parameter:
k.A.
Vorteile:
great performance
Eingabe‑Typen:
Ausgabe‑Typen:
Reasoning / Denken:
Ja
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
🇨🇳 OpenGVLab
InternVL 3.5 von OpenGVLab ist ein Open-Source-Multimodalmodell mit visionfähigkeiten. Es nutzt Cascade Reinforcement Learning und einen Visual Resolution Router für bessere Leistung und 4x Inference-Geschwindigkeit.
Open:
✅ Ja
Model‑ID:
internvl3.5-30b-a3b
Wissensschwelle:
August 2025
Parameter:
30 Milliarden
Vorteile:
Bildverarbeitung, leichtgewichtig, schnell
Eingabe‑Typen:
Ausgabe‑Typen:
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
🇨🇳 Alibaba Cloud
Qwen 3 VL von Alibaba Cloud ist ein leistungsstarkes Vision-Language-Modell mit GUI-Interaktion, Video-Verständnis und erweiterter OCR in 32 Sprachen. Es unterstützt einen nativen 256K Kontext.
Open:
✅ Ja
Model‑ID:
qwen3-vl-30b-a3b-instruct
Wissensschwelle:
März 2025
Parameter:
30 Milliarden
Vorteile:
Bildverarbeitung
Eingabe‑Typen:
Ausgabe‑Typen:
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
🇨🇳 Alibaba Cloud
Qwen 3 Omni von Alibaba Cloud ist ein nativ end-to-end multimodales Modell, das Text, Bilder, Audio und Video verarbeitet und Echtzeit-Streaming-Antworten in Text und Sprache liefert. Es unterstützt 119 Text- und mehrere Sprachen für Audio-Eingabe/Ausgabe.
Open:
✅ Ja
Model‑ID:
qwen3-omni-30b-a3b-instruct
Wissensschwelle:
März 2025
Parameter:
30 Milliarden
Vorteile:
multimodal
Eingabe‑Typen:
Ausgabe‑Typen:
Auslastung (0-5):
Status:
Aktualisiert:
15.12.2025 • 19:20 Uhr
🇺🇸 OpenAI
Open:
🔒 Nein
Wissensschwelle:
Juni e 2024
Parameter:
k.A.
Vorteile:
gute Gesamtleistung
Einschränkungen:
veraltet
🇺🇸 OpenAI
Open:
🔒 Nein
Wissensschwelle:
Juni e 2024
Parameter:
k.A.
Vorteile:
schnelle Gesamtleistung
Einschränkungen:
veraltet
🇺🇸 OpenAI
Open:
🔒 Nein
Wissensschwelle:
Oktober 2023
Parameter:
k.A.
Vorteile:
gute Gesamtleistung, Bildverarbeitung
Einschränkungen:
veraltet
🇺🇸 OpenAI
Open:
🔒 Nein
Wissensschwelle:
Oktober 2023
Parameter:
k.A.
Vorteile:
schnelle Gesamtleistung, Bildverarbeitung
Einschränkungen:
veraltet
🇺🇸 OpenAI
Open:
🔒 Nein
Wissensschwelle:
Juni 2024
Parameter:
k.A.
Vorteile:
beste Gesamtleistung, Reasoning, Bildverarbeitung
🇺🇸 OpenAI
Open:
🔒 Nein
Wissensschwelle:
Juni 2024
Parameter:
k.A.
Vorteile:
großartige Gesamtleistung, Bildverarbeitung
🇺🇸 OpenAI
Open:
🔒 Nein
Wissensschwelle:
Juni 2024
Parameter:
k.A.
Vorteile:
schnelle Gesamtleistung, Bildverarbeitung
🇺🇸 OpenAI
Open:
🔒 Nein
Wissensschwelle:
Juni 2024
Parameter:
k.A.
Vorteile:
schnellest overall performance, Bildverarbeitung
🇺🇸 OpenAI
Open:
🔒 Nein
Wissensschwelle:
Oktober 2023
Parameter:
k.A.
Vorteile:
gute Gesamtleistung, Reasoning, Bildverarbeitung
Einschränkungen:
veraltet
🇺🇸 OpenAI
Open:
🔒 Nein
Wissensschwelle:
Oktober 2023
Parameter:
k.A.
Vorteile:
schnelle Gesamtleistung, Reasoning
Einschränkungen:
veraltet