KI-Sprachmodelle

ZIM HilfeWiki - das Wiki
Version vom 4. September 2025, 07:56 Uhr von Andig (Diskussion | Beiträge)

(Unterschied) ← Nächstältere Version | Bestätigte Version (Unterschied) | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)

Allgemeine Informationen
Information
Informationen
BetriebssystemAlle
ServiceKI
Interessant fürStudierende und Angestellte
HilfeWiki des ZIM der Uni Paderborn

no displaytitle found: KI-Sprachmodelle

KI-Sprachmodelle sind ein wesentlicher Bestandteil moderner künstlicher Intelligenz und finden Anwendung in verschiedensten Bereichen, von der automatisierten Textverarbeitung bis hin zu interaktiven Dialogsystemen. Diese Modelle sind darauf trainiert, menschliche Sprache zu verstehen und zu verarbeiten, und ermöglichen es Maschinen, menschenähnliche Texte zu generieren und zu analysieren.

Open-Source-Sprachmodelle[Bearbeiten | Quelltext bearbeiten]

Open-Source-Sprachmodelle bieten eine breite Palette von Stärken, die für unterschiedliche Anwendungen optimiert sind. Hier sind einige Beispiele für solche Modelle und ihre spezifischen Vorteile:

  • Metas Llama 3.1 8B Instruct: Dieses entwickelte Modell ist bekannt für seine hohe Geschwindigkeit und allgemeine Leistungsfähigkeit. Es eignet sich hervorragend für Anwendungen, die schnelle und präzise Antworten erfordern.
  • DeepSeek R1: Besonders stark im Bereich des Reasonings und der Problemlösung. Dieses Modell aus China kann komplexe logische Schlussfolgerungen ziehen und zeigt eine hohe Performance in anspruchsvollen kognitiven Aufgaben, allerdings mit einer Tendenz zu politischem Bias.
  • Google Gemma: Verschiede Sprachmodelle unterschiedlicher Größe für Arbeiten mit Texten, Modelle für Bildererkennungen (Vision) und Modelle zur Codegenerierung. Die Modelfamilie ist die quelloffene Alternative der Gemini-Modelle.

Die Stärke von Open-Source-Sprachmodellen liegt oft in ihrer Anpassungsfähigkeit und der Unterstützung durch eine große Community, die kontinuierlich zur Verbesserung und Weiterentwicklung dieser Modelle beiträgt.

Proprietäre Sprachmodelle[Bearbeiten | Quelltext bearbeiten]

Neben den öffentlich zur Verfügung stehenden Sprachmodellen, gibt es proprietäre Sprachmodelle wie OpenAIs GPT- oder Omni-Modelfamilie. Diese werden von Unternehmen kommerziell betrieben oder mit Lizenzen kontrolliert. Ein lokales Angebot ist daher meist nicht umsetzbar. Einige bekannte Unternehmen und deren KI-Modelle sind:

Es gibt allerdings auch Modelle dieser Provider die Open-Source gestellt wurden. So ist Mistrals Small- und Research-Modelle oder OpenAIs Whisper-Model zu erwähnen.

Welche Sprachmodelle stehen mir an der Universität zur Verfügung?[Bearbeiten | Quelltext bearbeiten]

Unser Angebot umfasst eine Vielzahl an Open-Source-Modellen, die von der GWDG/KISSKI betrieben werden. Zusätzlich bieten wir Zugang zu den bekannten KI-Modelle von OpenAI. Die Auswahl wird stetig um neu veröffentliche Modelle erweitert und veraltete Modelle werden entfernt. Sie können die Modelle über die Chat-Oberfläche https://ai-chat.upb.de nutzen (Hinweise zur Chat-Anwendung) oder mittels eines API-Keys über das Gateway der Universität.

Allrounder / Große Sprachmodelle (LLMs)[Bearbeiten | Quelltext bearbeiten]

Im Vergleich zu spezialisierten Modellen für Aufgaben wie Bilderkennung, Programmiersprachen, Schlussfolgerungen oder (Fremd-)Sprachen sind die Modelle in der Kategorie "Allrounder" für all diese Aufgaben ein gutes Mittel. Die meisten Allrounder sind auf ausreichenden Trainingsdaten für verschiedene Sprachen trainiert. Wenn allerdings z.B. vertieftes Wissen oder ein umfangreicher Wortschatz einer Sprache benötigt wird, schneiden die Allrounder oft schlechter im Vergleich zu Experten-Modellen ab, welches auf einen größeren Korpus für die ausgewählte Sprache oder Aufgabe trainiert wurde. Die folgende Liste der Allrounder-Sprachmodelle ist nach dem Datum der Veröffentlichung sortiert. Mit einem Klick auf den Model-Bezeichner können Sie den AI-Chat direkt öffnen und das Model testen:

GPT-5

OpenAIs aktuelles GPT-Modell ist GPT-5 und vereint eine Serie von Modellen. Anfragen werden intern an ein Mini-, Nano-, Large- oder Reasoning-Modell versendet. Dieses Vorgehen soll die Entscheidung und Komplexität für Nutzende entlasten. In der Vergangenheit führte die fehlende Transparenz und Steuerung aber auch zu Kritik an der Qualität der Dialoge, da nun nicht immer das große Sprachmodell verwendet wurde. Weiterhin sind auch ältere Modelle der GPT-4.1 und GPT-4o Serie verfügbar.


Version: gpt-5-chat-latest

Veröffentlicht: August 2025

Unterstützte Sprachen: Multilingual mit "mehr als 80 Sprachen, darunter Englisch, Spanisch, Französisch, Deutsch, Chinesisch, Japanisch, Arabisch und viele mehr."

Wissensstand: September 2024


Quelle: openai.com

Qwen 3 (Non-Reasoning)

Das Qwen 3 Modell ist eigentlich ein Reasoning-Model, verfügt allerdings über eine "Non-Reasoning" Anweisung. Die zugrunde liegende Architektur des Models ändert sich dabei nicht, aber ermöglicht es das Model anzuweisen ohne "Thinking"-Iterationen zu arbeiten und stattdessen direkt eine Antwort zu generieren. Das erlaubt es Nutzende möglichst schnell Texte zu generieren und das Model auch für einfache Aufgaben ohne benötigte Schlussfolgerungen zu nutzen.


Version: Qwen3-32B

Veröffentlicht: April 2025

Unterstützte Sprachen: Multilingual mit "Unterstützung für über 119 Sprachen und Dialekte, darunter Indoeuropäisch, Sinotibetisch, Afroasiatisch, Austronesisch, Dravidisch, Turksprachen, Tai-Kadai, Uralisch, Austroasiatisch und Andere."

Wissensstand: September 2024


Quellen: huggingface.co/qwen, qwenlm.github.io

Gemma 3

Die Modell-Serie Gemma ist die Open-Source Variante der Gemini-Reihe von Google. Zu betonen ist dass das Open-Source-Modell von der GWDG/KISSKI betrieben wird und damit kein Datenfluss zu Google besteht. Im Vergleich dazu, können die Gemini-Modelle, welche nicht Open-Source sind, leider nicht von der GWDG/KISSKI betrieben werden.


Version: Gemma 3 27B Instruct

Veröffentlicht: März 2025

Unterstützte Sprachen: Multilingual. "Unterstützung für über 140 Sprachen" *

Wissensstand: August 2024


Quellen: ai.google.dev/gemma, huggingface.co/google

Qwen 2.5

Die open-source Qwen-Modellserie wird von Alibaba Cloud entwickelt. Neben den LLM-Varianten gibt es weitere Experten-Modelle als Coding- und Math-Modell (Qwen-Coder und Qwen-Math), sowie multimodale Modelle (Qwen-VL und Qwen-Audio).


Version: Qwen2.5-72B-Instruct

Veröffentlicht: September 2024

Unterstützte Sprachen: Multilingual mit "Unterstützung für über 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und weitere."

Wissensstand: September 2024


Quellen: huggingface.co/qwen, qwenlm.github.io

Llama 3.3

Meta - der Mutterkonzern hinter Facebook und Instagram - entwickelt die bekannten Open-Source Llama Modelle. Neuere Modelle wie das Llama 4 Model sind leider unter einer Lizenz veröffentlicht worden, welche es nicht erlaubt diese in der EU zu betreiben. Meta stellt sich damit gegen die Entwicklungen innerhalb der EU und Regulierungen. Das Angebot der Hochschule ist daher auf das ältere Model Llama 3.3 begrenzt.


Version: Llama 3.3 70B

Veröffentlicht: Dezember 2024

Unterstützte Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch.

Wissensstand: Dezember 2023


Quellen: github.com/meta-llama, huggingface.co/meta-llama

Mistral Large 2

Das französische Unternehmen "Mistral" wird in den Medien oft als die europäische Lösung betitelt, welche mit den großen Sprachmodellen der amerikanischen Konkurrenten mithalten kann. Durch den Unternehmenssitz innerhalb der EU, ist es im Vergleich zu anderen Anbietern in den USA, regulierter. Folglich sind Angaben zu Trainings-Daten und der Umgang mit Lizenzen freundlicher gegenüber EU-Verordnungen und -Richtlinien.

Hier muss allerdings unterschieden werden, dass es nur um die Entwicklung der Modelle und damit um Fragen geht, wie die Transparenz der Traningsdaten. Betrieben werden aber alle Modelle im Angebot mit der Kennzeichnung "GWDG" im KISSKI-Rechenzentrum. Im Vergleich zur Nutzung von Produkten wie ChatGPT, fließen bei der Nutzung des AI-Chats und den GWDG-Modellen also keine Daten in die USA.


Version: Mistral Large 2407

Veröffentlicht: Juli 2024

Unterstützte Sprachen: Französisch, Deutsch, Spanisch, Italienisch, Niederländisch, Portugiesisch, Russisch, Koreanisch, Japanisch, Chinesisch.

Wissensstand: Juli 2024


Quellen: huggingface.co/mistralai, docs.mistral.ai, Mistral Blog Release

Schlussfolgernde Sprachmodelle / Reasoning-Models (LRMs)[Bearbeiten | Quelltext bearbeiten]

Reasoning oder Schlussfolgerungsfähigkeit ist ein entscheidender Aspekt moderner KI-Sprachmodelle. Diese Fähigkeit erlaubt es Sprachmodellen, ausgiebige logische Zusammenhänge zu erkennen und komplexe kontextbezogene Schlussfolgerungen zu ziehen. Modelle wie DeepSeek R1 und GPT o4-mini sind z.B. dafür bekannt, fortschrittliche Reasoning-Qualitäten zu besitzen, die sie in Anwendungen wie juristische Analysen oder interaktive Lernsysteme besonders nützlich machen.

GPT OSS

OpenAI hat neben den proprietären Modellen auch Open-Source Modelle veröffentlicht. Zuletzt sind dies die Modelle GPT-OSS 20B und GPT-OSS 120B. Letzteres kann im Angebot der Hochschule verwendet werden. Zu betonen ist dass das Open-Source-Modell von der GWDG/KISSKI betrieben wird und damit kein Datenfluss zu OpenAI besteht. Im Vergleich zu Modellen wie GPT-5 oder o4, welche nicht Open-Source sind, können diese leider nicht von der GWDG/KISSKI betrieben werden.


Version: GPT OSS 120B

Veröffentlicht: August 2025

Wissensstand: Juni 2024


Quellen: openai.com, huggingface.co/openai

Qwen 3

Die Qwen3-Modellserie ist laut dem Entwicklerteam (Alibaba Cloud) vergleichbar mit den Modellen DeepSeek R1, OpenAIs o1 und o3-mini, Grok-3 und Googles Gemini 2.5 Pro. Im Angebot der GWDG stehen dabei zwei Varianten. Wobei das Model Qwen 3 32B auch mit einer Non-Reasoning-Option genutzt werden kann (Siehe Allrounder).


Zwei Varianten:


Qwen 3 32B

Version: Qwen3-32B

Veröffentlicht: April 2025

Unterstützte Sprachen: Multilingual mit "Unterstützung für über 119 Sprachen und Dialekte, darunter Indoeuropäisch, Sinotibetisch, Afroasiatisch, Austronesisch, Dravidisch, Turksprachen, Tai-Kadai, Uralisch, Austroasiatisch und Andere."

Wissensstand: September 2024


Quellen: huggingface.co/qwen, qwenlm.github.io


Qwen 3 235B A22B

Neben der Parameter-Angabe von 235B (engl.) "billion" - Gibt der Bezeichner "A22B" die Anzahl der aktivierten Parameter an.


Version: Qwen3-235B-A22B-Thinking-2507

Veröffentlicht: April 2025

Unterstützte Sprachen: Multilingual mit "Unterstützung für über 119 Sprachen und Dialekte, darunter Indoeuropäisch, Sinotibetisch, Afroasiatisch, Austronesisch, Dravidisch, Turksprachen, Tai-Kadai, Uralisch, Austroasiatisch und Andere."

Wissensstand: April 2025


Quellen: huggingface.co/qwen, qwenlm.github.io

o4-mini

Das Model o4 ist OpenAIs älteres Reasoning-Model vor der GPT-5-Serie. OpenAI bezeichnet GPT-5-mini als Nachfolger.


Version: o4-mini

Veröffentlicht: April 2025

Wissensstand: Juni 2024


Quelle: openai.com

Qwen QwQ

QwQ is ein weiteres Reasoning-Model des Qwen-Teams (Alibaba Cloud). Verfolgte dabei aber im Vergleich der Qwen3-Modelle einen anderen Ansatz. Qwen vergleicht die Performance selbst mit den Modellen DeepSeek R1 und OpenAIs o1-mini. Nach Veröffentlichung der Qwen3-Serie bewerten das Team das QwQ-Model allerdings als "übertroffen".


Version: QwQ 32B

Veröffentlicht: März 2025

Unterstützte Sprachen: Multilingual mit "Unterstützung für über 119 Sprachen und Dialekte, darunter Indoeuropäisch, Sinotibetisch, Afroasiatisch, Austronesisch, Dravidisch, Turksprachen, Tai-Kadai, Uralisch, Austroasiatisch und Andere."

Wissensstand: September 2024


Quellen: huggingface.co/qwen, qwenlm.github.io

o3-mini

Das kleine Model des o3-Reasoning-Models von OpenAI.


Version: o3-mini

Veröffentlicht: Januar 2025

Wissensstand: Oktober 2023


Quelle: openai.com

DeepSeek R1

Das Reasoning-Model DeepSeek vom gleichnamigen chinesischen Unternehmen, hatte zur Veröffentlichung Wellen in den Medien geschlagen. Grund war der Vorwurf von politischem Bias und Zensur. Das Modell R1 wurde mittlerweile auf die Version R1-0528 aktualisiert und vergleicht sich mit Modellen wie Qwen3, OpenAIs o3 und Googles Gemini 2.5 Pro.


Version: DeepSeek R1 0528

Veröffentlicht: Dezember 2024

Unterstützte Sprachen: Englisch, ...

Wissensstand: Dezember 2023


Quelle: huggingface.co/deepseek-ai


DeepSeek R1 Distill Llama 70B

Diese Distill-Modellvariante setzt als Basis-Model Metas Llama 3.3 70B ein und wurde durch das Model DeepSeek R1 weiter trainiert.


Version: DeepSeek R1 Distill Llama 70B

Veröffentlicht: Dezember 2024

Wissensstand: Dezember 2023


Quelle: huggingface.co/deepseek-ai

Bilderkennung / Vision-Models[Bearbeiten | Quelltext bearbeiten]

Neben bildgenerierenden Modellen in Form von Text-zu-Bild oder Bild-zu-Bild, gibt es auch den Anwendungsfall Bild-zu-Text. KI-Modelle mit der sog. Vision-Fähigkeit sind in der Lage Bilder (+ Instruktionen) als Eingabe zu verarbeiten und Fragen oder Aufgaben in Text-Form zu beantworten. Diese Modelle können z.B. zum Generieren von Bildbeschreibungen genutzt werden, Analysen des Bildes welche für den Nutzenden ohne Hintergrundwissen nicht beantwortet werden können, Kategorisierung/Labeling von Bildern, extrahieren von sichtbaren Informationen aus dem Bild, und vieles mehr.

Qwen 2.5 VL InternVL 2.5
Gemma 3 GPT-4.1 mini

Programmierung / Coding[Bearbeiten | Quelltext bearbeiten]

Auch Programmiersprachen lassen sich trainieren und damit als Unterstützung in der Software-Entwicklung nutzen. Vor allem im Bereichen der Code-Generierung, Code-Reasoning, Fehlerbehebung und Coding-Agenten.

Qwen 2.5 Coder

Das Model wurde von Alibaba Cloud entwickelt und für über 40 Programmiersprachen spezialisiert, wie Coffee, Groovy, Swift, Json, C#, Kotlin, Rust, Java, VB, Haskell, R, Shell, Julia, PHP, Scheme, F#, Python, JS, Ruby, Scala, AWK, C, C++, Go, Lua, Racket, TS, Clisp, Elixir, Fortran, Perl, Elisp, Pascal, Tcl, VimL, Erlang, Dart und HTML.

Version: Qwen 2.5 Coder 32B

Veröffentlicht: November 2024

Wissensstand: September 2024


Quellen: huggingface.co/qwen, qwenlm.github.io

Codestral

Das Model wurde von Mistral entwickelt und für über 80 Programmiersprachen spezialisiert, wie Python, Java, C, C++, JavaScript und Bash.


Version: Codestral 22B v0.1

Veröffentlicht: Dezember 2024

Wissensstand: Ende 2021


Quelle: huggingface.co/mistralai

Aufgabenmodelle / Task-Models[Bearbeiten | Quelltext bearbeiten]

Kleine Aufgaben wie z.B. einen Titel für einen Chat zu generieren, werden oft von den kleinen Varianten der großen Sprachmodelle übernommen. Diese sind für die Aufgabe völlig ausreichend und verbrauchen weniger Ressourcen. Damit sind sie oft auch günstiger und schneller als die Verwendung der großen Sprachmodelle. Wie groß Sprachmodelle sind, kann anhand von Bezeichnern wie "mini" und "nano" oder der "Billion-Parameter" im Modelnamen eingeschätzt werden. Beispiele sind "Llama 3.1 8B" gegenüber "Llama 3.1 70B". Diese Zahl repräsentieren die Anzahl der "Einstellungen", die ein KI-Modell während des Trainingsprozesses lernt. Jeder Parameter kann als ein kleiner Baustein betrachtet werden, welches das Modell verwendet, um bestimmte Aufgaben zu erfüllen. Ein Modell mit einer höheren Anzahl an Parametern ist oft leistungsfähiger und kann komplexere Muster erkennen. Allerdings bedeutet dies auch, dass das Modell größer ist und mehr Ressourcen benötigt, um effizient zu arbeiten. Wichtig zu beachten ist, dass mehr Parameter nicht immer gleichbedeutend mit "besser" ist. Die Qualität eines Modells hängt stark vom spezifischen Einsatzkontext ab.

Llama 3.1 8B GPT-4.1 mini GPT-4o mini

Spezialisierte Modelle[Bearbeiten | Quelltext bearbeiten]

Welches Modell sollte ich nutzen?[Bearbeiten | Quelltext bearbeiten]

Die Wahl des passenden Sprachmodells hängt stark vom Anwendungsfall ab. Es gibt nicht das eine "beste" Modell, sondern vielmehr verschiedene Stärken und Schwächen, die je nach Bedarf unterschiedlich ins Gewicht fallen.

Allrounder oder spezialisierte Modelle?[Bearbeiten | Quelltext bearbeiten]

Allrounder sind vielseitig einsetzbar und eignen sich für Nutzer*innen, die flexibel mit vielen unterschiedlichen Aufgaben arbeiten wollen. Spezialisierte Modelle sind auf konkrete Aufgaben trainiert, etwa Programmierung, juristische Texte oder medizinische Fachsprache. Sie erzielen in diesen Nischen oft deutlich präzisere Ergebnisse, sind aber weniger universell einsetzbar. Wenn das Einsatzgebiet klar umrissen ist, kann ein spezialisiertes Modell besser passen. Für wechselnde oder schwer vorhersehbare Anforderungen sind Allrounder meist die bessere Wahl.

Ranglisten, Benchmarks und Scoring[Bearbeiten | Quelltext bearbeiten]

Im Internet finden sich zahlreiche Ranglisten und Benchmarks, in denen Modelle anhand ihrer Leistung in Tests bewertet werden. Dabei gilt es zu beachten:

  • Hersteller veröffentlichen oft eigene Benchmarks, die ihre Modelle ins beste Licht rücken.
  • Keine Rangliste deckt alle möglichen Anwendungsfälle ab. Ein Modell, das in akademischen Tests hervorragend abschneidet, ist nicht zwingend das nützlichste im Arbeitsalltag.
  • Externe, unabhängige Vergleichsportale können einen neutraleren Überblick bieten, sind aber trotzdem nur Anhaltspunkte.
  • Es gibt viele verschiedene Listen, welche je nach Metrik oder Evaluierungsmethode unterschiedliche Top-3 Modelle auswählen.

Rankings sind nützlich für eine grobe Orientierung, ersetzen aber nicht eigene Tests mit den tatsächlichen Aufgaben, die gelöst werden sollen.

Das Modell selbst befragen und vergleichen[Bearbeiten | Quelltext bearbeiten]

Eine praktische Methode, um die Stärken eines bestimmten Sprachmodells zu verstehen, besteht darin, das Modell selbst zu befragen. Viele Modelle können Hinweise geben, worin ihre spezifischen Stärken und Schwächen liegen, wodurch Nutzer*innen sie effektiver für ihre Zwecke einsetzen können.

Ein praktischer Ansatz zur Auswahl des richtigen Modells ist der direkte Vergleich:

  1. Dieselbe Aufgabe mit verschiedenen Modellen bearbeiten lassen.
  2. Die Ergebnisse systematisch prüfen: Verständlichkeit, Genauigkeit, Stil, Relevanz.
  3. Abwägen, welches Modell dem gewünschten Standard am nächsten kommt.

Diese Art des Praxis-Tests ist oft hilfreicher als jede externe Bewertung, da sie an Ihre individuellen Anforderungen ausgerichtet sind.

Ai-chat-multi-model-selection.png

Die Chat-Oberfläche unterstützt Sie beim Vergleichen, indem Sie über das "+"-Symbol mehrere Modelle gleichzeitig auswählen können und die Antworten direkt im Vergleich sichtbar werden.

Siehe auch[Bearbeiten | Quelltext bearbeiten]


Bei Fragen oder Problemen können Sie uns zu unseren Servicezeiten telefonisch oder per E-Mail erreichen:

☎ Helpdesk: +49 (5251) 60-5544 ☎ Medien: +49 (5251) 60-2821 E-Mail: zim@uni-paderborn.de

Oder Sie besuchen uns vor Ort: Sie finden das Notebook-Café gemeinsam mit dem Servicecenter Medien in H1.201.

Servicezeiten

Mo - Do Fr
Vor-Ort-Support 08:30 - 16:00 08:30 - 14:00
Telefonsupport 08:30 - 16:00 08:30 - 14:00
Servicecenter Medien 08:30 - 16:00 08:30 - 14:00
Cookies helfen uns bei der Bereitstellung des ZIM HilfeWikis. Bei der Nutzung vom ZIM HilfeWiki werden die in der Datenschutzerklärung beschriebenen Cookies gespeichert.