Die KI-Toolbox ermöglicht allen Mitarbeitenden des KIT den Zugriff auf verschiedene lokale und externe Sprachmodelle (LLMs). Die Nutzung erfolgt über zwei getrennte Wege: eine Weboberfläche für interaktive Nutzung und eine Programmierschnittstelle (API) für die Integration in eigene Anwendungen.
Kontakt: ki-toolbox∂scc.kit.edu
Die Weboberfläche richtet sich an Nutzende ohne Programmierkenntnisse und eignet sich für explorative Aufgaben wie Texte generieren, zusammenfassen, übersetzen oder Fragen beantworten. Die API dient der Einbindung von LLM‑Funktionen in Skripte, Dienste oder automatisierte Workflows. Sie ist für wiederholbare, skalierbare oder batchweise Prozesse vorgesehen und setzt Programmierkenntnisse voraus.
Die KI-Toolbox wird im Rahmen der geltenden KIT‑Leitlinie betrieben. Je nach Modell werden Anfragen lokal oder extern verarbeitet. Das ist von den Nutzenden eigenverantwortlich zu berücksichtigen. Genaueres entnehmen Sie der Dienstebeschreibung des SCC unter dem Abschnitt "Datenkategorien, Schutzklassen und Modellwahl" in den Nutzungsbedingungen.
ⓘ Wir bieten regelmäßig begleitende Webinare zur Einführung, zu neuen Funktionen und zur Vertiefung einzelner Themen an.
Aktuelle Termine finden Sie im ZML-Veranstaltungskalender

Zugang
Aktuell ist die KI-Toolbox nur im KIT-Netz erreichbar:
Wenn Sie sich außerhalb des Campus-Netzwerks befinden (z.B. im Homeoffice), müssen Sie momentan eine aktive VPN-Verbindung zum KIT herstellen, um auf die Oberfläche zugreifen zu können.
ⓘ Beachten Sie, dass Sie die KI-Toolbox erst verwenden können, wenn Sie das KI-Kompetenzmodul auf KOALA erfolgreich abgeschlossen haben.

Anleitungen (PDF)
Für den Einstieg
Für Fortgeschrittene
- Anleitung: Arbeiten mit Dokumenten & Wissensbasis
- Anleitung: Einen eigenen Chatbot/Assistenten erstellen
- Anleitung: Ressourcen im Team teilen
Für Profis
Anmeldung
Alle KIT-Beschäftigten können sich mit ihrer KIT-ID und ihrem Passwort an der KI-Toolbox anmelden unter: https://ki-toolbox.scc.kit.edu/

ⓘ Wenn Sie sich außerhalb des Campusnetzes befinden (z.B. im Home Office), müssen Sie derzeit eine aktive VPN-Verbindung zum KIT aufbauen, um auf die Schnittstelle zugreifen zu können.
Bitte beachten Sie, dass Sie die KI-Toolbox erst nutzen können, wenn Sie das KI-Kompetenzmodul auf KOALA erfolgreich abgeschlossen haben. Der Zugang zur KI-Toolbox wird dann nach ca. 5 min freigeschaltet.
Chat starten
Im Eingabefenster können Sie Ihren Chat direkt mit einem der verfügbaren Sprachmodelle starten.
So erstellen Sie einen neuen Chat:
-
Sie können jederzeit über das Menü einen weiteren neuen Chat starten. Klicken Sie dazu auf die Schaltfläche "Neuer Chat" in der linken Seitenleiste. Das Hauptfenster wird geleert und ist bereit für Ihre Eingaben.
-
In der KI-Toolbox stehen Ihnen verschiedene Modelle zur Verfügung. Informationen zu den Stärken und Anwendungsfällen finden Sie neben dem jeweiligen Modell oder darunter.
-
Geben Sie nun Ihre Frage oder Anweisung in das Eingabefeld ein. Alternativ können Sie Ihre Frage auch diktieren, indem Sie auf das Mikrofonsymbol rechts neben dem Eingabefeld klicken. Drücken Sie anschließend die Eingabetaste oder klicken Sie auf den Sendepfeil. Die KI wird nun Ihre Anfrage bearbeiten und eine Antwort im Chatfenster generieren. Sie können den Dialog nach Belieben fortsetzen, indem Sie weitere Fragen stellen. Der Kontext der vorherigen Konversation bleibt dabei erhalten. Unterhalb des Eingabefeldes finden Sie zusätzliche Werkzeuge, die die Fähigkeiten der KI erweitern. Diese können je nach ausgewähltem Modell variieren.

Ein kurzer Überblick über die Funktionen (für weitere Informationen siehe unten oder in der Anleitung):
-
Erstellen und verwenden Sie Ihre eigenen Promptsammlungen (verfügbar im Chat über / ).
-
Speichern Sie Ihr eigenes Wissen in Form von Dateien und Texten (im Chat über # verfügbar).
-
Erstellen Sie Ihre eigenen Modelle und verknüpfen Sie diese mit Prompts und Wissen.
-
Spracheingabe und -ausgabe verwenden (siehe unten).
Überblick Modelle
| Wichtig: Personenbezogene Daten (Art. 4 Nr. 1 DSGVO) dürfen ausschließlich über die lokal am KIT gehosteten Modelle verarbeitet werden. Eine Verarbeitung personenbezogener Daten über die Modelle von Azure OpenAI ist untersagt. |
ⓘ Hinweis: Die aufgeführten Modelle in dieser Tabelle können sich ändern. Diese Liste ist möglicherweise nicht immer aktuell.
| Modell | Betriebsart | Intelligenz | Geschwindigkeit | Eingabe | Ausgabe | Herkunft | Preis pro 1M Tokens |
|---|---|---|---|---|---|---|---|
| standard-local* | Lokal (Personenbezogene Daten erlaubt) |
💡💡💡 | ⚡️⚡️⚡️⚡️ | Text | Text | SCC | interne Kosten |
| qwen3-vl:235b-a22b | Lokal (Personenbezogene Daten erlaubt) |
💡💡💡💡 | ⚡️⚡️⚡️ | Text/Bild | Text | Alibaba | interne Kosten |
| mixtral:8x22b | Lokal (Personenbezogene Daten erlaubt) |
💡💡💡 | ⚡️⚡️ | Text | Text | MistralAI | interne Kosten |
| gpt-oss:120b | Lokal (Personenbezogene Daten erlaubt) |
💡💡💡 | ⚡️⚡️⚡️⚡️ | Text | Text | OpenAI (lokal) | interne Kosten |
| kit.minimax-m2.1-229b | Lokal (Personenbezogene Daten erlaubt) |
💡💡💡💡 | ⚡️⚡️⚡️⚡️ | Text | Text | MiniMaxAI | interne Kosten |
| Standard-External* | Extern (keine personenbezogenen Daten erlaubt) |
💡💡💡 | ⚡️⚡️⚡️⚡️ | Text/Bild | Text | OpenAI | $0.25 in/$2 out |
| GPT-4.1 | Extern (keine personenbezogenen Daten erlaubt) |
💡💡💡💡 | ⚡️⚡️⚡️ | Text/Bild | Text | OpenAI | $2 in/$8 out |
| GPT-4.1 mini | Extern (keine personenbezogenen Daten erlaubt) |
💡💡💡 | ⚡️⚡️⚡️⚡️ | Text/Bild | Text | OpenAI | $0.40 in/$1.60 out |
| GPT-4.1 nano | Extern (keine personenbezogenen Daten erlaubt) |
💡💡 | ⚡️⚡️⚡️⚡️⚡️ | Text/Bild | Text | OpenAI | $0.10 in/$0.40 out |
| o3 | Extern (keine personenbezogenen Daten erlaubt) |
💡💡💡💡💡 | ⚡️ | Text/Bild | Text | OpenAI | $2 in/$8 out |
| o4-mini | Extern (keine personenbezogenen Daten erlaubt) |
💡💡💡💡 | ⚡️⚡️⚡️ | Text/Bild | Text | OpenAI | $1.10 in/$4.40 out |
| GPT-5 | Extern (keine personenbezogenen Daten erlaubt) |
💡💡💡💡 | ⚡️⚡️⚡️ | Text/Bild | Text | OpenAI | $1.25 in/$10 out |
| GPT-5 mini | Extern (keine personenbezogenen Daten erlaubt) |
💡💡💡 | ⚡️⚡️⚡️⚡️ | Text/Bild | Text | OpenAI | $0.25 in/$2 out |
| GPT-5 nano | Extern (keine personenbezogenen Daten erlaubt) |
💡💡 | ⚡️⚡️⚡️⚡️⚡️ | Text/Bild | Text | OpenAI | $0.05 in/$0.40 out |
| Microsoft Copilot (EDP) | Extern (keine personenbezogenen Daten erlaubt) |
Microsoft |
- Intelligenz: Je mehr 💡, desto „schlauer“ das Modell.
- Geschwindigkeit: Je mehr ⚡️, desto schneller liefert das Modell Ergebnisse.
- Preis: „in“ = hochladen/Verarbeitung, „out“ = Ausgabe/Antwort.
| Modellbeschreibungen |
| Qwen3-VL-235B-A22B | Qwen3-VL-235B-A22B Instruct ist ein offenes multimodales Modell, das starke Texterzeugung mit visuellem Verständnis über Bilder und Videos hinweg vereint. Das Instruct-Modell zielt auf die allgemeine Verwendung von Bildsprache ab (VQA, Dokumentenparsing, Extraktion von Diagrammen/Tabellen, mehrsprachige OCR). Die Serie legt den Schwerpunkt auf robuste Wahrnehmung (Erkennung verschiedener realer und synthetischer Kategorien), räumliches Verständnis (2D/3D-Erdung) und visuelles Langzeitverständnis, mit konkurrenzfähigen Ergebnissen bei öffentlichen multimodalen Benchmarks für Wahrnehmung und logisches Denken. Über die Analyse hinaus unterstützt Qwen3-VL die Interaktion mit Agenten und die Nutzung von Werkzeugen: Es kann komplexen Anweisungen in Dialogen mit mehreren Bildern und Drehungen folgen, Text an Videozeitlinien für präzise zeitliche Abfragen anpassen und GUI-Elemente für Automatisierungsaufgaben bedienen. Die Modelle ermöglichen auch visuelle Coding-Workflows - die Umwandlung von Skizzen oder Mockups in Code und die Unterstützung beim UI-Debugging - und bieten gleichzeitig eine starke reine Textleistung, die mit den Flaggschiff-Sprachmodellen von Qwen3 vergleichbar ist. Damit eignet sich Qwen3-VL für Produktionsszenarien, die KI für Dokumente, mehrsprachige OCR, Software/UI-Assistenz, räumliche/verkörperte Aufgaben und Forschung zu Vision-Language-Agents umfassen. |
|
Mixtral 8x22B |
Die offizielle, von Mistral beauftragte, fein abgestimmte Version des [Mixtral 8x22B](/models/mistralai/mixtral-8x22b). Es verwendet 39B aktive Parameter von 141B und bietet damit eine unvergleichliche Kosteneffizienz für seine Größe. Zu seinen Stärken gehören: - starke Mathematik, Kodierung und Argumentation - große Kontextlänge (64k) - fließende Beherrschung von Englisch, Französisch, Italienisch, Deutsch und Spanisch Siehe Benchmarks in der Ankündigung der Markteinführung [hier] (https://mistral.ai/news/mixtral-8x22b/). |
| gpt-oss:120b | gpt-oss-120b ist ein offenes, 117B-Parameter-Mixture-of-Experts (MoE)-Sprachmodell von OpenAI, das für High-Reasoning-, Agenten- und allgemeine Produktionsanwendungsfälle entwickelt wurde. Es aktiviert 5,1B Parameter pro Vorwärtsdurchlauf und ist für die Ausführung auf einer einzelnen H100 GPU mit nativer MXFP4-Quantisierung optimiert. Das Modell unterstützt eine konfigurierbare Argumentationstiefe, vollen Chain-of-Thought-Zugriff und die Verwendung nativer Tools, einschließlich Funktionsaufrufe, Browsing und strukturierte Ausgabegenerierung. |
|
MiniMax-M2.1 |
MiniMax-M2.1 ist ein leichtgewichtiges, hochmodernes Großsprachenmodell, das für die Codierung, agentenbasierte Arbeitsabläufe und moderne Anwendungsentwicklung optimiert ist. Mit nur 10 Milliarden aktivierten Parametern bietet es einen großen Sprung in der realen Welt, während es gleichzeitig außergewöhnliche Latenz, Skalierbarkeit und Kosteneffizienz beibehält. Im Vergleich zu seinem Vorgänger liefert M2.1 sauberere, präzisere Ausgaben und schnellere Reaktionszeiten. Mit 49,4 % im Multi-SWE-Bench und 72,5 % im SWE-Bench Multilingual zeigt er eine führende mehrsprachige Codierleistung in den wichtigsten Systemen und Anwendungssprachen und dient als vielseitiges Agenten-\"Gehirn\" für IDEs, Codierwerkzeuge und allgemeine Hilfsmittel. Um die Leistung dieses Modells nicht zu verschlechtern, empfiehlt MiniMax dringend, die Argumentation zwischen den einzelnen Runden beizubehalten. Erfahren Sie mehr über die Verwendung von reasoning_details zur Rückgabe von Argumenten in unseren [docs](https://openrouter.ai/docs/use-cases/reasoning-tokens#preserving-reasoning-blocks). |
|
GPT4.1 |
GPT-4.1 ist ein Flaggschiff unter den großen Sprachmodellen, das für fortgeschrittene Befehlsverfolgung, reales Software-Engineering und Long-Context-Reasoning optimiert ist. Es unterstützt ein Kontextfenster von 1 Million Token und übertrifft GPT-4o und GPT-4.5 in den Bereichen Codierung (54,6 % SWE-Bench Verified), Anweisungskonformität (87,4 % IFEval) und multimodales Verstehen von Benchmarks. Es ist auf präzise Code-Diffs, Agenten-Zuverlässigkeit und hohe Auffindbarkeit in großen Dokumentenkontexten abgestimmt, was es ideal für Agenten, IDE-Tools und Wissensabfragen in Unternehmen macht. |
|
GPT-4.1 mini |
GPT-4.1 Mini ist ein mittelgroßes Modell, das bei wesentlich geringerer Latenz und geringeren Kosten eine mit GPT-4o vergleichbare Leistung bietet. Es behält ein Kontextfenster von 1 Million Token bei und erzielt 45,1 % bei Hard Instruction Evals, 35,8 % bei MultiChallenge und 84,1 % bei IFEval. Mini zeigt auch starke Kodierfähigkeiten (z.B. 31,6 % bei Aiders polyglot diff benchmark) und ein gutes Verständnis für Visionen, was es für interaktive Anwendungen mit engen Leistungsbeschränkungen geeignet macht. |
| GPT-4.1 nano | Für Aufgaben, die eine niedrige Latenz erfordern, ist der GPT-4.1 nano das schnellste und günstigste Modell der GPT-4.1-Serie. Mit seinem 1-Millionen-Token-Kontextfenster liefert er außergewöhnliche Leistung bei geringer Größe und erzielt 80,1 % bei MMLU, 50,3 % bei GPQA und 9,8 % bei Aider Polyglot Coding - sogar mehr als der GPT-4o mini. Er ist ideal für Aufgaben wie Klassifizierung oder Autovervollständigung. |
| o3 | o3 ist ein vielseitiges und leistungsstarkes Modell für alle Bereiche. Es setzt neue Maßstäbe in den Bereichen Mathematik, Naturwissenschaften, Codierung und visuelles Denken. Es eignet sich auch hervorragend für technisches Schreiben und das Befolgen von Anweisungen. Verwenden Sie es, um mehrstufige Probleme zu durchdenken, die eine Analyse von Text, Code und Bildern erfordern. |
|
o4-mini |
OpenAI o4-mini ist ein kompaktes Reasoning-Modell der o-Serie, das für schnelle, kosteneffiziente Leistung optimiert ist und gleichzeitig starke multimodale und agentenbasierte Fähigkeiten aufweist. Es unterstützt den Einsatz von Werkzeugen und zeigt eine konkurrenzfähige Argumentations- und Codierungsleistung bei Benchmarks wie AIME (99,5% mit Python) und SWE-Bench, wobei es seinen Vorgänger o3-mini übertrifft und in einigen Bereichen sogar an o3 heranreicht. Trotz seiner geringeren Größe zeigt o4-mini eine hohe Genauigkeit bei MINT-Aufgaben, visuellem Problemlösen (z. B. MathVista, MMMU) und Codebearbeitung. Es eignet sich besonders gut für Szenarien mit hohem Durchsatz, bei denen Latenz oder Kosten kritisch sind. Dank seiner effizienten Architektur und seines ausgefeilten Reinforcement-Learning-Trainings kann o4-mini Werkzeuge verketten, strukturierte Ausgaben erzeugen und mehrstufige Aufgaben mit minimaler Verzögerung lösen - oft in weniger als einer Minute. |
|
GPT-5 |
GPT-5 ist das fortschrittlichste Modell von OpenAI und bietet erhebliche Verbesserungen in Bezug auf Denkfähigkeit, Codequalität und Benutzerfreundlichkeit. Es ist für komplexe Aufgaben optimiert, die schrittweises Denken, das Befolgen von Anweisungen und Genauigkeit in anspruchsvollen Anwendungsfällen erfordern. Sie unterstützt Funktionen für das Routing zur Testzeit und ein erweitertes Verständnis von Eingabeaufforderungen, einschließlich benutzerspezifischer Absichten wie z. B. \"Denken Sie gründlich darüber nach\". Zu den Verbesserungen gehören die Verringerung von Halluzinationen und Schleimerei sowie eine bessere Leistung beim Programmieren, Schreiben und bei gesundheitsbezogenen Aufgaben. |
|
GPT-5 mini |
GPT-5 Mini ist eine kompakte Version von GPT-5, die für die Bewältigung leichterer Rechenaufgaben entwickelt wurde. Es bietet dieselben Vorteile wie GPT-5 in Bezug auf die Befolgung von Anweisungen und die Sicherheitsabstimmung, jedoch mit geringerer Latenzzeit und geringeren Kosten. GPT-5 Mini ist der Nachfolger von OpenAIs o4-mini-Modell. |
|
GPT-5 nano |
GPT-5-Nano ist die kleinste und schnellste Variante des GPT-5-Systems, die für Entwicklerwerkzeuge, schnelle Interaktionen und Umgebungen mit extrem niedriger Latenz optimiert ist. Obwohl die Argumentationstiefe im Vergleich zu seinen größeren Pendants begrenzt ist, verfügt er über wichtige Befehlsfolge- und Sicherheitsfunktionen. Er ist der Nachfolger von GPT-4.1-nano und bietet eine leichtgewichtige Option für kostensensitive oder Echtzeitanwendungen. |
* Bei diesen Modellen ist ein angepasster Systemprompt hinterlegt:
-
Systemprompt standard.extern
-
Du bist **KIT‑Assistant**, offizieller KI‑Assistent des „Karlsruher Instituts für Technologie (KIT)“, der Universität in der Helmholtz‑Gemeinschaft. Deine Aufgabe ist es, **wohlformulierte, strukturierte und überprüfte Antworten** zu liefern, die den höchsten Qualitätsstandards entsprechen. Du antwortest immer in der explizit angeforderten Sprache, sonst in der Sprache der Nutzer‑Anfrage.
#### 🛠️ Interner Qualitäts‑Workflow (nicht sichtbar für den Nutzer)
1. **Rubrik erstellen** – Intern definierst du 5‑7 Kriterien, die ein exzellentes Ergebnis für die jeweilige Anfrage auszeichnen.
2. **Entwurf erstellen** – Auf Basis der Rubrik verfasst du einen ersten Antwortentwurf.
3. **Kritisieren & Verbessern** – Du bewertest den Entwurf kritisch anhand der Rubrik, identifizierst Schwächen und Lücken.
4. **Wiederholen** – Der Entwurf wird überarbeitet, bis alle Rubrik‑Kriterien erfüllt sind.
5. **Endergebnis präsentieren** – Nur das finale, geprüfte Ergebnis wird dem Nutzer angezeigt.
#### ❓ Umgang mit unklaren Anfragen Ist die Frage mehrdeutig oder fehlen Kontext‑Informationen, stelle gezielte Rückfragen, bevor du eine endgültige Antwort gibst.
#### 📂 Ausgabe‑Format
1. **Kurz‑Summary** (max 2 Sätze)
2. **Detail‑Abschnitt** (Markdown, klare Überschriften)
3. **Footer** (Disclaimer KI erzeugter Output)
#### ✅ Qualitäts‑Gates (automatisch geprüft)
- **Gate‑A (Sprach‑ & Stil‑Check)** – Rechtschreibung, aktive Stimme, Absätze ≤ 3 Sätze.
- **Gate‑B (Fakten‑Check)** – Verifiziert gegen vorhandenen Kontext + öffentliche Quellen (falls extern).
- **Gate‑C (Struktur)** – Sinnvolle Überschriften, Gliederungen, Tabellen, Hervorhebungen, Emojis als visuelle Marker.
- **Gate‑D (Wichtige Schreibweisen)** – Korrekte Abkürzungen: KIT, Campus Nord = CN, Campus Süd = CS.
#### ⚠️ Fehlverhalten Erfüllt die Antwort nicht alle Gates, gib `[RETRY]` zurück und liefere eine überarbeitete Version. Nach drei Fehlversuchen wird eine Fehlermeldung erzeugt. * * * (bei jeder Ausgabe unten anfügen) -
Systemprompt standard.intern
-
Du bist **KIT‑Assistant**, offizieller KI‑Assistent des „Karlsruher Instituts für Technologie (KIT), die Universität in der Helmholtz-Gemeinschaft“. Deine Aufgabe ist es, **wohlformulierte, strukturierte und überprüfte Antworten** zu liefern, die den höchsten Qualitätsstandards entsprechen. Du antwortest immer in der explizit angeforderten Sprache, sonst in der Sprache der Nutzer‑Anfrage.
**Wichtig:** Ist die Frage unklar, mehrdeutig oder fehlen notwendige Kontext‑Informationen, stelle zunächst gezielte Rückfragen, bevor du eine endgültige Antwort gibst. Ziel ist stets die höchstmögliche Antwort‑Qualität.
**Wichtig:** Schlage keine binären Dateiformate (z.B. Word oder PDF) für die Ausgabe vor und weise darauf hin, wenn solche angefordert werden, dass du dies nicht kannst. Erstelle stattdessen Ausgaben mit Hinweisen, wie diese in das gewünschte Dateiformat überführt werden können. -
--
## Antwort‑Format
1. **Kurz‑Summary** (max 2 Sätze)
2. **Detail‑Abschnitt** (Markdown, klare Überschriften)
---
## Qualitäts‑Gates (automatisch geprüft)
- **Gate‑A (Sprach‑ & Stil‑Check)** – Rechtschreibung, aktive Stimme, Absätze mit maximal 3 Sätzen.
- **Gate‑B (Fakten‑Check)** – Verifiziert gegen vorhandenen Kontext + öffentliche Quellen (falls extern).
- **Gate-C (Struktur)** - Inhalte sind sinnvoll mit Überschriften, Gliederungen, Tabellen, Hervorhebungen, Emojis als visuellen Markern strukturiert und formatiert
- **Gate-D (Wichtige Schreibweisen)** - Die korrekte Abkürzung für das Karlsruher Institut für Technologie ist KIT, Campus Nord ist CN und Campus Süd CS
**Verhalten bei Nicht‑Erfüllung:** Gib `[RETRY]` zurück und liefere eine überarbeitete Version. Nach drei erfolglosen Versuchen soll eine Fehlermeldung erzeugt werden. * * * (bei jeder Ausgabe unten anfügen)
Arbeiten mit Dateien
Sie können Fragen oder Aufgaben auf der Grundlage von Dateien erstellen (alternativ können auch längere Texte in das Eingabefeld kopiert werden). Bitte beachten Sie, dass solche Anfragen etwas mehr Zeit in Anspruch nehmen und die Kontextlänge je nach Modell variiert.
Sie können Dateien und Bilder live im Chat hochladen. Verwenden Sie dazu das Plus-Symbol (+) im Eingabefenster.

">Wenn Sie Dateien immer wieder in Ihren Anfragen verwenden, empfiehlt es sich, diese dauerhaft als "Wissen" für Sie persönlich zu speichern (siehe "Erweiterte Funktionen").

Gespeicherte Kenntnisse können Sie jederzeit im Eingabefenster mit der Raute-Taste "#" abrufen.

Sprachein und -ausgabe nutzen
Wenn Sie die Audiofunktionen nutzen wollen, empfiehlt es sich, die Spracheinstellungen individuell festzulegen (in der Regel "Deutsch"). Alternativ wird die automatische Erkennung verwendet, die jedoch nicht immer zu optimalen Ergebnissen führt.
Gehen Sie dazu in Ihre persönlichen Einstellungen (Profilbild oben links oder unten rechts) und navigieren Sie zu "Einstellungen" > "Audio" > "Sprache" und geben Sie "de" ein. Die anderen Werte können Sie so lassen, wie sie sind. Bei Bedarf können Sie unter "Stimme einstellen" eine andere Präferenz einstellen. Achten Sie darauf, dass die Stimme mit der eingestellten Sprache übereinstimmt (z.B. "de" und "deutsch").

Sie haben nun mehrere Möglichkeiten innerhalb eines Chats:
-
Diktieren (Mikrofon-Symbol): Anstatt Einträge zu tippen, können Sie diese aufzeichnen lassen und vor dem Absenden noch einmal schriftlich bearbeiten.
-
Sprachmodus (Soundwave-Symbol): Hier können Sie direkt mit dem Modell sprechen und sich die Antworten vorlesen lassen.
-
Vorlesen: Unabhängig davon, in welchem Modus Sie ein Gespräch begonnen haben (Text-, Diktat-, Sprachmodus), können Sie das Vorlesen immer durch einen Klick auf das Lautsprechersymbol unter der KI-Ausgabe aktivieren und deaktivieren.
![]()
Eigene Prompts anlegen
Sie können häufig verwendete Prompts speichern, um diese zukünftig komfortabel in Ihren Chats wiederzuverwenden.
Navigieren Sie hierzu über das linke Hauptmenü zu "Arbeitsbereich" > "Prompts"
Über den Button "+ Neuer Prompt" können Sie neue Prompts anlegen. Innerhalb der Eingabemaske für Prompts können Sie zudem via "Zugang" auswählen, ob und mit welcher Gruppe dieser Prompt geteilt werden soll.

Auf den so hinterlegten Prompt können Sie im Chat direkt mit einem Schrägstrich („/“) zugreifen.

Eigene Wissensspeicher anlegen
Es lohnt sich, einen Wissensspeicher (Knowledge Store) anzulegen, wenn Sie Dokumente wiederholt in verschiedenen Chats als Wissensgrundlage nutzen möchten. Sie erstellen eine Art private Bibliothek, auf die Sie bei Bedarf zugreifen können.
Navigieren Sie über das linke Hauptmenü zu "Arbeitsbereich" > "Wissen"
Über den Button "+ Neues Wissen" können Sie einen neuen Wissensspeicher anlegen, den Sie im nächsten Schritt mit Wissen in Form von Dateien oder Text befüllen können. Geben Sie Name und Funktion des Wissensspeichers an. Klicken Sie dann auf "Wissen erstellen". Über das Plus-Symbol (+) rechts, können Sie nun Ihre Dokumente hochladen.

Um einen bestehenden Wissensspeicher zu bearbeiten, wählen Sie diesen direkt an. Innerhalb des Wissenspeichers können Sie dann über das Plus-Symbol Einträge hinzufügen und via "Zugang" steuern, mit wem Sie diesen Speicher teilen möchten.
Auf das so angelegte Wissen können Sie im Chats direkt mit der Raute "#" verweisen, um die gespeicherten Daten abzurufen. Die KI kann dann bei der Bearbeitung von Anfragen darauf zugreifen.
Eigene Custom-Modelle (Assistenten) anlegen
KI-Chatbots sind digitale Assistenten, mit denen Sie in natürlicher Sprache zusammenarbeiten: Sie können Fragen stellen, Texte verfassen, Informationen strukturieren oder Aufgaben vorbereiten. Die Assistenten reagieren auf Ihre Anweisungen, merken sich Regeln und können sogar mit Ihren eigenen Dokumenten arbeiten. So erledigen Sie Routineaufgaben schneller und erhalten konsistente Ergebnisse.
Folgende Kernkomponenten braucht ein Chat-Assistent einen zugeordneten Wissenspeicher und einen Systemprompt.
So legen Sie ein eigenen eigenen Assistenten an: Navigieren Sie über das linke Hauptmenü zu "Arbeitsbereich" > "Modelle". Über den Button "+ Neues Modell" können Sie ein neues Modell anlegen.

In der Maske zur Bearbeitung sollten Sie folgende Punkte konfigurieren:
- Modell-Name*: Pflicht-Information.
- Basismodell*: Es muss eines der verfügbaren Sprachmodelle gewählt werden.
- Beschreibung: Es wird empfohlen, eine aussagekräftige Beschreibung für alle späteren Anwendenden zu setzen.
- Sichtbarkeit: In diesem Abschnitt können Sie steuern, ob und für wen das Modell geteilt wird: privat (nur für Sie) oder bestimmte Gruppen, denen Sie angehören.
- Modellparameter: Ein System-Prompt wird für die meisten Fälle sehr sinnvoll sein. Erweiterte Parameter sind optional (abhängig vom Anwendungsfall).
- Prompt-Vorschläge: Sind optional, können aber späteren Anwendenden helfen, den Anwendungsfall besser umzusetzen.
- Wissen: Eine Wissensbasis wird in vielen Fällen essentiell für den Anwendungsfall sein. Sollte keine Wissensbasis benötigt werden, ist ggf. auch die Erstellung eines Custom-Prompts nicht notwendig, da in solchen Fällen die Verwendung eines (gespeicherten) Prompts bereits ausreicht. Des Weiteren ist zu beachten, dass bei geteilten Custom-Prompts auch das dazugehörige Wissen mit der gleichen Gruppe geteilt werden muss.
- Werkzeuge: Können optional je nach Anwendungsfall dazugefügt werden.
- Fähigkeiten: Sind lediglich als "Tags" zu verstehen. Die eigentlichen Rechte, die ein Anwender auf Basis eines Custom-Modell hat, hängen vom ausgewähltem Basis-Modell ab.

