Durchsuchbare Dokumentation aufrufen | Zurück zur Dokumentationsübersicht
Navigation: Dokumentationen agorum core > agorum core Module und Plugins > ALBERT agorum core ai
Die folgenden Abschnitte enthalten Hinweise, wie Sie einen eigenen KI-Server mit Ollama einrichten können. Ollama ist eine lokale Laufzeitumgebung für LLMs, die relativ einfach zu installieren und zu bedienen ist. Die Hinweise richten sich an Entwickler oder Administratoren, die LLMs wie LLaMA, Mistral oder andere lokal hosten möchten.
Hinweis: Die vorliegende Dokumentation beschreibt lediglich eigene Erfahrungen und erhebt keinen Anspruch auf Aktualität und Vollständigkeit. Für die Ollama-Dokumentation siehe ollama Documentation.
Voraussetzungen: Sie benötigen die entsprechende Hardware, um einen KI-Server zu betreiben. Die KI-Modell benötigen ausreichend Speicherplatz und eine stabile Internetverbindung. Die folgenden Hinweise beziehen sich auf ein Linux-Betriebssystem oder Windows mit WSL2.
curl -fsSL https://ollama.com/install.sh | sh
ollama serve
ollama run gemma3 ollama run mistral
ollama list
ollama ps
ollama stop llama3.2
Viele über ollama bereitgestellte KI-Modelle haben standardmäßig eine zu kleine Kontextgröße (num_ctx), was zu Problemen bei der Nutzung führen kann. Um ein Modell mit angepasster Kontextgröße zu verwenden, sind folgende Schritte notwendig (am Beispiel llama 3.2):
ollama pull llama3.2
ollama list
ollama show --modelfile llama3.2:latest > custom_llama_3_2.modelfile
PARAMETER num_ctx 32000
ollama create custom_llama_3_2 --file custom_llama_3_2.modelfile
ollama run custom_llama_3_2.modelfile