Durchsuchbare Dokumentation aufrufen | Zurück zur Dokumentationsübersicht
Navigation: Dokumentationen agorum core > agorum core Module und Plugins > ALBERT agorum core ai
Hinweis: Diese Dokumentation bezieht sich auf die aktuellste Version des Plugins agorum core ai. Aktualisieren Sie das hier beschriebene Plugin, um die Dokumentation verwenden zu können.
Die Auswahl eines geeigneten KI-Modells und dessen Anbieters ist ein wichtiger Schritt, wenn Sie Ihre Prozesse durch künstliche Intelligenz (KI) optimieren möchten. Im Bereich des Dokumentenmanagements und Enterprise Content Managements (ECM) können KI-Modelle eine wichtige Rolle bei der Automatisierung von Prozessen spielen. Die Auswahl des oder der geeigneten Modelle ist daher von entscheidender Bedeutung. In Deutschland müssen Unternehmen dabei auch die Anforderungen der Datenschutz-Grundverordnung (DSGVO) berücksichtigen.
Die folgenden Abschnitte enthalten Informationen Entscheidungskriterien, die Ihnen Orientierungshilfe bei der Suche nach einem geeigneten Anbieter und Modell dienen sollen. Darüber hinaus finden Sie hier eine Übersicht über die Anbieter, die in agorum core ai standardmäßig angebunden werden können.
Einige gängige Entscheidungskriterien für KI-Modelle und deren Anbieter sind:
Im Bereich des Dokumentenmanagements und ECM sind weitere Kriterien zu berücksichtigen:
Sie können die folgenden Sprachmodelle in agorum core ai einbinden. Voraussetzung ist jeweils ein Konto mit API-Zugriff bei dem jeweiligen Anbieter.
Tipp: Für die Nutzung von KI-Diensten in agorum core pro ist es erforderlich, dass Ihr Konto ausreichend hohe Limits für Abfragen pro Minute (RPM) und Tokens pro Minute (TPM) bietet. Nur so können größere Kontexte und umfangreiche Abfragen zuverlässig verarbeitet werden. Prüfen Sie die jeweiligen Anbieter-Dokumentationen und passen Sie Ihr Kontingent gegebenenfalls an.
Modellname in den KI-Voreinstellungen* | Beschreibung | Weiterführende Informationen |
---|---|---|
IONOS OpenAI (ionos-openai) |
IONOS ist ein führender deutscher Anbieter von Cloud-Diensten und bietet KI-Lösungen mit Fokus auf DSGVO-konformen Angeboten und Hosting in Deutschland. IONOS bietet eine OpenAI kompatible REST-Schnittstelle. | https://docs.ionos.com/cloud/ai/ai-model-hub |
Anthropic (anthropic) |
Claude ist eine Familie von großen Sprachmodellen des US-amerikanischen KI-Unternehmens Anthropic mit Fokus auf verlässlicher KI und hochwertigen Informationen. | https://docs.anthropic.com/en/home |
Gemini (gemini) |
Gemini des US-amerikanischen Anbieters Google verwendet große Datensätze zur Verbesserung seiner Textanalysemodelle. | https://ai.google.dev/gemini-api/docs |
Azure OpenAI (azure-openai) |
Azure OpenAI ist ein Dienst innerhalb der Azure Plattform des amerikanischen Unternehmens Microsoft, der es Unternehmen ermöglicht, die KI-Modelle von OpenAI mit zusätzlichen Features über die Cloud-Infrastruktur von Azure zu nutzen. | https://learn.microsoft.com/en-us/azure/ai-services/openai/ |
Mistral (mistral) |
Mistral ist ein Unternehmen aus Frankreich, das verschiedene kommerzielle und freie Modelle anbietet. Die verwendeten Trainingsdaten stammen aus einer Mischung aus öffentlich verfügbaren Inhalten und Daten von zugestimmten Nutzern. | https://docs.mistral.ai/ |
Ollama (ollama) |
Ollama ist eine Open-Source-Plattform zur lokalen Ausführung von KI-Sprachmodellen. Sie ermöglicht, Modelle wie LLaMA oder Mistral lokal zu betreiben. | https://github.com/ollama/ollama/tree/main/docs |
OpenAI (openai) |
OpenAI ist ein US-amerikanisches Unternehmen, das vor allem durch ChatGPT bekannt geworden ist. OpenAI bietet verschiedene Sprachmodelle, deren Verwendung weit verbreitet ist. | https://platform.openai.com/docs/overview |
Grok (grok) |
xAI ist ein US-amerikanischer Anbieter von KI-Lösungen, der eng mit der Plattform X (ehemals Twitter) verbunden ist. Die Modelle, wie Grok, zielen auf kontextbezogene, dialogorientierte Anwendungen. | https://docs.x.ai/docs/overview |
* Die Bezeichnungen in Klammern sind die Werte, die im Code verwendet werden.