Durchsuchbare Dokumentation aufrufen | Zurück zur Dokumentationsübersicht
Navigation: Dokumentationen agorum core > agorum core Module und Plugins
Für welche Version verfügbar?
• agorum core pro
Hinweis: Diese Dokumentation bezieht sich auf die aktuellste Version des Plugins agorum core ai. Aktualisieren Sie das hier beschriebene Plugin, um die Dokumentation verwenden zu können.
Mithilfe des Plugins agorum core ai können Sie agorum core pro um die Möglichkeit zur Nutzung von Künstlicher Intelligenz (KI) erweitern. Sie können dazu agorum core pro mit externen oder lokal gehosteten Large Language Models (LLM/Sprachmodell) verbinden. Dies bedeutet, dass Sie ALBERT als eine Art „Brücke“ verwenden, um mit der Künstlichen Intelligenz zu kommunizieren. Wenn Sie kein lokal gehostetes Sprachmodell verwenden, benötigen Sie dafür ein Konto mit API-Zugriff bei einem oder mehreren externen Anbietern.
Hinweis: Für die KI-Nutzung entstehen Ihnen Kosten bei dem oder den KI-Anbietern, die Sie verwenden. Viele Anbieter erlauben es Ihnen, diese Kosten gezielt zu überwachen, indem Sie die monatliche Nutzung beschränken oder/und eine tagesaktuelle Kostenauflistung zur Verfügung stellen.
Für die Verwendung der KI in agorum core benötigen Sie agorum core pro und dieses Plugin.
Thema | Beschreibung | Link |
---|---|---|
Was ist ALBERT | Einführung zur Verwendung von KI in agorum core pro | ALBERT - Das KI-Universum in agorum core pro |
Entscheidungskriterien für KI-Modelle | Dieses Dokument erläutert einige gängige Entscheidungskriterien für KI-Modelle und bietet eine Übersicht über die Anbieter/Modelle, die agorum core ai standardmäßig zur Einrichtung anbietet. | Entscheidung für ein KI-Modell |
Thema | Beschreibung | Link |
---|---|---|
Installation | Das Plugin wird über den agorum core plugin manager installiert. | |
Berechtigungen | Das Plugin für andere Benutzer berechtigen. | agorum core ai berechtigen |
Einrichtung | KI-Voreinstellungen für die Verwendung von Sprachmodellen in agorum core pro einrichten. | agorum core ai KI-Voreinstellungen einrichten |
Eigener KI-Server | Hinweise zum Einrichten eines eigenen KI-Servers mit Ollama | Eigener KI-Server mit Ollama |
Migration | Wenn Sie zuvor das Plugin agorum core ai llm verwendet haben, können Sie die Einstellungen migrieren. | agorum core ai llm migrieren |
Thema | Beschreibung | Link |
---|---|---|
Anwendung | Mit ALBERTs Chat arbeiten. | Mit ALBERT | agorum core ai arbeiten |
Thema | Beschreibung | Link |
---|---|---|
Workflow 3.0 | Das Plugin enthält einen Workflow-Knoten, den Sie verwenden können, um KI in Ihre agorum core Workflows zu integrieren. | Workflow-Knoten KI-Chat |
Entwicklung | Die Hauptbibliothek bietet Funktionen zur Interaktion mit KI-Sprachmodellen. Sie ermöglicht synchrone und asynchrone Chats mit vorgegebenen KI-Modellen. Die Hauptfunktionen sind das synchrone oder asynchrone Aufrufen von KI-Sprachmodellen. | JavaScript-Bibliothek agorum.core.ai |
Diese Bibliothek bietet Funktionen zur Verwaltung von KI-Voreinstellungen, die in der Bibliothek agorum.ai/js/lib/ai verwendet werden. Sie ermöglicht das Erstellen, Abrufen, Aktualisieren und Entfernen von KI-Voreinstellungen. | JavaScript-Bibliothek agorum.ai/js/lib/presets-settings |