CHANGELOG ALBERT | AI 2.x
ALBERT | AI installieren Sie komfortabel über den Plugin Manager.
-
ALBERT | AI 2.0.56-2.1.13
KI-Provider (KI-Anbieter):
- Neuer Kimi Provider: Unterstützung für Kimi (Moonshot AI) als neuen KI-Provider hinzugefügt ( siehe Dokumentation). Der Provider unterstützt das K2.5 Thinking Modell mit reasoning_content für erweiterte Reasoning-Fähigkeiten.
- Der ollama Provider wurde als 'veraltet' markiert. Stattdessen kann jetzt der ganz normale OpenAI-Treiber genutzt werden. Es muss lediglich die URL zum ollama-Server unter 'Erweiterte Einstellungen' eingetragen werden ( siehe Dokumentation).
KI-Voreinstellungen (Presets):
- KI-gestützte Preisermittlung:
- In den KI-Voreinstellungen kann die KI über den Button 'Preise über KI ermitteln' (mit Sparkles-Icon) automatisch nach aktuellen Token-Preisen für das ausgewählte Modell suchen. Die KI durchsucht das Internet nach offiziellen Preisseiten und extrahiert die Preise pro 1 Million Tokens. Im Bestätigungsdialog werden die gefundenen Preise zusammen mit einer Erklärung angezeigt, wie die Preise ermittelt wurden oder warum bestimmte Preise nicht gefunden werden konnten.
Voraussetzung: Das Preset agorum_ai_configuration_assistant muss eingerichtet sein und ein leistungsstarkes KI-Modell verwenden (z. B. Claude 4.5 Sonnet oder vergleichbar), um zuverlässig Preise aus dem Internet ermitteln zu können. Der Button ist nur aktiv, wenn ein Modell ausgewählt ist (nicht im Referenz-Modus) und auch ALBERT | AI Agents verwendet wird. - Preiskonfiguration für KI-Modelle: In den KI-Voreinstellungen können jetzt Token-Preise konfiguriert werden (Input-Tokens, Output-Tokens, Cache-Read, Cache-Write pro 1 Million Tokens sowie Tool-Aufrufe pro 1.000). Diese Preise dienen der Kostenberechnung und Anzeige im Debug-Modus.
- Siehe Dokumentation
- In den KI-Voreinstellungen kann die KI über den Button 'Preise über KI ermitteln' (mit Sparkles-Icon) automatisch nach aktuellen Token-Preisen für das ausgewählte Modell suchen. Die KI durchsucht das Internet nach offiziellen Preisseiten und extrahiert die Preise pro 1 Million Tokens. Im Bestätigungsdialog werden die gefundenen Preise zusammen mit einer Erklärung angezeigt, wie die Preise ermittelt wurden oder warum bestimmte Preise nicht gefunden werden konnten.
- Die Konfigurationen von Tools und Handlern in den KI-Voreinstellungen werden nun mit den Definitionen von referenzierten Konfigurationen gemischt anstatt überschrieben. Damit ist es nun möglich, weitere Tools/Handler in referenzierten KI-Voreinstellungen zu konfigurieren, die dann auch zur Verfügung stehen.
Ist dasselbe Tool in der eigentlichen Konfiguration und der Referenz vorhanden, dann gilt die Definition von der übergeordneten Konfiguration und nicht von der Referenz. Damit ist es nun möglich in den ausgelieferten *_base-Konfigurationen weitere Tools oder Handler zu konfigurieren, ohne dass diese überschrieben werden.
Beispiel bei "agorum_ai_agents_details_chat_base": Seither: preset_1 (tool1, tool2) -> Referenz auf -> preset_2 (tool3): Ergebnis nur tool1 und tool2 standen zur Verfügung Neu: preset_1 (tool1, tool2) -> Referenz auf -> preset_2 (tool3): Ergebnis tool1, tool2 und tool3 stehen jetzt zur Verfügung. - Neue Parameter
- Neuer Parameter Frequency Penalty (Wiederholungsstrafe) für KI-Modelle hinzugefügt. Dieser Parameter reduziert die Wiederholung von Wörtern und Phrasen in der generierten Antwort (Wertebereich 0-2).
- Neuer Parameter Random Seed (Zufalls-Seed) für KI-Modelle hinzugefügt. Dieser Parameter ermöglicht deterministische und reproduzierbare KI-Ausgaben durch Festlegung eines Startwerts für den Zufallsgenerator.
- Neuer Parameter Top-k für KI-Modelle hinzugefügt. Dieser Parameter beschränkt die Auswahl auf die k wahrscheinlichsten Wörter bei der Textgenerierung.
- Siehe Dokumentation
- Fehler behoben, wenn 'normale' Benutzer ein Preset anlegen wollten, kam eine Fehlermeldung.
KI-Handler:
- Einführung von KI-Handlern für den Datenzugriff vor und nach der Bearbeitung durch die KI.
- KI-Handler Konfiguration hinzugefügt, um KI-Handler individuell konfigurieren zu können.
- Standard-KI-Handler:
- AI Filter: KI-basierter Filter, der ein lokales LLM nutzen kann, um personenbezogene Daten zu identifizieren (siehe Dokumentation).
- Simple String Array Filter: Regex- und String-basierter Filter, um personenbezogene Daten zu identifizieren (siehe Dokumentation).
- AI Handler für die Pseudonymisierung von Daten mithilfe von CSV implementiert (siehe Dokumentation).
- agorum.ai.debug: Kann aktiviert werden, um in der Konsole ein- und ausgehende Nachrichten an und von der KI zu sehen (siehe Dokumentation).
- agorum.ai.protocol: Kann aktiviert werden, um die Antworten der KI sowie die komplette Historie im Workspace zu protokollieren (siehe Dokumentation). Gerade für im Hintergrund arbeitende KI-Agenten interessant.
- agorum.ai.history.compaction: Wenn dieser in der KI-Einstellung hinterlegt ist, wird die Historie automatisch bei einer Auslastung von 75% zusammengepackt. Somit ist es möglich, beliebig lange Konversationen zu führen, ohne wichtigen Kontext zu verlieren (siehe Dokumentation).
- Usage-Protocol-Handler (optional): Neuer globaler Handler usage-protocol zum Protokollieren von Nutzungsstatistiken. Dieser Handler sendet nach Abschluss eines Chats (ohne Tool-Aufrufe) Nutzungsdaten per HTTP POST an einen konfigurierbaren Endpunkt (siehe Dokumentation).
Hinweis: Dieser Handler ist standardmäßig NICHT aktiviert und erfordert ein zentrales agorum core pro System mit entsprechendem REST-Service zum Sammeln der Nutzungsprotokolle. Bei Interesse wenden Sie sich bitte an agorum.
- Globale KI-Handler: Unterstützung für globale KI-Handler hinzugefügt. Globale Handler werden in der MetaDB unter MAIN_MODULE_MANAGEMENT/customers/[projektname]/global-handlers/ registriert und laufen vor den preset-spezifischen Handlern. Die Sortierung erfolgt über das Namensschema [#]NNNN handler.name, wobei # den Handler deaktiviert und NNNN die Sortierreihenfolge bestimmt (siehe Dokumentation).
- Fuzzy Matching für die Pseudonymisierung von Daten implementiert, um auch ähnlich geschriebene Worte ausfiltern zu können.
- Neuer context Parameter für AI Handler before und after Hooks hinzugefügt - ermöglicht Datenaustausch zwischen before- und after-Hook innerhalb desselben Aufrufs
- KI-Handler aufgeräumt und typedef-Definitionen für die Parameter hinzugefügt.
ALBERT | AI Chat:
- Kontext, der über das Chat-Widget gesetzt wird, wird nun auch im Chat gespeichert. Dadurch können Chats, die beispielsweise über den ALBERT | AI Reiter im Detailfenster aufgerufen werden (Voraussetzung: ALBERT | AI Agents), auch außerhalb des Detailfensters in der normalen Chat-Ansicht weitergeführt werden. Der Chat merkt sich somit, von wo aus dieser aufgerufen worden ist.
- chatTitle Property zum Widget agorum.ai.chatMain hinzugefügt, um im Chat oben einen Titel in der Toolbar anzeigen zu lassen.
- Beim Laden eines Templates, ohne zuvor gespeicherten Kontext, wird nun der vorhandene Kontext im Chat nicht mehr entleert.
- Chat-Widget verbessert, sodass dieses auch funktioniert, wenn das Widget in einem Tab-Container eingebettet wird, der temporär nicht sichtbar ist.
- Fehler behoben, der seit 2.0.59 dazu führte, dass das Streaming im Chat nicht mehr funktionierte./li>
- Debug-Modus (Voraussetzung: ALBERT | AI Agents):
- Der Debug-Modus im Chat-Fenster kann nun auch aktiviert/deaktiviert werden, während der Chat läuft.
- Im Debug-Modus im Chat-Fenster wird nun der Code von Tool-Aufrufen standardmäßig ausgeblendet und kann bei Bedarf eingeblendet werden. Dadurch sind die jeweiligen Tool-Aufrufe übersichtlicher.
- Verbesserung der Statistikanzeige im Chat, sodass nun auch Sub-KI-Aufrufe mitgezählt werden.
- Ausgabe der Verbrauchswerte im Debug-Modus im Chat optisch verbessert.
- Preisanzeige im Debug-Modus: Im Debug-Modus des Chats wird nun der berechnete Gesamtpreis basierend auf den konfigurierten Token-Preisen angezeigt. Die Anzeige erscheint nur, wenn mindestens ein Preis im Preset konfiguriert ist.
- Siehe Dokumentation
ALBERT | AI allgemein:
- Abhängigkeit zu ALBERT | AI Operating System entfernt.
- Reasoning-Text-Unterstützung: Die Bibliothek lib/ai.js speichert nun auch reasoningText in der Chat-Historie, wenn dieser vom Provider zurückgegeben wird. Dies ermöglicht die Nachverfolgung von Reasoning-Prozessen bei Modellen, die diese Funktion unterstützen.
- Fehler behoben in der Statistik-Berechnung, wenn ein Titel erstellt wurde, oder die Historie komprimiert wurde.
- Filter-Handler Aufruf optimiert für Tool-Responses. Es werden nun einzelne Strings betrachtet und nicht mehr das komplette serialisierte JSON, damit implementierende Filter damit besser umgehen können.
- Standard-Templates (KI-Vorlagen) wurden verschoben nach agorum.ai/ai/templates
- Titel-Erstellung optimiert: Der System-Kontext wird nun nicht mehr mitgesendet, was dazu führt, dass weniger Tokens bei der Titelerstellung verbraucht werden. Zudem geht dies dadurch nun wesentlich schneller. Anhänge und Bilder werden nicht mehr übertragen, was die Erstellung noch weiter beschleunigt und weniger Tokens verbraucht.
- Zählung der Tokens verbessert: Es werden nun auch die Tokens, die zur Erstellung von Chat-Titeln verwendet werden, mitgezählt. Zudem wird jetzt auch zwischen cache_read und cache-write unterschieden.
-
ALBERT | AI 2.0.47-2.0.55
- Das Chat-Widget kann via id-property einen vorhandenen Chat öffnen.
- Das Chat-Widget besitzt nun ein weiteres property 'context'. Damit kann ein zusätzlicher Kontext an das Widget übergeben werden, welcher dann bei der nächsten KI-Anfrage mit angefügt wird.
- Das Errror-Handling für Tool-Calls wurde verbessert, wenn das Max-Token-Limit erreicht wurde.
- Das Standard Max-Token-Limit für Anthropic wurde von 8k auf 32k erhöht.
- Wir haben einen Fehler behoben, der dazu geführt hat, dass der Chat nicht fortgesetzt werden konnte, wenn während eines Tool-Calls 'Abbrechen' geklickt wurde.
- Durch die Verarbeitung von replaceHistory ist es möglich, über tool-Responses die bisherige Historie durch eine neue Historie zu ersetzen. Das wird etwa durch das Tool compact_context_history durchgeführt.
- Anzahl der gesamten toolCalls mit in die Statistik bei der Antwort der KI integriert.
- Der verbrauchte Kontext ist jetzt in der tokens-Statistik verfügbar. Diese steht sowohl in der Antwort der KI (über die Bibliothek) zur Verfügung als auch im debug-Modus des Chats (siehe Dokumentation). Die Variable heißt 'context'.
- Bei Neuanlage einer Vorlage ist der gewählte KI-Assistent nun im Standard angehakt.
- Neue Einstellung für KI-Modelle: Context Window (siehe Dokumentation). Damit kann man einstellen, wie viele Tokens die KI verarbeiten kann (Standard: 200.000).
- Im Chat wurde ein prozentualer Verbrauch eingefügt, der dem Benutzer anzeigt, wie viel Prozent des verfügbaren Context Window verbraucht sind (siehe Dokumentation).
- Unterstützung für Gemini 3 pro hinzugefügt.
- Wir haben die Zählung von Tokens verbessert: Es wird nun zwischen cache_read und cache_write unterschieden.
- Die Ausgabe der Verbrauchswerte im Debug-Modus im Chat wurde optisch verbessert.
- Der Debug-Modus im Chat-Fenster kann jetzt auch aktiviert/deaktiviert werden, während der Chat läuft (siehe Dokumentation).
- Im Debug-Modus im Chat-Fenster wird nun der Code von Tool-Aufrufen standardmäßig ausgeblendet; dieser kann bei Bedarf eingeblendet werden (siehe Dokumentation). Dadurch sind die jeweiligen Tool-Aufrufe übersichtlicher.
-
ALBERT | AI 2.0.46
- Das Chat-Icon wurde modernisiert.
-
ALBERT | AI 2.0.43-2.0.45
- Wir haben den REST-Service für externe Chat-Komponenten erweitert, sodass https://github.com/agorum/albert-ai-website-chat mit ALBERT | AI verwendet werden kann.
- Wir haben einen Button für die Gruppe eingefügt, damit diese direkt bearbeitet werden kann.
- Diverse Verbesserungen der toolCall-Aufrufe im Chat.
- Wir haben den Chat optisch verbessert:
- deutlichere Markierungen im Chat-Verlauf
- Entfernung der Hintergründe
- Einsparung von Rahmen im Eingabefeld
- Im Chat-Fenster gibt es einen Bearbeitungs-Button neben der Modellauswahl, mit dem das aktuell gewählte Sprachmodell bearbeitet werden kann. Der Button wird nur bei Vorliegen der Berechtigung zum Bearbeiten von Sprachmodellen angezeigt.
- Ein Fehler wurde behoben, durch den Informationen aus Chat-Anhängen im weiteren Chat-Verlauf verloren gehen konnten.
-
ALBERT | AI 2.0.41-2.0.42
- Fehler behoben in der Presets-Maske, die dazu führen konnten, dass Einstellungsmöglichkeiten verschwunden sind, je nachdem, wie mit der Maske gearbeitet wurde.
- Zirkuläre Referenzen werden nun abgefangen und führen nicht mehr zu einem Stackoverflow.
- Man kann bei Preset-Referenzen nun nicht mehr auf sich selbst verweisen.
- Fehler behoben: Wenn Anhänge an den Chat gegeben wurden, gingen die Informationen in einem zweiten Durchlauf verloren.
-
ALBERT | AI 2.0.40
- Es wurde eine potenzielle Race-Condition in den Loop-Tools behoben, die dazu führen konnte, dass der Loop-Prozess im Hintergrund startete, aber der Aufrufer gleich zurückkam.
-
ALBERT | AI 2.0.36-2.0.39
- Die Nutzungsstatistiken (Token-Zählung und Byte-Anzahl) werden nun für jeden einzelnen KI-Aufruf erfasst und als Gesamtsumme zusammengefasst. Diese Gesamtsumme wird zurückgeliefert und im Chat-Verlauf gespeichert. Bisher wurden nur die Werte des jeweils letzten Aufrufs berücksichtigt.
- Die gleichzeitige Nutzung mehrerer Werkzeuge (paralleles Tool-Calling) wurde für Gemini- und Anthropic-Modelle verbessert.
- Ein Fehler wurde behoben, der auftrat, wenn mehrere parallele Tool-Aufrufe etwas in die Historie injiziert haben. Dies konnte zu Folgeproblemen bei der Verarbeitung durch das KI-Modell führen. Der Fehler trat konkret beim parallelen Tool-Aufruf von get_object_as_image auf.
- Leere Kontextinformationen (auch solche, die nur einen Return-Befehl enthalten) werden nicht mehr an die KI übertragen, da einige KI-Anbieter mit solchen leeren Informationen nicht korrekt umgehen können.
-
ALBERT | AI 2.0.30-2.0.35
- Neuer LLM-Provider: 'OpenAI - response API'. Damit ist die Nutzung der moderneren response-API von OpenAI möglich. Somit können nun auch Modelle verwendet werden, die nur diese neue API unterstützen, wie etwa GPT5-codex.
- Neuer LLM-Provider: 'Azure OpenAI - response API'. Damit steht die neue reponse-API nun auch für Azure OpenAI Umgebungen zur Verfügung.
- Unterstützung der Funktion Code-Interpreter innerhalb der neuen response-API von OpenAI. Dadurch ist es möglich, Code auf einer OpenAI-Container Umgebung auszuführen. Anwendungsbeispiele sind die Erstellung von Dokumenten, wie PDF, Word, Excel, Powerpoint, ... Zudem kann Code ausgeführt werden.
- Fehler im Chat-Fenster behoben, bei dem der Kontext des Benutzers verloren gehen konnte, wenn während der Antwort der KI der Chat gewechselt wurde.
- Fehler in der Maske 'KI-Voreinstellungen' behoben, wenn die Maske nach dem Schließen noch einmal aufgerufen wurde, wenn ungespeicherte Änderungen vorhanden waren und man auf 'Abbrechen' geklickt hat.
- Fehler behoben im OpenAI-response-Provider: Toolaufrufe werden nun korrekt zugeordnet.
- Fehlerbehebung in parallelen Tool-Aufrufen von Anthropic-Modellen. Somit ist die Nutzung von Claude Sonnet 4.5 möglich.
-
ALBERT | AI 2.0.29
- Beim Filtern des KI-Assistenten ist der Fokus jetzt in das Eingabefeld gesetzt.
-
ALBERT | AI 2.0.28
- Filter für die Auswahl des KI-Assistenten im Chat eingebaut
-
ALBERT | AI 2.0.27
- Weiteren Platzhalter im Kontext eingefügt: Tool Knowledge Tree aufrufen.
-
ALBERT | AI 2.0.26
- Bessere Fehlerbehandlung, wenn ein Modell keine sinnvolle oder fehlerhafte Antwort liefert.
-
ALBERT | AI 2.0.25
- Links im Chat, die fett dargestellt werden, funktionieren nun auch.
-
ALBERT | AI 2.0.24
- Der Menüpunkt "Neuen KI-Titel generieren" ist jetzt nur noch verfügbar, wenn der Chat eine Historie besitzt.
- Es wurde ein Fehler behoben, wenn eine Notiz als Anhang an den Chat übergeben wurde.
- Notizobjekte können nun auch bzgl. ihres Inhalts durch ALBERT | AI genutzt werden.
- Kontextmenü "Mit ALBERTs Chat öffnen" funktioniert nun auch mit Ordner-Objekten.
-
ALBERT | AI 2.0.23
- Fehler in "Neuen KI-Titel generieren" behoben, wenn der Befehl auf einem neuen Chat aufgerufen wird.
-
ALBERT | AI 2.0.22
- In der KI-Voreinstellungs-Konfiguration wurde ein Beschreibungsfeld hinzugefügt, mit dem eine kurze Beschreibung hinterlegt werden kann für die jeweilige Konfiguration (inklusive eines KI-Assistenten für das Schreiben).
- Fehlende Übersetzungen wurden ergänzt im KI-Assistenten.
- Die Suche/Filterung nach Tags mit Umlauten im Tag-Namen funktioniert nun.
-
ALBERT | AI 2.0.21
- Beim Ändern des Namens einer KI-Voreinstellung wird nun nur noch der eigentliche Name ohne Projekt-Prefix angezeigt und auch nur dieser kann geändert werden. Das Projekt-Prefix wird automatisch wieder davorgehängt beim Speichern.
-
ALBERT | AI 2.0.20
- Erweiterung der Bibliothek für das Laden von Templates um die Rückgabe der UUID des Templates.
-
ALBERT | AI 2.0.19
- Abhängigkeit zu ALBERT | AI Operating System hinzugefügt.
-
ALBERT | AI 2.0.18
- Ungültige Sucheingaben in der Konfigurationsauswahl führen nun nicht mehr zu einer Fehlermeldung, sondern lediglich zu einem leeren Ergebnis.
- Bei fehlerhaften Presets wird nun im Chat ein Fehlerdialog geöffnet, bei dem die Konfiguration direkt bearbeitet werden kann.
- Plugin-Titel geändert
-
ALBERT | AI 2.0.17
- Die Editoren im Workflow-Knoten agorum.ai wurden angepasst, sodass dort nun auch der umfangreiche Editor zur Verfügung steht. [PLUGINS-378]
- Beim Laden eines Templates im Chat, wird nun korrekt die Willkommensnachricht ausgetauscht.
- Im Chat werden nun benutzerfreundliche Fehlermeldungen ausgegeben. [PLUGINS-365]
- Statistik im Chat erweitert um die Anzahl von Tool-Aufrufen
-
ALBERT | AI 2.0.16
- Die Berechtigungen des Workflow-Knotens agorum.ai.chat werden nun korrekt beachtet.
- Die Berechtigung der übergebenen Session in der ai-lib werden nun korrekt beachtet.
- Errors im Workflow-Knoten agorum.ai.chat werden nun standardmäßig in der Variable sys_acw_error gespeichert.
- Erweiterte Debug-Informationen mit in den Chat hinzugefügt für
- tokens
- timing
-
ALBERT | AI 2.0.15
- Erstes Release des neuen Plugins für die KI-Integration.
- Für die Dokumentation siehe ALBERT | AI Dokumentation.
- Dieses Plugin ersetzt das Plugin agorum core ai llm. Für Informationen zur Migration siehe agorum core ai llm migrieren.
- Voraussetzung: agorum core pro 11.10