CHANGELOG ALBERT | AI 2.0
ALBERT | AI 2.0 setzt die Verwendung von ALBERT | AI Operating System voraus. ALBERT | AI installieren Sie komfortabel über den Plugin Manager.
-
ALBERT | AI 2.0.47-2.0.55
- Das Chat-Widget kann via id-property einen vorhandenen Chat öffnen.
- Das Chat-Widget besitzt nun ein weiteres property 'context'. Damit kann ein zusätzlicher Kontext an das Widget übergeben werden, welcher dann bei der nächsten KI-Anfrage mit angefügt wird.
- Das Errror-Handling für Tool-Calls wurde verbessert, wenn das Max-Token-Limit erreicht wurde.
- Das Standard Max-Token-Limit für Anthropic wurde von 8k auf 32k erhöht.
- Wir haben einen Fehler behoben, der dazu geführt hat, dass der Chat nicht fortgesetzt werden konnte, wenn während eines Tool-Calls 'Abbrechen' geklickt wurde.
- Durch die Verarbeitung von replaceHistory ist es möglich, über tool-Responses die bisherige Historie durch eine neue Historie zu ersetzen. Das wird etwa durch das Tool compact_context_history durchgeführt.
- Anzahl der gesamten toolCalls mit in die Statistik bei der Antwort der KI integriert.
- Der verbrauchte Kontext ist jetzt in der tokens-Statistik verfügbar. Diese steht sowohl in der Antwort der KI (über die Bibliothek) zur Verfügung als auch im debug-Modus des Chats (siehe Dokumentation). Die Variable heißt 'context'.
- Bei Neuanlage einer Vorlage ist der gewählte KI-Assistent nun im Standard angehakt.
- Neue Einstellung für KI-Modelle: Context Window (siehe Dokumentation). Damit kann man einstellen, wie viele Tokens die KI verarbeiten kann (Standard: 200.000).
- Im Chat wurde ein prozentualer Verbrauch eingefügt, der dem Benutzer anzeigt, wie viel Prozent des verfügbaren Context Window verbraucht sind (siehe Dokumentation).
- Unterstützung für Gemini 3 pro hinzugefügt.
- Wir haben die Zählung von Tokens verbessert: Es wird nun zwischen cache_read und cache_write unterschieden.
- Die Ausgabe der Verbrauchswerte im Debug-Modus im Chat wurde optisch verbessert.
- Der Debug-Modus im Chat-Fenster kann jetzt auch aktiviert/deaktiviert werden, während der Chat läuft (siehe Dokumentation).
- Im Debug-Modus im Chat-Fenster wird nun der Code von Tool-Aufrufen standardmäßig ausgeblendet; dieser kann bei Bedarf eingeblendet werden (siehe Dokumentation). Dadurch sind die jeweiligen Tool-Aufrufe übersichtlicher.
-
ALBERT | AI 2.0.46
- Das Chat-Icon wurde modernisiert.
-
ALBERT | AI 2.0.43-2.0.45
- Wir haben den REST-Service für externe Chat-Komponenten erweitert, sodass https://github.com/agorum/albert-ai-website-chat mit ALBERT | AI verwendet werden kann.
- Wir haben einen Button für die Gruppe eingefügt, damit diese direkt bearbeitet werden kann.
- Diverse Verbesserungen der toolCall-Aufrufe im Chat.
- Wir haben den Chat optisch verbessert:
- deutlichere Markierungen im Chat-Verlauf
- Entfernung der Hintergründe
- Einsparung von Rahmen im Eingabefeld
- Im Chat-Fenster gibt es einen Bearbeitungs-Button neben der Modellauswahl, mit dem das aktuell gewählte Sprachmodell bearbeitet werden kann. Der Button wird nur bei Vorliegen der Berechtigung zum Bearbeiten von Sprachmodellen angezeigt.
- Ein Fehler wurde behoben, durch den Informationen aus Chat-Anhängen im weiteren Chat-Verlauf verloren gehen konnten.
-
ALBERT | AI 2.0.41-2.0.42
- Fehler behoben in der Presets-Maske, die dazu führen konnten, dass Einstellungsmöglichkeiten verschwunden sind, je nachdem, wie mit der Maske gearbeitet wurde.
- Zirkuläre Referenzen werden nun abgefangen und führen nicht mehr zu einem Stackoverflow.
- Man kann bei Preset-Referenzen nun nicht mehr auf sich selbst verweisen.
- Fehler behoben: Wenn Anhänge an den Chat gegeben wurden, gingen die Informationen in einem zweiten Durchlauf verloren.
-
ALBERT | AI 2.0.40
- Es wurde eine potenzielle Race-Condition in den Loop-Tools behoben, die dazu führen konnte, dass der Loop-Prozess im Hintergrund startete, aber der Aufrufer gleich zurückkam.
-
ALBERT | AI 2.0.36-2.0.39
- Die Nutzungsstatistiken (Token-Zählung und Byte-Anzahl) werden nun für jeden einzelnen KI-Aufruf erfasst und als Gesamtsumme zusammengefasst. Diese Gesamtsumme wird zurückgeliefert und im Chat-Verlauf gespeichert. Bisher wurden nur die Werte des jeweils letzten Aufrufs berücksichtigt.
- Die gleichzeitige Nutzung mehrerer Werkzeuge (paralleles Tool-Calling) wurde für Gemini- und Anthropic-Modelle verbessert.
- Ein Fehler wurde behoben, der auftrat, wenn mehrere parallele Tool-Aufrufe etwas in die Historie injiziert haben. Dies konnte zu Folgeproblemen bei der Verarbeitung durch das KI-Modell führen. Der Fehler trat konkret beim parallelen Tool-Aufruf von get_object_as_image auf.
- Leere Kontextinformationen (auch solche, die nur einen Return-Befehl enthalten) werden nicht mehr an die KI übertragen, da einige KI-Anbieter mit solchen leeren Informationen nicht korrekt umgehen können.
-
ALBERT | AI 2.0.30-2.0.35
- Neuer LLM-Provider: 'OpenAI - response API'. Damit ist die Nutzung der moderneren response-API von OpenAI möglich. Somit können nun auch Modelle verwendet werden, die nur diese neue API unterstützen, wie etwa GPT5-codex.
- Neuer LLM-Provider: 'Azure OpenAI - response API'. Damit steht die neue reponse-API nun auch für Azure OpenAI Umgebungen zur Verfügung.
- Unterstützung der Funktion Code-Interpreter innerhalb der neuen response-API von OpenAI. Dadurch ist es möglich, Code auf einer OpenAI-Container Umgebung auszuführen. Anwendungsbeispiele sind die Erstellung von Dokumenten, wie PDF, Word, Excel, Powerpoint, ... Zudem kann Code ausgeführt werden.
- Fehler im Chat-Fenster behoben, bei dem der Kontext des Benutzers verloren gehen konnte, wenn während der Antwort der KI der Chat gewechselt wurde.
- Fehler in der Maske 'KI-Voreinstellungen' behoben, wenn die Maske nach dem Schließen noch einmal aufgerufen wurde, wenn ungespeicherte Änderungen vorhanden waren und man auf 'Abbrechen' geklickt hat.
- Fehler behoben im OpenAI-response-Provider: Toolaufrufe werden nun korrekt zugeordnet.
- Fehlerbehebung in parallelen Tool-Aufrufen von Anthropic-Modellen. Somit ist die Nutzung von Claude Sonnet 4.5 möglich.
-
ALBERT | AI 2.0.29
- Beim Filtern des KI-Assistenten ist der Fokus jetzt in das Eingabefeld gesetzt.
-
ALBERT | AI 2.0.28
- Filter für die Auswahl des KI-Assistenten im Chat eingebaut
-
ALBERT | AI 2.0.27
- Weiteren Platzhalter im Kontext eingefügt: Tool Knowledge Tree aufrufen.
-
ALBERT | AI 2.0.26
- Bessere Fehlerbehandlung, wenn ein Modell keine sinnvolle oder fehlerhafte Antwort liefert.
-
ALBERT | AI 2.0.25
- Links im Chat, die fett dargestellt werden, funktionieren nun auch.
-
ALBERT | AI 2.0.24
- Der Menüpunkt "Neuen KI-Titel generieren" ist jetzt nur noch verfügbar, wenn der Chat eine Historie besitzt.
- Es wurde ein Fehler behoben, wenn eine Notiz als Anhang an den Chat übergeben wurde.
- Notizobjekte können nun auch bzgl. ihres Inhalts durch ALBERT | AI genutzt werden.
- Kontextmenü "Mit ALBERTs Chat öffnen" funktioniert nun auch mit Ordner-Objekten.
-
ALBERT | AI 2.0.23
- Fehler in "Neuen KI-Titel generieren" behoben, wenn der Befehl auf einem neuen Chat aufgerufen wird.
-
ALBERT | AI 2.0.22
- In der KI-Voreinstellungs-Konfiguration wurde ein Beschreibungsfeld hinzugefügt, mit dem eine kurze Beschreibung hinterlegt werden kann für die jeweilige Konfiguration (inklusive eines KI-Assistenten für das Schreiben).
- Fehlende Übersetzungen wurden ergänzt im KI-Assistenten.
- Die Suche/Filterung nach Tags mit Umlauten im Tag-Namen funktioniert nun.
-
ALBERT | AI 2.0.21
- Beim Ändern des Namens einer KI-Voreinstellung wird nun nur noch der eigentliche Name ohne Projekt-Prefix angezeigt und auch nur dieser kann geändert werden. Das Projekt-Prefix wird automatisch wieder davorgehängt beim Speichern.
-
ALBERT | AI 2.0.20
- Erweiterung der Bibliothek für das Laden von Templates um die Rückgabe der UUID des Templates.
-
ALBERT | AI 2.0.19
- Abhängigkeit zu ALBERT | AI Operating System hinzugefügt.
-
ALBERT | AI 2.0.18
- Ungültige Sucheingaben in der Konfigurationsauswahl führen nun nicht mehr zu einer Fehlermeldung, sondern lediglich zu einem leeren Ergebnis.
- Bei fehlerhaften Presets wird nun im Chat ein Fehlerdialog geöffnet, bei dem die Konfiguration direkt bearbeitet werden kann.
- Plugin-Titel geändert
-
ALBERT | AI 2.0.17
- Die Editoren im Workflow-Knoten agorum.ai wurden angepasst, sodass dort nun auch der umfangreiche Editor zur Verfügung steht. [PLUGINS-378]
- Beim Laden eines Templates im Chat, wird nun korrekt die Willkommensnachricht ausgetauscht.
- Im Chat werden nun benutzerfreundliche Fehlermeldungen ausgegeben. [PLUGINS-365]
- Statistik im Chat erweitert um die Anzahl von Tool-Aufrufen
-
ALBERT | AI 2.0.16
- Die Berechtigungen des Workflow-Knotens agorum.ai.chat werden nun korrekt beachtet.
- Die Berechtigung der übergebenen Session in der ai-lib werden nun korrekt beachtet.
- Errors im Workflow-Knoten agorum.ai.chat werden nun standardmäßig in der Variable sys_acw_error gespeichert.
- Erweiterte Debug-Informationen mit in den Chat hinzugefügt für
- tokens
- timing
-
ALBERT | AI 2.0.15
- Erstes Release des neuen Plugins für die KI-Integration.
- Für die Dokumentation siehe ALBERT | AI Dokumentation.
- Dieses Plugin ersetzt das Plugin agorum core ai llm. Für Informationen zur Migration siehe agorum core ai llm migrieren.
- Voraussetzung: agorum core pro 11.10