CHANGELOG ALBERT | AI 2.0
ALBERT | AI 2.0 setzt die Verwendung von ALBERT | AI Operating System voraus. ALBERT | AI installieren Sie komfortabel über den Plugin Manager.
- 
ALBERT | AI 2.0.41-2.0.42
- Fehler behoben in der Presets-Maske, die dazu führen konnten, dass Einstellungsmöglichkeiten verschwunden sind, je nachdem, wie mit der Maske gearbeitet wurde.
 - Zirkuläre Referenzen werden nun abgefangen und führen nicht mehr zu einem Stackoverflow.
 - Man kann bei Preset-Referenzen nun nicht mehr auf sich selbst verweisen.
 - Fehler behoben: Wenn Anhänge an den Chat gegeben wurden, gingen die Informationen in einem zweiten Durchlauf verloren.
 
 - 
ALBERT | AI 2.0.40
- Es wurde eine potenzielle Race-Condition in den Loop-Tools behoben, die dazu führen konnte, dass der Loop-Prozess im Hintergrund startete, aber der Aufrufer gleich zurückkam.
 
 - 
ALBERT | AI 2.0.36-2.0.39
- Die Nutzungsstatistiken (Token-Zählung und Byte-Anzahl) werden nun für jeden einzelnen KI-Aufruf erfasst und als Gesamtsumme zusammengefasst. Diese Gesamtsumme wird zurückgeliefert und im Chat-Verlauf gespeichert. Bisher wurden nur die Werte des jeweils letzten Aufrufs berücksichtigt.
 - Die gleichzeitige Nutzung mehrerer Werkzeuge (paralleles Tool-Calling) wurde für Gemini- und Anthropic-Modelle verbessert.
 - Ein Fehler wurde behoben, der auftrat, wenn mehrere parallele Tool-Aufrufe etwas in die Historie injiziert haben. Dies konnte zu Folgeproblemen bei der Verarbeitung durch das KI-Modell führen. Der Fehler trat konkret beim parallelen Tool-Aufruf von get_object_as_image auf.
 - Leere Kontextinformationen (auch solche, die nur einen Return-Befehl enthalten) werden nicht mehr an die KI übertragen, da einige KI-Anbieter mit solchen leeren Informationen nicht korrekt umgehen können.
 
 - 
ALBERT | AI 2.0.30-2.0.35
- Neuer LLM-Provider: 'OpenAI - response API'. Damit ist die Nutzung der moderneren response-API von OpenAI möglich. Somit können nun auch Modelle verwendet werden, die nur diese neue API unterstützen, wie etwa GPT5-codex.
 - Neuer LLM-Provider: 'Azure OpenAI - response API'. Damit steht die neue reponse-API nun auch für Azure OpenAI Umgebungen zur Verfügung.
 - Unterstützung der Funktion Code-Interpreter innerhalb der neuen response-API von OpenAI. Dadurch ist es möglich, Code auf einer OpenAI-Container Umgebung auszuführen. Anwendungsbeispiele sind die Erstellung von Dokumenten, wie PDF, Word, Excel, Powerpoint, ... Zudem kann Code ausgeführt werden.
 - Fehler im Chat-Fenster behoben, bei dem der Kontext des Benutzers verloren gehen konnte, wenn während der Antwort der KI der Chat gewechselt wurde.
 - Fehler in der Maske 'KI-Voreinstellungen' behoben, wenn die Maske nach dem Schließen noch einmal aufgerufen wurde, wenn ungespeicherte Änderungen vorhanden waren und man auf 'Abbrechen' geklickt hat.
 - Fehler behoben im OpenAI-response-Provider: Toolaufrufe werden nun korrekt zugeordnet.
 - Fehlerbehebung in parallelen Tool-Aufrufen von Anthropic-Modellen. Somit ist die Nutzung von Claude Sonnet 4.5 möglich.
 
 - 
ALBERT | AI 2.0.29
- Beim Filtern des KI-Assistenten ist der Fokus jetzt in das Eingabefeld gesetzt.
 
 - 
ALBERT | AI 2.0.28
- Filter für die Auswahl des KI-Assistenten im Chat eingebaut
 
 - 
ALBERT | AI 2.0.27
- Weiteren Platzhalter im Kontext eingefügt: Tool Knowledge Tree aufrufen.
 
 - 
ALBERT | AI 2.0.26
- Bessere Fehlerbehandlung, wenn ein Modell keine sinnvolle oder fehlerhafte Antwort liefert.
 
 - 
ALBERT | AI 2.0.25
- Links im Chat, die fett dargestellt werden, funktionieren nun auch.
 
 - 
ALBERT | AI 2.0.24
- Der Menüpunkt "Neuen KI-Titel generieren" ist jetzt nur noch verfügbar, wenn der Chat eine Historie besitzt.
 - Es wurde ein Fehler behoben, wenn eine Notiz als Anhang an den Chat übergeben wurde.
 - Notizobjekte können nun auch bzgl. ihres Inhalts durch ALBERT | AI genutzt werden.
 - Kontextmenü "Mit ALBERTs Chat öffnen" funktioniert nun auch mit Ordner-Objekten.
 
 - 
ALBERT | AI 2.0.23
- Fehler in "Neuen KI-Titel generieren" behoben, wenn der Befehl auf einem neuen Chat aufgerufen wird.
 
 - 
ALBERT | AI 2.0.22
- In der KI-Voreinstellungs-Konfiguration wurde ein Beschreibungsfeld hinzugefügt, mit dem eine kurze Beschreibung hinterlegt werden kann für die jeweilige Konfiguration (inklusive eines KI-Assistenten für das Schreiben).
 - Fehlende Übersetzungen wurden ergänzt im KI-Assistenten.
 - Die Suche/Filterung nach Tags mit Umlauten im Tag-Namen funktioniert nun.
 
 - 
ALBERT | AI 2.0.21
- Beim Ändern des Namens einer KI-Voreinstellung wird nun nur noch der eigentliche Name ohne Projekt-Prefix angezeigt und auch nur dieser kann geändert werden. Das Projekt-Prefix wird automatisch wieder davorgehängt beim Speichern.
 
 - 
ALBERT | AI 2.0.20
- Erweiterung der Bibliothek für das Laden von Templates um die Rückgabe der UUID des Templates.
 
 - 
ALBERT | AI 2.0.19
- Abhängigkeit zu ALBERT | AI Operating System hinzugefügt.
 
 - 
ALBERT | AI 2.0.18
- Ungültige Sucheingaben in der Konfigurationsauswahl führen nun nicht mehr zu einer Fehlermeldung, sondern lediglich zu einem leeren Ergebnis.
 - Bei fehlerhaften Presets wird nun im Chat ein Fehlerdialog geöffnet, bei dem die Konfiguration direkt bearbeitet werden kann.
 - Plugin-Titel geändert
 
 - 
ALBERT | AI 2.0.17
- Die Editoren im Workflow-Knoten agorum.ai wurden angepasst, sodass dort nun auch der umfangreiche Editor zur Verfügung steht. [PLUGINS-378]
 - Beim Laden eines Templates im Chat, wird nun korrekt die Willkommensnachricht ausgetauscht.
 - Im Chat werden nun benutzerfreundliche Fehlermeldungen ausgegeben. [PLUGINS-365]
 - Statistik im Chat erweitert um die Anzahl von Tool-Aufrufen
 
 - 
ALBERT | AI 2.0.16
- Die Berechtigungen des Workflow-Knotens agorum.ai.chat werden nun korrekt beachtet.
 - Die Berechtigung der übergebenen Session in der ai-lib werden nun korrekt beachtet.
 - Errors im Workflow-Knoten agorum.ai.chat werden nun standardmäßig in der Variable sys_acw_error gespeichert.
 - Erweiterte Debug-Informationen mit in den Chat hinzugefügt für
- tokens
 - timing
 
 
 - 
ALBERT | AI 2.0.15
- Erstes Release des neuen Plugins für die KI-Integration.
 - Für die Dokumentation siehe ALBERT | AI Dokumentation.
 - Dieses Plugin ersetzt das Plugin agorum core ai llm. Für Informationen zur Migration siehe agorum core ai llm migrieren.
 - Voraussetzung: agorum core pro 11.10