09.12.2025 - Fachartikel
Anwendungsfälle des KI-Assistenten in BCS: Von der Hilfe bis zur Automatisierung
Künstliche Intelligenz verändert nicht nur die Art, wie wir Software entwickeln, sie verändert auch, wie wir Software nutzen. Für BCS, unsere Projektmanagement- und ERP-Software, bedeutet das, dass KI den Arbeitsalltag spürbar erleichtern, Routinetätigkeiten reduzieren, Anwender schneller zu Antworten führen und die interne Effizienz steigern soll. Während viele KI-Initiativen auf punktuelle Lösungen oder experimentelle Prototypen setzen, verfolgt Projektron einen systematischen, langfristigen Ansatz.
KI in BCS: Wo sie echten Nutzen bringt
Nach einer intensiven Forschungsphase zu den Grundlagen von KI, zu RAG (Retrieval-Augmented Generation), Prompt Engineering, Finetuning und Framework-Design stand eines fest: Um KI sinnvoll in BCS einzubinden, braucht es konkrete, wiederkehrende Anwendungsfälle, in denen KI echten Nutzen stiftet.
RAG ist dabei besonders entscheidend, da die KI zunächst relevante Dokumente oder Daten findet und diese für die Antwortgenerierung nutzt, wodurch Halluzinationen minimiert werden. Mehr zu unseren Erfahrungen mit RAG haben wir in einem separaten Blogartikel dokumentiert.
Die KI-Anwendungsfälle in BCS lassen sich grob in drei Kategorien einteilen:
Hilfe und Informationsbereitstellung
Unterstützung im Ticket- und Projektmanagement
Automatisierung von Aufgaben über KI-Agenten
Diese Anwendungen erfüllen zentrale Kriterien: Sie treten häufig auf, sind gut strukturiert, haben klar abgrenzbare Anforderungen und können sicherheitskonform umgesetzt werden.
Bereits in der frühen Entwicklungsphase zeigte sich, dass nicht das Sprachmodell allein über die Qualität entscheidet, sondern vor allem, wie Aufgaben definiert und welcher Kontext bereitgestellt wird. Aus diesem Grund setzt Projektron auf ein modulares Framework, das sowohl lokal als auch skalierbar betrieben werden kann. Dabei sind einzelne Komponenten wie Sprachmodell, Embedding-Modell oder Vektordatenbank leicht austauschbar, um auf die schnelle Entwicklung im KI-Bereich flexibel reagieren zu können.
Die Anwendungsfälle im Überblick
Anwendung | Status | |
|---|---|---|
| 1. | Softwarehilfe / FAQ: Antwort auf genau die Nutzerfrage | produktiv |
| 2. | Ticket zusammenfassen: Die auf (eventuell) viele Kommentare (eventuell) verschiedener Personen verteilte Problembeschreibung soll zusammengefasst werden. | produktiv |
| 3. | Lösungsvorschläge für neue Tickets: Nach ähnlichen Tickets suchen, Antwortvorschlag generieren, den Antwortvorschlag im Chatmodus verbessern. | im Test |
| 4. | Zusammenfassungen weiterer Listen: Die Einträge der Vertriebshistorie bei Kunden oder Personen kann zusammengefasst werden, ebenso weitere Listen, wie das Projektverlaufsprotokoll. | 2. Quartal 2026 |
| 5. | Abfragen über KI-Agenten, Tools & MCP: Zukünftig geht die Nutzerfrage an einen zentralen KI-Agenten, der zur Beantwortung "Tools" verwendet. Die KI-Softwarehilfe ist ein solches Tool, die verschiedenen BCS-Funktionen sind auch Tools. Diese werden über die MCP-Schnittstelle aufgerufen. Wenn der Nutzer fragt, wie er einen Urlaubstermin anlegen kann, antwortet der KI-Agent anhand der Dokumentation. Fragte der Nutzer, wie viele Urlaubstage er in diesem Jahr noch hat, fragt der KI-Agent über MCP direkt die Daten aus BCS ab. | in Entwicklung, etwa Ende 2026 |
| 6. | Sprachversionen: Auf Basis eines einsprachigen Datensatzes sind viele Ausgabesprachen möglich. | produktiv |
| 7. | Lokales KI-Framework: Um bei hohen Sicherheitsanforderungen die KI-Funktionen vollständig lokal betreiben zu können, muss der Kunde das BCS-KI Framework bei sich installieren. Weitere Komponenten wie die Vektordatenbank, das Embedding-Modell und die lokalen Sprachmodelle (Gemma, Llama, qwen, ... ) kommen hinzu. Wir arbeiten an einem Packaging, das diese Systemumgebung handhabbar macht, inklusive einer Dokumentation und Schulung. | in Entwicklung, etwa Mitte 2026 |
| 8. | Aktionen über KI-Agenten, Tools & MCP:
| in Entwicklung, etwa Mitte 2026 |
Ein wachsendes KI-Ökosystem
Die Anwendungsfälle zeigen, dass der KI-Assistent weit mehr ist als eine Suchfunktion. Er bildet ein wachsendes Ökosystem aus
Assistenz
Automatisierung
intelligenten Systemabfragen
Dieses Ökosystem wird Schritt für Schritt mehr Aufgaben übernehmen. BCS-Nutzer profitieren von schnelleren Antworten, weniger Routinearbeit, besserer Übersicht, höherer Automatisierung und voller Datensouveränität. Gleichzeitig wächst der Assistent modular, ist inklusive Sprachmodell lokal betreibbar und wird stetig testgetrieben optimiert.
Für tiefergehende Informationen über die Entwicklungsprozesse, Optimierungen des RAG-Prozesses, Parent-Document-Retrieval, Query Rewriting und unsere Erfahrungen mit Sprachmodellen verweisen wir aus unsere anderen Blogbeiträge zum Schwerpunktthema KI.

Über den Autor
Maik Dorl ist einer der drei Gründer und bis heute einer der Geschäftsführer der Projektron GmbH. Seit der Gründung im Jahr 2001 prägt er die strategische Ausrichtung des Unternehmens und zeichnet sich heute verantwortlich für die Bereiche Vertrieb, Kundenbetreuung und Produktmanagement. Als Produktmanager ist er die treibende Kraft hinter der Integration innovativer KI-Anwendungen in die Projektmanagementsoftware BCS.
Weitere interessante Artikel im Projektron-Blog

Tokenisierung in KI
Tokenisierung ermöglicht Sprachmodellen wie ChatGPT Sprache zu verarbeiten. Sie zerlegt Texte in handhabbare Bausteine und bestimmt damit die Leistungsfähigkeit von KI. Den Tokenisierungsprozess lernen sie hier kennen.

Vektorisierung in KI
Erfahren Sie, wie Vektorisierung Bedeutung messbar macht – Grundlage für semantische Suche und moderne Sprachmodelle: Wie aus Wörtern numerische Vektoren (Embeddings) werden und warum Modelle Zahlen statt Wörter brauchen.

Attention in der KI
Transformer wie BERT und GPT setzen auf den Attention-Mechanismus – ein Prinzip, das erkennt, welche Wörter im Satz wirklich zählen. Erfahren Sie, warum dieser Ansatz ältere Methoden übertrumpft und heute Übersetzungen, Chatbots und sogar multimodale KI antreibt.

Retrieval-Augmented Generation
Retrieval-Augmented Generation (RAG) kombiniert Sprachmodelle mit externen Wissensquellen, um präzisere, aktuellere und nachvollziehbare KI-Antworten zu erzeugen. Erfahren Sie im Artikel, warum RAG zum neuen Standard für Enterprise-KI wird.
