Use Case - Daten

Beschreibt die benötigten Wissensquellen, definiert relevante Schnittstellen und erläutert, wie das Modell trainiert und laufend weiterlernt.

Daten & Wissen

· Datenarchitektur: RAG in Chat-GPT

· Vorhandene Datenquellen: Bedienungsanleitungen (teilw. interne, immer externe), sehr strukturiert

· Zu erstellen: "Masterliste" mit Problemstellungen und Lösungswegen

Bedienungs- und Service­anleitungen der Abfüll­anlagen (intern + extern, überwiegend strukturiert) und eine neu aufzubauende Masterliste mit bisherigen Störungs­meldungen, Behebungs­schritten und Optimierungen, die heute noch unstrukturiert und lückenhaft vorliegt. Alle Inhalte werden in einer RAG-basierten Wissens­bibliothek abgelegt, sodass der Agent gezielt nur jene Dokumente abruft, die zur aktuellen Frage passen.

Schnittstellen

· Ideal wäre die Verknüpfung mit der "Masterliste", damit diese laufend aktuell gehalten wird und das Wissen direkt verfügbar ist (zu prüfen über «n8n» bzw IT-Unterstützung)

· Aktuell werden die Einträge für die Masterliste durch den Agenten generiert und wöchentlich in die Masterliste kopiert und anschliessend wieder im RAG des Agenten hochgeladen

Kurzfristig fliessen neue Einträge manuell ein: Der Agent generiert nach jeder Sprach­eingabe einen strukturierten Datensatz (CSV/JSON), diese werden wöchentlich in die Masterliste kopiert und anschliessend in das RAG des Agenten zurückgeladen. Langfristig ist eine direkte Synchroni­sation (mit IT-Unterstützung) mit einem Server (Citrix / Datenbank) vorgesehen, um die Liste ohne Medien­bruch aktuell zu halten. Alternativ könnte die Automatisierung auch über einen mehrstufigen Agenten mittels n8n geprüft werden.

Training & Lernen

· Training: Bedienungsanleitungen, Masterliste mit aktuellen Störungsfällen und Lösungswegen

· Maschinelles Lernen: Feedbackgesteuertes Lernen via Reinforcement Learning from Human Feedback (RLHF)

· Feedbackmechanismen: Nutzen‑Feedback manuell auswerten und Lücken in der Wissensdatenbank schliessen

· Herausforderungen: Bias durch unterrepräsentierte Störungen; Qualitätsprobleme in Trainingsdaten (unvollständige oder ungenaue Beschreibungen)

Zum Anlernen erhält das Modell alle verfügbaren Anleitungen sowie erste Störungs­fälle (Masterliste) als Few-Shot-Beispiele. Feedback­gesteuertes Lernen (RLHF) wertet Nutzer­rückmeldungen betreffend Interaktion mit dem Agenten aus und der Mega-Prompt wird mit diesen Daten optimiert. Herausforderung bleibt, Bias durch seltene Störungen zu vermeiden und die Qualität unvollständiger Beschreibungen zu erhöhen.

Summary

Der Use Case nutzt eine RAG-Architektur in ChatGPT: strukturierte Bedienungs- und Serviceanleitungen sowie eine neu aufzubauende Masterliste mit Störungsfällen bilden die Wissensbasis. Momentan erzeugt der Agent nach jeder Anfrage CSV/JSON-Einträge, die wöchentlich manuell in die Masterliste kopiert und ins RAG geladen werden; künftig soll das automatisiert über Citrix oder n8n geschehen. Das Modell lernt für die Interaktion mit wenigen Beispielen plus RLHF-Feedback, um das Verhalten möglichst benutzerfreundlich zu gestalten. Risiken bleiben Daten-Bias bei seltenen Störungen und unvollständigen Beschreibungen.