Nach dem Einstieg in das Thema n8n präsentierte Marcel Moré eine konkrete Beispiel-Anwendung für die Erstellung eines “KI Agenten”.
Mit Hilfe der LowCode Plattform lassen sich sehr einfach komplette KI Workflows erstellen, die eine Vielzahl von spezialisierten Tools und Diensten miteinander verbinden.
Das Demo-Projekt besteht aus einem ChatBot, der mehrere Wissensquellen zum Thema MBS Plugin und zum FileMaker Stammtisch mit Hilfe eines Sprachmodells zugänglich macht.
ChatBot beantwortet Fragen
Man kann also wie bei ChatGPT Fragen stellen, diese werden dann aber nicht aus dem gelernten Wissen von ChatGPT beantwortet, sondern der Bot recherchiert zunächst in den hinterlegten Dokumenten und Datenquellen und baut aus den Fundstücken eine Antwort zusammen. Das Verfahren ist unter der Bezeichnung RAG (Retrieval-Augmented Generation) bekannt und erlaubt es, mit Hilfe eines Large-Language-Modells auf eigene Quellen zuzugreifen.
Funktionsweise
Damit das in der Praxis funktioniert, müssen diese Daten entweder vorab als sogenannte Embeddings in einer Vector-Datenbank für die semantische Suche vorbereitet werden. Oder man bringt dem KI-Agenten bei, direkt in einer Datenbank nach bestimmten Stichworten zu suchen. In der Demo zeigte Marcel beide Möglichkeiten. Der n8n Workflow greift nach Eingabe der Frage auf einen Vector-Store mit vorbereiteten Embeddings zu und recherchiert zusätzlich per Data API in einer FileMaker Datenbank nach passenden Einträgen.
Hinter den Kulissen kommen dafür zahlreiche spezialisierte Technologien zum Einsatz:
- OpenAI Embedding Model für die Erzeugung der Vector-Embeddings zur semantischen Suche
- Textparser zum Zerlegen der Originaldokumente in kleinere Segmente für die Vector-Embeddings
- Qdrant Vector-Store zum speichern und abrufen der Embeddings
- OpenAI Chat Model für die Steuerung der Tool Chain und die Erzeugung der Antworten
- LangChain als Orchestrierungs-Layer für KI-Modell, Vector-Store und Tools
- n8n Nodes für Zugriff auf SQLite und HTML-Inhalte für die Konvertierung eines Dash Docsets in lesbare Texte mit den Anleitungen aller MBS Funktionen
- n8n Node für Zugriff auf Webseiten zum Lesen aller MBS Tutorials
- n8n Node für Zugriff auf FileMaker zur Recherche in allen Stammtisch-Berichten aus einer FileMaker Datenbank auf einem lokalen FileMaker Server
Das eigentlich Besondere an diesem Setup ist, dass mit Hilfe von n8n wenige Bausteine ausreichen, um diese komplexe Orchestrierung in einem lauffähigen LowCode Workflow unterzubringen.
RAG - Bereitstellung und Abruf eigener Inhalte
Die Bereitstellung der Inhalte erfolgt dabei in zwei Schritten:
Aus den Quell-Dokumenten werden mit Hilfe eines n8n Workflows Embeddings erzeugt und in einem Qdrant Vector-Store gespeichert: Bei Qdrant handelt es sich um eine leistungsfähige OpenSource Lösung, die für diese Aufgabe spezialisierte Funktionen anbietet. Die eigentliche Erzeugung der Embeddings wird dabei durch ein KI-Modell erledigt. Entweder über eine Cloud-API oder über ein per Ollama lokal bereit gestelltes Modell. Aus den Texten entstehen so multi-dimensionale Vektoren, welche den Sinngehalt des Eingabetextes in maschinenlesbarer Form speichern.
Abruf der Inhalte innerhalb des Chat-Verlaufs mit einem KI-Agenten, welcher den Zugriff auf die Inhalte und Tools steuert: Dazu bietet n8n einen fertigen Node an, dem man einfach die Verbindungen zum Chat-Modell, zum Vector-Store und optional weiteren Funktions-Modulen (Agenten Tools) zuweist. Damit der KI-Agent weiss, was er machen soll, beschreibt man die Funktionsweise der Tools und den Inhalt der Datenquellen in wenigen Sätzen in einem “System-Prompt”. Der Prompt wird einfach in ein dafür vorgesehenes Textfeld eingegeben. Dies ist sozusagen die Programmieranweisung an die KI, damit diese ein sinnvolles Ergebnis abliefern kann. Der System-Prompt wird dann mit der Benutzer-Eingabe kombiniert und an das verknüpfte Sprachmodell geschickt. Hinter den Kulissen sorgt n8n dafür, dass die Anweisungen und bereit gestellten Daten mit Hilfe von LangChain verarbeitet werden. Am Ende des Workflows spuckt der KI-Agent einfach eine Antwort aus, die man sich in Textform oder als JSON-Nachricht ausgeben lassen kann.
Im gezeigten Beispiel laufen n8n und Qdrant lokal auf einem Laptop als Docker-Container. Der FileMaker Server läuft in einer VM auf dem selben Rechner. Lediglich die Zugriffe auf die KI-Modelle erfolgen online über eine API bei OpenAI.
n8n als einfacher KI Baukasten
Durch die Verwendung von n8n reduziert sich die Komplexität sowohl des RAG Verfahrens als auch der Orchestrierung einer KI Tool-Chain enorm und man kann sehr schnell lauffähige Prototypen für KI Agenten erstellen. Natürlich lassen sich beliebige weitere Funktionen aus n8n in den Ablauf integrieren. Dadurch hat man praktisch die Einfachheit eines “Lego-Baukastens” aus der LowCode Plattform und kann dabei die Power der KI-Modelle direkt für eigene Anwendungen nutzbar machen.
Nicht ohne Grund ist das Internet inzwischen voll von enthusiastischen Beiträgen zu diesem Thema. n8n erlebt gradezu einen Hype in den Sozialen Medien und auf YouTube, was das Thema “KI Agenten” angeht.
Self-hosted AI Starter Kit
Wer es bodenständiger möchte, kann sich das von n8n kuratierte Projekt “Self-hosted Al Starter Kit” installieren, das auf github bereit gestellt wird und alle wesentlichen Tools für eine lokale Testumgebung mitliefert.
Introducing the Self-hosted AI Starter Kit: Run AI locally for privacy-first solutions
https://blog.n8n.io/self-hosted-ai/
github: self-hosted-ai-starter-kit
https://github.com/n8n-io/self-hosted-ai-starter-kit
Weitere Infos
Build MBS Bot an Al chat agent with n8n
https://docs.n8n.io/advanced-ai/intro-tutorial/
Build production-ready AI Agents with Qdrant and n8n
https://www.youtube.com/live/_BQTnXpuH-E
Chat with a codebase using Qdrant and N8N
https://qdrant.tech/blog/qdrant-n8n/
Build a Multichannel RAG based AI Chatbot with Custom Knowledge Base in 20 mins
https://community.n8n.io/t/build-a-multichannel-rag-based-ai-chatbot-with-custom-knowledge-base-in-20-mins/70912
This n8n AI Agent will AUTOMATE your Social Media
https://youtu.be/gEL0fFCdAJQ