ai2fm - Low-latency "Vibe Coding" via the clipboard

Dimitris Kokoutsidis stellte sein neues Produkt ai2fm.com vor – eine Lösung für ein Problem, das FileMaker-Entwickler seit dem Aufkommen generativer AI-Tools begleitet: Wie bekommt man von ChatGPT, Claude oder Gemini erzeugten FileMaker-Code zuverlässig zurück in den Script Workspace? Bisher blieb meist nur der mühsame Weg, Zeile für Zeile abzutippen oder mit XML-Tricks zu hantieren. Das Prinzip – Clipboard als Brücke Der Ansatz von ai2fm nutzt die Zwischenablage als Übertragungsweg. Dimitris demonstrierte den Workflow live mit VSCodium, einer quelloffenen Variante von VS Code....

Claude Computer Use – Create a FileMaker Database with one prompt

Marcel Moré demonstrierte Claude Computer Use – eine neue Funktion, die Anthropic wenige Tage vor dem Stammtisch freigegeben hatte. Das Besondere: Claude kann über diese Funktion den Computer direkt fernsteuern, also Maus und Tastatur bedienen, Fenster erkennen, in Menüs navigieren und Software wie jeder menschliche Anwender bedienen. Die Idee für die Demo war einfach und direkt: Kann Claude auf Zuruf eine komplette FileMaker-Datenbank anlegen – ohne jedes Vorwissen, nur mit einem einzigen Prompt?...

Claude in Excel + PowerPoint

In einer spontanen Demo während der Diskussion zeigte Marcel Moré, wie Claude inzwischen als natives Add-In in Microsoft Excel und PowerPoint nutzbar ist – ein Tipp, der in der Runde für Begeisterung sorgte. Der Einstieg in das Thema kam über Jörg Köster, der von einem Kunden-Projekt berichtete in dem er mit Hilfe von Claude eine komplette PowerPoint-Präsentation erstellt hatte, die für seine Verhältnisse deutlich professioneller ausfiel als alles, was er selbst von Hand hätte bauen können....

FileMaker MCP via oData – Remote-Control + Feedback für AI Agents

Jörg Köster präsentierte seinen selbst entwickelten MCP-Server für FileMaker, der über die oData-Schnittstelle einen strukturierten Zugriff auf FileMaker-Datenbanken für AI-Agenten bereitstellt. Das Projekt entstand aus einem konkreten Bedürfnis: Wenn die AI bereits Skripte generiert, sollte sie diese auch gleich selbst testen können – und dafür braucht sie Zugriff auf die Daten. Hintergrund – warum MCP? Das Model Context Protocol (MCP) ist ein offener Standard, den man sich am besten wie ein “USB-Kabel zwischen AI und Datenbank” vorstellen kann....

Link-Liste

Während des FileMaker Stammtischs Hannover am 9. April 2026 wurden folgende Links im Zoom-Chat geteilt: MBS Plugin Events-Übersicht – Liste aller FileMaker-Termine und Konferenzen https://www.monkeybreadsoftware.com/filemaker/events/ MBS Plugin Builds – neueste Entwickler-Builds zum Download https://www.monkeybreadsoftware.com/filemaker/builds/ FileMaker Open Source Projekte mcp-server-filemaker – MCP via oData Server für FileMaker von Jörg Köster (GitHub) https://github.com/JoergKoester/mcp-server-filemaker WebDirect-Rich-Text-Editor – FileMaker WebDirect Rich Text Editor Bridge von Dimitris Kokoutsidis (GitHub) https://github.com/DimitrisKok/WebDirect-Rich-Text-Editor AI News & Tools Warmwind – AI-basierte Mitarbeiter...

09.04.2026 · 

Skriptsuche per MBS – neue verbesserte Version

Christian Schmitz stellte die überarbeitete Skriptsuche im MBS Plugin vor. Die neue Version entstand in Zusammenarbeit mit Adam Augustin und ist ab MBS Plugin 16.2 verfügbar. Zwei Suchfunktionen – Custom Functions und Skripte Das MBS Plugin stellt zwei Suchfunktionen in FileMaker bereit. Die Suche nach Custom Functions erlaubt es, nicht nur nach Funktionsnamen zu suchen, sondern auch innerhalb der Funktionsdefinitionen – etwa nach allen Funktionen, in denen ein bestimmter Ausdruck vorkommt....

FileMaker Server Logfile Analyse mit AI

Jörg Köster berichtete von seinen Erfahrungen mit der AI-gestützten Analyse von FileMaker Server Logdateien. Inspiriert von Marcels DuckDB-Ansatz aus dem Vormonat hatte er eine eigene Umgebung aufgesetzt und die Server-Logs per AI analysieren lassen. Analyse mit DuckDB und Claude Code Jörg nutzt Claude Code in Kombination mit DuckDB, um die FileMaker Server Logs systematisch auszuwerten. Claude schrieb dafür ein Python-Skript, das die Log-Zeilen automatisch in eine DuckDB-Datenbank importierte. Ab diesem Punkt konnte Jörg einfach Fragen in natürlicher Sprache stellen – Claude formulierte eigenständig die passenden SQL-Queries, führte sie auf der DuckDB aus und lieferte eine strukturierte Analyse zurück....

Hochgeschwindigkeits Gen-AI

Swen Bauer zeigte zum Abschluss des Themenblocks eine beeindruckende Demo: Ein AI-Modell, das komplett in Hardware gegossen – also als ASIC realisiert – wurde. Das Projekt Taalas stammt aus dem Umfeld eines Kunden, dessen Firma Sicherheitstechnik entwickelt. Hardware-beschleunigte AI-Inferenz In der Live-Demo war der Geschwindigkeitsunterschied zu herkömmlichen Modellen sofort sichtbar: Die Antworten erschienen nahezu in Echtzeit, deutlich schneller als bei GPU- oder CPU-basierter Inferenz. Das Modell läuft auf dedizierter Hardware, die speziell für die Ausführung von Sprachmodellen optimiert ist....

Link-Liste

Während des FileMaker Stammtischs Braunschweig am 11. März 2026 wurden folgende Links im Zoom-Chat geteilt: Claris Engage Looking Ahead: Exploring Claris Engage 2027 https://community.claris.com/en/s/question/0D5Vy00001c9zXsKAI/looking-ahead-exploring-claris-engage-2027 FileMaker AI Dev Tools Bruno Pelletier (GenieWave) — Person hinter dem Genie-Plugin https://www.linkedin.com/in/brunolpelletier/ FMCopilot — AI-gestützter FileMaker-Skript-Generator https://fmcopilot.com/en/#how-it-works FileMaker Database Analyzer — AI-basierte Strukturanalyse von FileMaker-Lösungen https://fm-analyzer.com FMS Log Analyzer — AI-gestützte Auswertung von Server-Logdateien https://fms-log-analyzer.vercel.app https://github.com/rulosa01/FMS-Log-Analyzer FM Dojo — Online-Entwicklerplattform für FileMaker https://fmdojo.com Agentic FM — Agentenbasierte Script-Erzeugung...

11.03.2026 · 

lokale AI Modelle ausprobiert

Armin Egginger zeigte seinen aktuellen Stand beim Einsatz lokaler Sprachmodelle. Für ihn ist die DSGVO-konforme Verarbeitung sensibler Kundendaten der entscheidende Treiber: Die Daten dürfen das Unternehmen nicht verlassen, weshalb Cloud-basierte AI-Dienste für bestimmte Anwendungsfälle ausscheiden. Setup und Erfahrungen Armin nutzt einen Mac Studio mit M1 Ultra und 64 GB RAM und testet verschiedene lokale Modelle über LM Studio. Er demonstrierte live, wie er mehrere LLMs gleichzeitig laden und je nach Aufgabe das passende Modell ansprechen kann – etwa ein Qwen-Modell mit 5,8 GB und ein kleineres mit 3,9 GB parallel....