Lokale LLM in FileMaker mit MBS Llama
Christian Schmitz präsentierte neue MBS-Plugin-Funktionen für die Integration lokaler Sprachmodelle via llama.cpp direkt in FileMaker. Die Modelle laufen komplett lokal — auf macOS mit Metal-GPU-Beschleunigung, auf Windows über CPU oder optional über Nvidia-GPUs. Lokale KI ohne Cloud In der Live-Demo lud Christian ein 1 GB großes Gemma-Modell von Google und führte es direkt in FileMaker aus. Die Modelle müssen im GGUF-Format vorliegen, Konverter für andere Formate sind verfügbar. Die Implementierung umfasst:...