Obtenez des réponses plus fiables en orchestrant plusieurs modèles IA en parallèle. 100% local, 100% souverain, 100% open-source. Développé au Québec.
Orchestrez plusieurs LLM (phi3, gemma2, granite4) pour des réponses validées par consensus, éliminant les hallucinations.
Workers analysent en parallèle, merger synthétise. Réponses en quelques secondes même avec 5+ modèles.
Hébergement complet sur vos serveurs. Zéro dépendance cloud, protection totale de vos données sensibles.
Système de mémoire contextuelle intelligent avec SQLite pour conserver l'historique des conversations.
Support PDF, DOCX, images, CSV, JSON. Extraction et analyse automatique de contenu.
Intégrez LLMUI Core dans vos applications via FastAPI. Documentation complète incluse.
Authentification JWT, sessions chiffrées, pare-feu configuré, isolation des services.
Installation automatisée complète. Andy configure Ollama, services systemd, Nginx et pare-feu.
Développé au Québec avec une vision de souveraineté technologique et d'indépendance des GAFAM.
L'utilisateur pose une question via l'interface web ou l'API
phi3:3.8b et gemma2:2b analysent la question simultanément
granite4:micro-h crée une réponse par consensus des workers
L'utilisateur reçoit une réponse de qualité supérieure, sans hallucinations
Licence AGPLv3 + Common Clause
Pour les organisations
Andy, l'assistant DevOps, automatise l'installation complète de LLMUI Core
Compatible: Debian 11/12 • Ubuntu 20.04/22.04/24.04 • Rocky Linux 8/9 • RHEL 8/9
📖 Guide d'installation complet