LLMUI est une plateforme d'orchestration AI multi-LLM disponible en deux versions : Core v0.5.0 (open-source AGPLv3 + Common Clause, gratuit) pour le consensus multi-modèles de base, et Entreprise v1.1 (licence propriétaire) avec pipeline 12 étapes, Agent Andy, workspaces collaboratifs, fine-tuning LoRA et fonctionnalités enterprise avancées. Développée au Québec par Nexios TF inc.
Exclusif à LLMUI Entreprise v1.1
Andy est l'agent central de LLMUI Entreprise (licence propriétaire). Il utilise un pipeline de consensus multi-modèles avancé pour analyser chaque requête, orchestrer 3 modèles en parallèle, fusionner leurs réponses, et fournir des résultats de haute qualité avec traçabilité complète. Note : Cette fonctionnalité n'est pas disponible dans LLMUI Core.
Détecte le mode approprié (conversation, analyse, programmation) et route vers les bons modèles
3 workers LLM travaillent simultanément pour des réponses rapides et fiables
Bascule vers le modèle de secours si le primaire échoue
9 commandes WS_* pour manipuler fichiers (read, write, delete, mkdir, find, move, copy, tree, list)
Système GLM4 dédié avec résumés automatiques toutes les 10 échanges
Monitoring temps réel du pipeline via WebSocket
Core vs Entreprise : Deux niveaux de sophistication
Architecture simple et efficace
Workers: phi3:3.8b, gemma2:2b • Merger: granite4:micro-h
Pipeline consensus 12 étapes pour qualité enterprise
Workers: mistral, ministral-3.2:14b, phi4-reasoning:14b • Merger: devstral • Mémoire: glm4 • Vision: qwen2.5-vl:14b
Choisissez la version adaptée à vos besoins
Workers (phi3, gemma2) + Merger (granite4) pour des réponses par consensus. Architecture éprouvée.
Assistant DevOps autonome pour installation automatisée en une commande. Menu interactif complet.
Hébergement local complet. Aucune dépendance cloud. Vos données restent chez vous.
Support PDF, DOCX, TXT, MD, images (PNG, JPG), données (CSV, JSON), et code source.
Mémoire de conversation avec SQLite. Historique complet et contexte persistant.
Authentification JWT, chiffrement sessions, pare-feu configuré, isolation des services.
Interface web complète via Nginx. Proxy llmui-proxy pour gestion sessions et auth.
Support natif Linux (Debian, Ubuntu, Rocky, RHEL) et Windows via WSL2.
Gestion professionnelle via systemd. Logs journalctl. Auto-restart configuré.
Orchestration avancée : Sécurité → Validation → Métadonnées → RAG → Consensus → Réponse. Agent Andy intégré.
Espaces partagés multi-utilisateurs avec rôles. 9 commandes WS_*. Journal d'activité complet.
Gestion projets LoRA. 6 méthodes merge. Distillation teacher-student. Versioning avec changelog.
Vision LLM (qwen-vl) pour images. OCR automatique PDF. 70+ extensions. Upload 100 MB.
DuckDuckGo sans clé API. Extraction intelligente. Enrichissement automatique du contexte.
Users → Groups → Roles → Permissions. 2FA TOTP. Verrouillage après 5 tentatives.
Détection injection (prompt, jailbreak, SQL, code). JWT rotation automatique. Sanitisation complète.
Français, Anglais, Espagnol, Allemand, Portugais, Hindi. Interface i18n 600+ clés.
Dashboard complet. Gestion users, groupes, LLMs, LoRA. Logs détaillés. Settings centralisés.
Surveillance automatique. Détection anomalies. Restart intelligent. Alertes configurables.
Base de données enterprise PostgreSQL. Cache Redis. Sessions distribuées. Haute disponibilité.
Téléchargement et conversion modèles HF. Intégration PEFT. Support PyTorch complet.
Architecture moderne et performante
LLMUI Core (open-source) et LLMUI Entreprise (propriétaire)
Gratuit • Open-Source
Licence Propriétaire
Consulting & Formation
Démarrez avec Andy en moins de 30 minutes • v0.5.0 Open-Source
Linux (Debian/Ubuntu/Rocky/RHEL) ou Windows 10/11 avec WSL2. 8GB+ RAM recommandé (16GB idéal).
Récupérez le code source depuis GitHub
L'assistant DevOps autonome installe tout automatiquement
Ouvrez votre navigateur et commencez à utiliser LLMUI Core
Pour LLMUI Entreprise, contactez-nous
Questions, support, ou projet entreprise ?
Que vous ayez besoin de support, de consulting, ou d'un déploiement enterprise, notre équipe est là pour vous accompagner.