✨ LLMUI Core v0.5.0 (Open-Source) • LLMUI Entreprise v1.1 (Propriétaire) • Deux versions, deux usages

Orchestration AI Multi-LLM avec Consensus Intelligent

LLMUI est une plateforme d'orchestration AI multi-LLM disponible en deux versions : Core v0.5.0 (open-source AGPLv3 + Common Clause, gratuit) pour le consensus multi-modèles de base, et Entreprise v1.1 (licence propriétaire) avec pipeline 12 étapes, Agent Andy, workspaces collaboratifs, fine-tuning LoRA et fonctionnalités enterprise avancées. Développée au Québec par Nexios TF inc.

2
Versions disponibles
Core
Open-Source AGPLv3
100%
Local & Souverain
Québec
Développé au QC
🤖

Agent Andy

Exclusif à LLMUI Entreprise v1.1

Andy est l'agent central de LLMUI Entreprise (licence propriétaire). Il utilise un pipeline de consensus multi-modèles avancé pour analyser chaque requête, orchestrer 3 modèles en parallèle, fusionner leurs réponses, et fournir des résultats de haute qualité avec traçabilité complète. Note : Cette fonctionnalité n'est pas disponible dans LLMUI Core.

🎯

Analyse de tâches automatique

Détecte le mode approprié (conversation, analyse, programmation) et route vers les bons modèles

Exécution parallèle

3 workers LLM travaillent simultanément pour des réponses rapides et fiables

🔄

Fallback automatique

Bascule vers le modèle de secours si le primaire échoue

🛠️

Commandes workspace

9 commandes WS_* pour manipuler fichiers (read, write, delete, mkdir, find, move, copy, tree, list)

🧠

Mémoire persistante

Système GLM4 dédié avec résumés automatiques toutes les 10 échanges

📊

Process Narrator

Monitoring temps réel du pipeline via WebSocket

Architecture Comparative

Core vs Entreprise : Deux niveaux de sophistication

🆓 LLMUI Core v0.5.0 Open-Source • AGPLv3 + Common Clause

Architecture simple et efficace

Interface
Nginx
Proxy
llmui-proxy
Backend
llmui-backend
LLM
Ollama
Modèles par défaut :

Workers: phi3:3.8b, gemma2:2b • Merger: granite4:micro-h

💼 LLMUI Entreprise v1.1 Licence Propriétaire • Enterprise Only

Pipeline consensus 12 étapes pour qualité enterprise

Étape 1-3
Sécurité & Validation
Étape 4-5
Mémoire & Métadonnées
Étape 6-7
Analyse & Tokens
Étape 8-9
RAG & Web
Étape 10
Consensus (3→1)
Étape 11-12
Mémoire & Réponse
Modèles avancés :

Workers: mistral, ministral-3.2:14b, phi4-reasoning:14b • Merger: devstral • Mémoire: glm4 • Vision: qwen2.5-vl:14b

Fonctionnalités par Version

Choisissez la version adaptée à vos besoins

🆓 LLMUI Core v0.5.0 Open-Source • Gratuit • AGPLv3 + Common Clause

🎯

Consensus Multi-Modèles

Workers (phi3, gemma2) + Merger (granite4) pour des réponses par consensus. Architecture éprouvée.

🤖

Installation Andy

Assistant DevOps autonome pour installation automatisée en une commande. Menu interactif complet.

🔒

100% Local & Souverain

Hébergement local complet. Aucune dépendance cloud. Vos données restent chez vous.

📄

Traitement Fichiers

Support PDF, DOCX, TXT, MD, images (PNG, JPG), données (CSV, JSON), et code source.

🧠

Système Mémoire

Mémoire de conversation avec SQLite. Historique complet et contexte persistant.

🔐

Sécurité de Base

Authentification JWT, chiffrement sessions, pare-feu configuré, isolation des services.

🌐

Interface Web Nginx

Interface web complète via Nginx. Proxy llmui-proxy pour gestion sessions et auth.

🐧

Linux & WSL

Support natif Linux (Debian, Ubuntu, Rocky, RHEL) et Windows via WSL2.

📊

Services SystemD

Gestion professionnelle via systemd. Logs journalctl. Auto-restart configuré.

💼 LLMUI Entreprise v1.1 Licence Propriétaire • Fonctionnalités Avancées

Pipeline 12 Étapes

Orchestration avancée : Sécurité → Validation → Métadonnées → RAG → Consensus → Réponse. Agent Andy intégré.

🤝

Workspaces Collaboratifs

Espaces partagés multi-utilisateurs avec rôles. 9 commandes WS_*. Journal d'activité complet.

🎓

Fine-tuning LoRA

Gestion projets LoRA. 6 méthodes merge. Distillation teacher-student. Versioning avec changelog.

👁️

OCR/Vision Avancé

Vision LLM (qwen-vl) pour images. OCR automatique PDF. 70+ extensions. Upload 100 MB.

🌐

Web Crawler Intégré

DuckDuckGo sans clé API. Extraction intelligente. Enrichissement automatique du contexte.

🛡️

RBAC Complet

Users → Groups → Roles → Permissions. 2FA TOTP. Verrouillage après 5 tentatives.

🔐

Sécurité Enterprise

Détection injection (prompt, jailbreak, SQL, code). JWT rotation automatique. Sanitisation complète.

🌍

Multi-langue (6)

Français, Anglais, Espagnol, Allemand, Portugais, Hindi. Interface i18n 600+ clés.

⚙️

Panel Administration

Dashboard complet. Gestion users, groupes, LLMs, LoRA. Logs détaillés. Settings centralisés.

🔧

Watchdog Auto-réparant

Surveillance automatique. Détection anomalies. Restart intelligent. Alertes configurables.

💾

PostgreSQL + Redis

Base de données enterprise PostgreSQL. Cache Redis. Sessions distribuées. Haute disponibilité.

🤖

HuggingFace Hub

Téléchargement et conversion modèles HF. Intégration PEFT. Support PyTorch complet.

Stack Technologique

Architecture moderne et performante

🐍 Backend

  • FastAPI + Uvicorn
  • SQLAlchemy ORM
  • PostgreSQL 14+
  • Redis 7+
  • Pydantic v2

🤖 AI/ML

  • Ollama
  • HuggingFace Hub
  • ChromaDB (RAG)
  • PEFT (LoRA)
  • PyTorch

🎨 Frontend

  • Vanilla JavaScript
  • WebSocket
  • Markdown-it
  • DOMPurify
  • Jinja2 Templates

🔧 Infrastructure

  • SystemD
  • Nginx
  • Let's Encrypt SSL
  • Ubuntu/CentOS/Arch
  • Docker (optionnel)

Deux Produits Distincts

LLMUI Core (open-source) et LLMUI Entreprise (propriétaire)

LLMUI Core

$0

Gratuit • Open-Source

  • v0.5.0 stable
  • AGPLv3 + Common Clause
  • Code source complet sur GitHub
  • Consensus multi-modèles (workers + merger)
  • Installation Andy automatisée
  • Système mémoire SQLite
  • Traitement fichiers (PDF, DOCX, images)
  • Support Linux & WSL
  • Services SystemD
  • Support communautaire GitHub
Installer Core

Services

Flexible

Consulting & Formation

  • Consulting architecture AI
  • Fine-tuning modèles personnalisés
  • Optimisation performance
  • Formation équipe technique
  • Intégration systèmes existants
  • Migration de données
  • Déploiement assisté
  • Audit de sécurité
  • Support ponctuel ou continu
Discuter

Quelle version choisir ?

✅ Choisir LLMUI Core si...
  • Vous voulez une solution gratuite et open-source
  • Consensus multi-modèles de base suffit
  • Vous gérez votre propre infrastructure
  • Projet personnel ou PME
  • Support communautaire acceptable
💼 Choisir LLMUI Entreprise si...
  • Besoin de fonctionnalités enterprise avancées
  • Workspaces collaboratifs requis
  • Fine-tuning LoRA nécessaire
  • Support professionnel 24/7 essentiel
  • Conformité et sécurité renforcées

Installation LLMUI Core

Démarrez avec Andy en moins de 30 minutes • v0.5.0 Open-Source

1

Prérequis système

Linux (Debian/Ubuntu/Rocky/RHEL) ou Windows 10/11 avec WSL2. 8GB+ RAM recommandé (16GB idéal).

# Linux natif
sudo apt update && sudo apt upgrade -y
sudo apt install -y git python3 python3-pip

# Ou sur Windows WSL2
wsl --install -d Ubuntu-22.04
2

Cloner LLMUI Core

Récupérez le code source depuis GitHub

# Cloner le repository
git clone https://github.com/GenAICos/llmui-core.git
cd llmui-core
3

Installer avec Andy

L'assistant DevOps autonome installe tout automatiquement

# Lancer l'installation interactive
sudo bash andy_setup.sh

# Ou installation complète en 3 commandes
sudo python3 andy_installer.py # Base système
sudo python3 andy_deploy_source.py # Déploiement
sudo python3 andy_start_services.py # Démarrage
4

Accéder à l'interface

Ouvrez votre navigateur et commencez à utiliser LLMUI Core

# Interface web
http://localhost/ # Windows WSL
http://VOTRE_IP/ # Linux serveur

# Gestion des services
sudo systemctl status llmui-backend
sudo systemctl status llmui-proxy
sudo journalctl -u llmui-backend -f # Logs temps réel

Ce qu'Andy installe automatiquement

🤖 Ollama & Modèles
  • Ollama serveur (port 11434)
  • phi3:3.8b (worker)
  • gemma2:2b (worker)
  • granite4:micro-h (merger)
🐍 Backend Python
  • Python 3.8+ avec venv
  • FastAPI + Uvicorn
  • SQLite pour mémoire
  • Services systemd
🌐 Infrastructure
  • Nginx reverse proxy
  • llmui-proxy (sessions, auth)
  • Pare-feu configuré
  • SSL optionnel (Let's Encrypt)
📖 Documentation complète LLMUI Core

Pour LLMUI Entreprise, contactez-nous

Contactez Nexios TF inc.

Questions, support, ou projet entreprise ?

Parlons de votre projet

Que vous ayez besoin de support, de consulting, ou d'un déploiement enterprise, notre équipe est là pour vous accompagner.

🌐
Site web
nexiostf.com
💬
Support GitHub
GitHub Issues
📍
Localisation
La Tuque, Québec, Canada