Orchestration IA Multi-Modèles avec Consensus Intelligent

Obtenez des réponses plus fiables en orchestrant plusieurs modèles IA en parallèle. 100% local, 100% souverain, 100% open-source. Développé au Québec.

U
Explique-moi la souveraineté numérique
AI
La souveraineté numérique désigne la capacité d'un État ou d'une organisation à contrôler ses données et infrastructures technologiques...
✓ Consensus de 3 modèles (phi3, gemma2, granite4)

Fonctionnalités Puissantes

🎯

Consensus Multi-Modèles

Orchestrez plusieurs LLM (phi3, gemma2, granite4) pour des réponses validées par consensus, éliminant les hallucinations.

Traitement Parallèle

Workers analysent en parallèle, merger synthétise. Réponses en quelques secondes même avec 5+ modèles.

🔒

100% Local & Privé

Hébergement complet sur vos serveurs. Zéro dépendance cloud, protection totale de vos données sensibles.

🧠

Mémoire Hybride

Système de mémoire contextuelle intelligent avec SQLite pour conserver l'historique des conversations.

📁

Traitement Fichiers

Support PDF, DOCX, images, CSV, JSON. Extraction et analyse automatique de contenu.

🔌

API REST Complète

Intégrez LLMUI Core dans vos applications via FastAPI. Documentation complète incluse.

🛡️

Sécurité Renforcée

Authentification JWT, sessions chiffrées, pare-feu configuré, isolation des services.

🤖

Assistant Andy

Installation automatisée complète. Andy configure Ollama, services systemd, Nginx et pare-feu.

🇨🇦

Solution Québécoise

Développé au Québec avec une vision de souveraineté technologique et d'indépendance des GAFAM.

Comment ça Marche

1

Question Utilisateur

L'utilisateur pose une question via l'interface web ou l'API

2

Workers Parallèles

phi3:3.8b et gemma2:2b analysent la question simultanément

3

Merger Synthétise

granite4:micro-h crée une réponse par consensus des workers

4

Réponse Validée

L'utilisateur reçoit une réponse de qualité supérieure, sans hallucinations

Tarifs Transparents

🆓 Open Source

LLMUI Core

Gratuit

Licence AGPLv3 + Common Clause

  • Mode Simple & Consensus
  • Jusqu'à 5 modèles (extensible)
  • phi3, gemma2, granite4 inclus
  • Mémoire SQLite
  • Traitement fichiers (PDF, DOCX, etc.)
  • API REST FastAPI
  • Interface web moderne
  • Authentification JWT
  • Installation automatisée (Andy)
  • Support communautaire GitHub
  • Documentation complète
  • 100% local, zéro cloud
⬇ Télécharger sur GitHub

Installation Rapide

Andy, l'assistant DevOps, automatise l'installation complète de LLMUI Core

# Cloner le dépôt
$ git clone https://github.com/GenAICos/llmui-core.git
Clonage dans 'llmui-core'...
$ cd llmui-core
# Lancer l'installation interactive avec Andy
$ sudo bash andy_setup.sh
╔══════════════════════════════════════════╗
║ Bienvenue dans LLMUI Core Setup ║
║ Assistant Andy - Installation Auto ║
╚══════════════════════════════════════════╝
✅ Mise à jour du système...
✅ Installation d'Ollama...
✅ Téléchargement des modèles (phi3, gemma2, granite4)...
✅ Configuration Python + dépendances...
✅ Création des services systemd...
✅ Configuration Nginx + SSL...
✅ Configuration du pare-feu...
🎉 Installation terminée avec succès !
🌐 Interface web: http://votre-ip/
📡 API Backend: http://votre-ip:5000
🔧 Configuration: /opt/llmui-core/config.yaml

Compatible: Debian 11/12 • Ubuntu 20.04/22.04/24.04 • Rocky Linux 8/9 • RHEL 8/9

📖 Guide d'installation complet

Nous Contacter

Ou contactez-nous directement:

📧 francois.chalut@gmail.com

🐛 GitHub Issues