Le site est en ligne depuis 366 jours. 27 articles sont publiés / 31 commentaires au total.

Comment installer une IA en local (avec une version web similaire à ChatGPT) ?

Vous l’avez pas mal aimé, alors je reviens aujourd’hui dans une nouvelle version de mon ancien article : Comment installer une IA en local ?

Dans l’ancien article, nous parlions des llamafile conçus par Mozilla, fournissant un modèle tout embarqué + une mini interface web pour l’exploiter.

Aujourd’hui c’est tout bonnement une réelle expérience d’IA à la ChatGPT-like que nous allons découvrir !

Open Web UI ? Qu’est-ce que c’est ?

En un mot : une petite merveille open-source, qui se présente comme un « containeur » de modèles d’IA hors-ligne (à travers ollama par exemple).

Son objectif est de vous proposer une interface moderne, tournée vers l’expérience utilisateur (et surtout, très similaire au ChatGPT que nous connaissons bien).

Au delà de cette interface plus qu’agréable, le focus est toujours sur le sécurité et la confidentialité de vos données, avec une exécution locale seulement, sans aucune communication vers l’extérieur (hormis pour récupérer les modèles des dépôts d’ollama) !

Une fois installé sur votre système (via Docker), vous pourrez directement télécharger n’importe quel modèle Ollama hors ligne, dont les plus populaires :

Le choix du modèle + le téléchargement se fera via l’interface web, sans aucune ligne de commande, ni aucune autre configuration !

Comment installer Open Web UI ?

Le plus simple (et le plus rapide), est d’installer Open Web UI via Docker !

(Avant de continuer les prochaines étapes, assurez-vous donc d’avoir Docker installé sur votre système)

docker pull ghcr.io/open-webui/open-webui:main
Bash

Dès que l’image de quelques centaines de Mio est récupérée, il ne vous reste plus qu’à lancer le serveur qui accueillera Open Web UI :

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
Bash

C’est tout !

Vous pouvez dès maintenant accéder à votre propre instance locale, en vous rendant sur : http[:]//localhost:8080/

Premier pas et configuration

Lors de son premier lancement, nous allons être invités à créer un compte (qui sera bien évidemment stocké en local), afin de conserver toutes vos conversations pour plus tard, ainsi que vos agents !

Une fois connecté, nous allons retrouver une interface très habituelle pour les LLMs :

En détail sur la capture :

  1. L’historique de vos précédentes conversations,
  2. Le modèle d’IA à utiliser (avec le bouton + en face, pour en ajouter un nouveau),
  3. L’invité de texte, pour poser toutes vos questions à votre modèle d’IA,
    • Gros bonus : Open Web UI supporte les modèles multimodaux (càd : exploitation d’images par ex. ou de PDF)

Vous avez toutes les bases pour commencer à utiliser et exploiter toute la puissance de l’IA en local avec Open Web UI !

Petit bonus : les agents sont aussi disponibles, avec la possibilité de les créer vous même ou de récupérer ceux de la communauté

Alors, qu’est-ce que vous attendez ?

Si vous êtes encore hésitant à l’idée d’utiliser l’intelligence artificielle, Open Web UI est l’occasion parfaite pour découvrir cet univers ! (tout en conservant vos données personnelles bien au chaud)

J’espère que cet article vous aura plu, n’hésitez pas à me partager votre avis en commentaire ! 🙂

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *