Logo
Bono AI
5 min de lecture Bono AI Team

Oh my AI! — Discutez avec une IA directement dans votre navigateur

Découvrez Oh my AI!, notre application de chat open-source qui exécute des grands modèles de langage entièrement dans votre navigateur grâce à WebLLM et WebGPU. Aucun serveur, aucun partage de données — juste des conversations IA privées.

Oh my AI! — Discutez avec une IA directement dans votre navigateur

Et si vous pouviez discuter avec un assistant IA sans qu’aucune de vos données ne quitte votre ordinateur ? C’est exactement ce que fait Oh my AI!.

Qu’est-ce que Oh my AI! ?

Oh my AI! est une application web open-source qui vous permet de discuter avec des grands modèles de langage (LLM) entièrement dans votre navigateur. Pas de serveur cloud, pas de clé API, pas de compte requis. Vous ouvrez la page, vous choisissez un modèle, et vous commencez à discuter.

En coulisses, l’application utilise WebLLM — un projet open-source de MLC — pour exécuter les modèles IA directement sur votre appareil grâce à WebGPU, l’API moderne des navigateurs pour le calcul accéléré par GPU.

Pourquoi c’est important ?

La plupart des chatbots IA envoient vos messages vers des serveurs distants pour les traiter. Cela signifie que vos conversations — questions personnelles, documents sensibles, idées créatives — passent toutes par l’infrastructure de quelqu’un d’autre.

Avec Oh my AI!, tout reste sur votre machine :

  • Confidentialité totale — Vos conversations ne quittent jamais votre navigateur. Pas de logs serveur, pas de collecte de données, pas d’accès par des tiers.
  • Fonctionne hors ligne — Une fois le modèle téléchargé, vous pouvez discuter sans connexion internet.
  • Aucun compte requis — Ouvrez la page et commencez à parler. Pas d’inscription, pas d’abonnement.
  • Open source — L’intégralité du code est disponible sur GitHub. Inspectez-le, forkez-le, améliorez-le.

Comment ça marche ?

La magie repose sur deux technologies open-source :

  1. WebLLM (MLC) — Une bibliothèque JavaScript qui charge et exécute des modèles LLM optimisés dans le navigateur. MLC compile les modèles dans un format capable de tourner efficacement sur du matériel grand public.
  2. WebGPU — Une API moderne des navigateurs qui donne aux applications web un accès direct à votre GPU. C’est ce qui rend possible l’exécution de modèles à plusieurs milliards de paramètres dans un simple onglet de navigateur.

Lors de votre première utilisation de Oh my AI!, l’application télécharge un modèle dans le cache de votre navigateur. Ensuite, l’inférence se fait localement sur votre GPU — aucun aller-retour vers un serveur.

Quels modèles puis-je utiliser ?

Oh my AI! prend en charge plusieurs modèles open-source optimisés pour l’exécution dans le navigateur, notamment différentes tailles de Llama, Mistral, Gemma et Phi. Vous pouvez choisir le modèle qui correspond le mieux à votre matériel et à vos besoins.

Essayez maintenant

Rendez-vous sur ohmyai.org et commencez à discuter. Tout ce qu’il vous faut, c’est un navigateur moderne avec le support WebGPU (Chrome, Edge, ou tout navigateur basé sur Chromium).

Et si le code vous intéresse, tout est sur GitHub. Les contributions sont les bienvenues !