Logo
Bono AI
5 min de lecture Bono AI Team

Oh my AI! bientôt disponible en application de bureau

Oh my AI! prépare sa version desktop grâce à Tauri. Une IA locale, rapide et privée, bientôt installable directement sur votre machine — sans navigateur requis.

Oh my AI! bientôt disponible en application de bureau

Vous connaissez Oh my AI!, notre application de chat IA qui fonctionne entièrement dans le navigateur. Aujourd’hui, on vous annonce la suite : nous travaillons sur une version desktop grâce à Tauri.

Pourquoi passer au desktop ?

La version navigateur fonctionne très bien, mais elle a ses limites. Le navigateur impose des restrictions sur l’accès aux ressources système, la gestion de la mémoire et le stockage local. Avec une application native, on pourra aller beaucoup plus loin :

  • Performances accrues — Accès direct au GPU sans les couches d’abstraction du navigateur. L’inférence sera plus rapide et plus stable.
  • Gestion de la mémoire — Fini les limites imposées par les onglets du navigateur. Les modèles plus volumineux pourront tourner confortablement.
  • Expérience native — Une vraie application dans votre barre des tâches, avec des raccourcis clavier, des notifications et un démarrage instantané.
  • Toujours privé — Comme la version web, tout restera sur votre machine. Zéro donnée envoyée à l’extérieur.

Pourquoi Tauri ?

On aurait pu choisir Electron, mais Tauri s’impose comme le choix naturel pour notre projet :

  • Léger — Tauri utilise le moteur web natif de votre système (WebView2 sur Windows, WebKit sur macOS/Linux) au lieu d’embarquer un Chromium entier. Le résultat : une application de quelques Mo au lieu de centaines.
  • Rust sous le capot — Le backend est écrit en Rust, ce qui apporte sécurité mémoire, performances et accès bas niveau au système.
  • Open source — Tauri est un projet open-source, aligné avec les valeurs de Bono AI.
  • Multi-plateforme — Une seule base de code pour Windows, macOS et Linux.

Ce qu’on prévoit

L’architecture sera simple : le frontend SvelteKit de Oh my AI! tournera dans la WebView native, tandis que Tauri fournira le pont vers le système. WebLLM (MLC) continuera de gérer l’inférence des modèles via WebGPU, avec l’avantage d’un accès plus direct aux ressources matérielles.

Au premier lancement, vous choisirez un modèle et l’application le téléchargera dans un répertoire local. Ensuite, tout se passera en local — pas besoin d’internet pour discuter.

Plateformes visées

Nous prévoyons de supporter :

  • macOS (Apple Silicon et Intel)
  • Windows (x64)
  • Linux (AppImage, deb)

Les fonctionnalités à venir

La version Tauri ouvrira la porte à des fonctionnalités qu’on ne peut pas offrir dans le navigateur :

  • Gestion avancée des conversations avec stockage local persistant
  • Support de modèles plus volumineux
  • Intégration système (raccourcis globaux, menu contextuel)
  • Mises à jour automatiques

Suivez l’avancement

Le développement se fait en open-source sur GitHub. Inscrivez-vous à notre newsletter pour être informé dès la sortie de la première version. L’IA locale et open-source, c’est pour bientôt !