Data

Intelligence artificielle : bénéficier des modèles de langage open source

by Marc Hugon 13 mars 2025

Pour parler d’IA souveraine, il est essentiel de s’assurer que les données traitées restent sous votre contrôle. L’utilisation de modèles de langage open source permet de garantir cette maîtrise, en évitant que vos données ne soient envoyées vers des serveurs extérieurs ou des plateformes tierces. Il est légitime de s’inquiéter de l’utilisation de solutions de traitement de l’intelligence artificielle qui, bien que très efficaces, ne garantissent pas toujours une maîtrise totale des flux de données.

Cet article ne vise pas à remettre en question l’efficacité de solutions populaires comme OpenAI, mais plutôt à vous présenter des alternatives open source qui vous permettront de garder le contrôle tout en bénéficiant d’outils performants.

Il y a plusieurs technologies à adopter pour garantir que vos données ne sortent pas de vos infrastructures, tout en conservant un niveau de performance proche de celui offert par les solutions SaaS innovantes.

Utiliser des modèles de langage open source

Un des éléments essentiels dans tout projet d’intelligence artificielle est le LLM (Large Language Model), le cœur des projets utilisant l’intelligence artificielle générative. C’est cette technologie qui permet de proposer des services si pertinents qu’on a tendance à les considérer (faussement) intelligents. Ils sont donc critiques et indispensables.

La bonne nouvelle est que plusieurs grandes entreprises, telles que Google, Meta, Microsoft, ou encore Alibaba, mettent à disposition des modèles open source. Mais ce ne sont pas les seuls. D’autres types de modèles sont édités par des sociétés à but non lucratifs comme Mistral. Vous avez donc la possibilité d’héberger ces modèles directement sur vos serveurs. Tous les modèles précédemment cités sont disponibles sur Huggingface, ainsi que des centaines d’autres.

Il faut prendre en compte le fait que ces modèles sont gourmands en ressources ! Une infrastructure équipée de serveurs avec GPU est nécessaire, mais il n’est pas obligatoire de disposer de cartes graphiques ultra-puissantes. Par exemple, des cartes comme les L4 suffisent pour des modèles contenant entre 7 et 20 milliards de paramètres, ce qui est largement adéquat pour de nombreux projets.

Cependant, un LLM seul est difficile à exploiter. Vous aurez besoin d’installer des logiciels pour les manipuler efficacement.

Ollama : une solution open source facile à utiliser

Pour exploiter vos LLM, des solutions comme Ollama se démarquent par leur simplicité d’installation et leur compatibilité avec les API d’OpenAI. Vous pouvez héberger plusieurs modèles sur un même serveur et les faire fonctionner en parallèle, avec des temps de réponse de l’ordre de la seconde. Sur un même serveur, vous pourrez héberger plusieurs modèles. De plus, ollama va faire en sorte de les garder en mémoire en parallèle si l’espace disponible est suffisant, ce qui améliore les temps de réponse.

Vous pourrez donc avoir accès aux pleines capacités de ces LLMs en local, mais il y a une contrainte quand même concernant la taille du contexte que vous pourrez utiliser, limité à environ 10000 mots. A date, la quantité de mémoire nécessaire pour traiter des dizaines de milliers de mots est de l’ordre de 100 à 200 Go de mémoire vive.

C’est un choix que vous pourrez faire, mais assurez-vous d’en avoir vraiment le besoin. Notre expérience montre que 10 000 mots sont une limite très correcte dans la majorité des cas d’usages que nous avons rencontrés.

OpenWebUI : une interface légère et polyvalente

Une autre solution open source que vous pouvez envisager est OpenWebUI, qui offre une interface utilisateur semblable à celle de ChatGPT (et autres chat en ligne). Ce programme léger peut être hébergé sur un serveur modeste tout en fournissant une série de fonctionnalités très utiles pour interagir avec les LLM.

OpenWebUI permet, par exemple, de poser des questions à l’IA, de gérer l’historique des discussions, ou encore de partager des documents avec l’IA pour enrichir les conversations. Grâce à son architecture flexible, il est également possible d’utiliser des modèles de génération d’images ou des capacités vocales. Toutes ces interactions restent sous votre contrôle, sans qu’aucune donnée ne soit envoyée à des tiers.

L’interface est assez simple à utiliser pour les utilisateurs, qui y retrouvent des logiques qu’ils connaissent déjà. D’un point de vue administrateur, vous pouvez même piloter par exemple l’installation et la désinstallation de LLMs sur votre instance ollama.

Garder le contrôle total de vos données

L’un des avantages majeurs de ces solutions open source est la souveraineté qu’elles offrent sur vos données. Rien ne sort de votre serveur, et vos informations ne sont pas utilisées pour entraîner des modèles tiers, contrairement à certaines solutions SaaS. Vous pouvez héberger ces outils chez n’importe quel fournisseur de GPU ou sur vos propres infrastructures, garantissant ainsi un contrôle total de bout en bout.

En combinant LLM, Ollama, et OpenWebUI, vous pouvez mettre à disposition de vos utilisateurs des solutions d’intelligence artificielle performantes et totalement maîtrisées, tant sur le plan des fonctionnalités que de la sécurité des données.

Enfin, comme Ollama expose une API compatible avec OpenAI, ces mêmes LLMs peuvent être utilsés dans le cadre de développements spécifiques pour vos équipes. Là encore, en assurant une maîtrise complète de vos données.

Génération d’images et autres capacités avancées

Outre les modèles de langage, vous pouvez également envisager des projets tels que Stable Diffusion pour générer des images de haute qualité. Des modèles open source comme Flux permettent de produire des images très qualitatives, au niveau de ce que proposent les solutions payantes.

Grâce à la mise à disposition en open source de modèles comme les LLMs, la communauté propose de nombreuses solutions efficaces qui peuvent fonctionner dans votre environnement et vous permettre de gérer au mieux le risque de perte de vos données.

Allier performance et souveraineté avec des modèles de langage open source

En adoptant ces technologies open source, vous avez la possibilité de créer des solutions d’intelligence artificielle efficaces, tout en maîtrisant complètement vos données. Que vous choisissiez Ollama, OpenWebUI, ou d’autres solutions, vous n’avez plus à sacrifier la souveraineté de vos données pour obtenir des performances de qualité.

La seule contrainte est de vous tenir au courant de l’évolution des projets open source. La productivité est très élevée !

Marc Hugon

Marc Hugon

CTO Projets

Marc met son expertise technique au service de la transformation digitale des entreprises. Grâce à de nombreuses années d’expérience en tant que CTO de sites e-commerce d’envergure, il conjugue compréhension des enjeux métier et intégration des problématiques technologiques et méthodologiques.

Commentaires

Ajouter un commentaire

Votre commentaire sera modéré par nos administrateurs

Vous avez un projet ? Nos équipes répondent à vos questions

Contactez-nous