Titre de la page Notion

GenIA, ChatGPT, Mistral, Copilot, Claude, Agentic, LLM, RAG, CAG… autant de termes associés à l’intelligence artificielle qui peuvent freiner notre compréhension ou nous rebuter face aux obstacles à franchir pour y voir clair dans ce nouveau monde.
La montagne semble insurmontable, mais cet article a pour objectif de simplifier, vulgariser et schématiser cette technologie. L’objectif : que vous compreniez les bases essentielles pour accompagner votre transformation digitale.

L'adoption de l'IA par les PME & TPE françaises

Un rapport de BPI France montre que l’adoption de l’IA par les TPE/PME dans des usages réguliers est de 31%. Même si l’adoption évolue et que les détracteurs sont de moins en moins nombreux, force est de constater que l’IA n’a pas encore conquis les entrepreneurs.
Les cas d’usage les plus fréquemment utilisés par les utilisateurs sont le suivants :
  • Génération de contenu
  • Recherche et analyse de données
  • Traduction
Le paradoxe est que les dirigeants des TPE et PME perçoivent l’IA comme un levier intéressant pour augmenter leur productivité :
  • Automatiser et accélérer des tâches répétitives (emails, synthèses, reporting, tri des données)
  • Alléger les tâches administratives ou supports (marketing, communication, veille, traduction)
  • Gérer des campagnes Marketing ou améliorer sa présence sur les réseaux sociaux.
Pourquoi une telle différence entre les usages réels et l’intérêt pour la technologie
Les réticences à l’adoption de l’utilisation de l’IA sont d’origines diverses, ce qui demande aux dirigeants de relever de nombreux défis, d’investir du temps et de l’argent.
  • Difficulté à identifier des cas d’usage concrets dans le contexte de l’entreprise
  • Absence de maîtrise des coûts et complexité de calcul du ROI
  • Manque de compétences internes et compétences rares ou onéreuses en externe
  • Craintes liées au contexte réglementaire (GDPR, autre..)
  • Craintes liées à la sécurité (fuite de données, exposition..)
L’IA générative représente une opportunité majeure pour se démarquer de la concurrence et les moyens mis à disposition des TPE/PME sont largement accessibles avec un rapport gain et dépenses le plus souvent avantageux. En revanche, cela nécessite de comprendre quelques principes de bases qu’on vous explique dans cet article.
Les “Early Adopters” seront les grands gagnants de cette nouvelle ère.

Les principaux acteurs du marché

Les analystes prévoient un taux de croissance annuel  de 25% portant le marché de l’IA de 240 milliards de dollars en 2025 à 850 milliards en 2030. Dans ce contexte, il est évident que le nombre d’acteurs évolue tous les jours. On se concentrera dans cet article de zoomer sur les 8 plus grands acteurs mondiaux (même si certains acteurs plus petits peuvent avoir un réel intérêt, soit pour desservir des secteurs d’activités spécifiques, pour garantir une meilleure souveraineté de la données, …)
La clé de voûte de l’IA réside principalement dans les LLMs. On expliquera cette notion juste après, mais voici un tour d’horizon du marché de 2026.

Large Language Model (LLM)

LLM pour Large Language Model représente le cerveau qui se cache derrière votre interface pour dialoguer avec l’IA. Lorsque vous dialoguez avec votre chat préféré, vous le faites probablement via votre navigateur. Il dialogue en fait avec un ou des LLM plus ou moins évolué, entraîné avec différentes sources jusqu’à une certaine date. Cela signifie notamment qu’il n’a souvent pas accès aux dernières actualités.
Un Large Langage Model est un programme qui est capable de reconnaître et comprendre et générer du texte, de l’image, de la voix. Son algorithme principal est de prédire le mot le plus probable sur la base d’un entraînement répétitif sur un nombre important de sources (d’où le terme Large).
Le LLM ne peut pas être considéré comme une source de confiance absolue car il calcule des probabilités, des statistiques. Il peut donc arriver que le LLM fournisse une réponse inappropriée (non contextuel) ou totalement fausse. C’est ce qu’on appelle des hallucinations. Le LLM peut également fournir des réponses non éthiques, dans ce cas on parlera de biais.
Les LLMs sont le coeur de l’intelligence artificielle et leur prolifération explose.Ils peuvent être OpenSource ou propriétaire, entraîné à fournir des réponses adaptées à certaines activités (code, image, texte, voix, médical..), gratuit ou payant, avec le respect des règles GDPR plus ou moins adapté. Bref, les différences peuvent être nombreuses et les critères pour choisir un LLM vont forcément dépendre de vos cas d’usage.

Le modèle de facturation

Ces LLMs ne sont pas hébergés par des entreprises philanthropiques. Il y a donc un modèle financier derrière chaque LLM, mais ils suivent généralement la même logique de facturation, qu’on se propose de vous expliquer.
Il existe 3 facteurs majeurs pour le modèle de facturation :
  • L’input : il s’agit du texte que vous allez saisir dans la fenêtre de chat, qu’on appelle aussi le Prompt
  • L’output : c’est le résultat renvoyé par le LLM en réponse à votre input. Cela peut être du texte, des graphiques, des images.
  • La mémoire de travail de la conversation qui permet au LLM de mieux cerner votre contexte et d’adapter ses réponses. Cette mémoire de travail est nommée fenêtre de contexte (ou en anglais Windows Context).
Plus cette fenêtre de contexte est grande, plus le LLM sera pertinent pour résumer, structurer ces réponses en fonction du contexte et éviter les hallucinations. L’augmentation de la taille de la fenêtre de contexte augmente les besoins en puissance de calcul et donc les coûts, c’est pourquoi la facturation varie souvent et s’exprime en prix par million token.
Un token est un découpage des mots selon un algorithme propre au LLM. Quelques exemples ci dessous avec cette phrase de Victor Hugo
La liberté commence où l’ignorance finit. Tant qu’un peuple est contraint de se soumettre à l’arbitraire, tant qu’il subit sans comprendre, tant qu’il obéit sans savoir pourquoi, il est esclave. L’instruction est la base de toute amélioration sociale ; elle éclaire l’homme, elle l’élève, elle lui apprend à se respecter lui-même et à respecter les autres.
Si vous souhaitez vous amusez à tester les modèles pour voir comment il découpe les mots en token et anticiper vos coûts, vous pouvez utiliser ce site :
Maintenant qu’on sait comment sont découpés nos mots en token, et qu’on a expliqué que le modèle de facturation repose sur les tokens, la question qui suit est : comment trouver le coût du token pour un LLM donné. Enfin plus exactement le coût par millions de token. Pour cela il existe plusieurs sites, ceux que je pratique régulièrement sont les suivants :

Le prompting

Maintenant qu’on connaît le modèle de facturation d’un LLM, l’enjeu est de maîtriser les coûts. Evidemment, le choix du LLM va beaucoup compter, mais ce qui peut beaucoup influer pour réduire les coûts ce sont les échanges avec le LLM. On l’a déjà dit, un LLM ne fournit pas une vérité mais fournit un résultat sur la base de probabilité.
Plus la question sera précise et adapté à votre contexte, plus la réponse sera adéquate.
Poser une question en oubliant le contexte vous fournira une réponse inadaptée, et vous continuerez de poser des questions jusqu’à atteindre un résultat satisfaisant. Ceci multiplie donc les échanges, génère des tokens et augmente les coûts.
C’est là qu’intervient le concept de bien poser des questions. Il existe une méthode à simple que vous pouvez retenir simplement : RISPO (Role, Instructions, Structure, Paramètres, Ouverture. On détaille tout ça juste en dessous:
  • Role : L’objectif est des définir le rôle de l’IA. Par exemple, agis comme un entrepreneur qui s’intéresse à l’IA
  • Instructions : Donner des consignes claires , par exemple, fournis moi les tendances du marché de l’IA
  • Structure : fournis le format attendue, par exemple, présente le résultat sous format de texte avec les grandes étapes, une table des matières
  • Paramètres : exprime les contraintes et le ton, par exemple, la réponse doit être synthétique en précisant les liens de tes sources dans un ton professionnel
  • Ouverture : précise le niveau de liberté ou de créativité de la réponse, par exemple soit factuel et précis ou propose des idées innovantes.
Avec ce type de méthode et de prompt, vous donnez un cadre ce qui permettra au LLM d’être le plus précis dans sa réponse. La réponse pourra être un peu plus longue mais vous évitera de nombreux aller retour vous économisant du temps et réduisant vos coûts.

RAG

Accéder à des LLMs génériques apporte déjà un grand nombre de bénéfices pour les entreprises pour des actions simples, de type traduction, génération de texte ou d’images, Speech to text. Mais le LLM n’a pas accès à la donnée de l’entreprise et ne peut donc pas fournir de réponses adaptées à votre entreprise. Par exemple, si vous voulez développer un Chatbot pour que vos clients puissent obtenir des informations immédiates sur vos produits, vos services, il faut que le LLM puisse avoir accès à votre base de connaissance. C’est là que la notion de RAG (Retrieval Augmented Generation) intervient. Il s’agit d’un système qui permet d’injecter vos données de manière compréhensible par le LLM (on parle de vectorisation) pour que celui ci puisse exploiter le résultat.
Si vous deviez retenir ce qu’est un RAG, imaginez que c’est un lien entre un LLM et vos données d’entreprise.

Et la sécurité …

L’introduction d’une nouvelle technologie au sein de l’entreprise introduit souvent des risques cyber. A minima il convient d’en être informé avant de faire des choix qui pourraient nuire à la réputation, extraire de la données ou laisser un malware / virus s’introduire dans votre système d’informations.
Et l’intelligence artificielle ne déroge pas à la règle, il existe plusieurs points à prendre en compte qu’on propose de découper en 5 grands axes :
  • La sécurité de la donnée
  • La sécurité des systèmes et des accès
  • Les risques inhérents aux système d’IA
  • La conformité règlementaire et juridique
  • Les facteurs humains

Sécurité de la donnée

Quelque soit votre secteur d’activité, manipuler de la donnée est soumis à des règles de conformité qui peuvent être internes à l’entreprise ou réglementaires. L’utilisation de l’IA n’échappe pas à la règle et il est important de prendre en compte les éléments suivants sur le périmètre de la data dans votre analyse avant de vous lancer dans l’IA :
  • Risques de divulgation de données sensibles (clients, employés, secrets industriels ou commerciaux)
  • Souveraineté de la donnée : certaines IAs peuvent stocker de la donnée et l’utiliser pour entraîner leur future version de LLM. Dans le cas où vous manipulez de la donnée sensible, confidentielle, secrète, privilégiez un LLM qui est validé au niveau GDPR et idéalement un acteur Européen pour vous prémunir du Cloud Act (possibilité pour le gouvernement américain de demander un accès aux données hébergées chez un fournisseur américain)
  • Si vous avez un système d’information interne, et que vous avez les compétences, l’utilisation de LLM OpenSource pour utiliser l’IA en interne (on premise) peut répondre à certains risques. Cela demande un effort de configuration important et les compétences mais représente une alternative sécurisée à l’utilisation d’un LLM.

Sécurité des systèmes d’accès

Une fois que vous avez connecté votre système d’information avec un système d’IA, il est important de correctement configurer les accès. Déterminer qui peut accès à la donnée, quels seront les droits accordés… Si vous interconnectez votre CRM, ERP ou base de données internes, vous devez garantir que votre modèle de droits est toujours respecté avec l’intégration de l’IA.
N’oubliez pas de sécuriser vos jetons d’API qui servent à connecter l’IA à votre SI, et pratiquez régulièrement des revues d’accès.

Risques inhérents aux système d’IA

Prompt injection
Prompt leakage
Biais et discrimination
Hallucinations
Article précédent
Article suivant

Articles récents

  • All Post
  • Creative
  • Digital
  • Marketing

Products

Services

FAQ's

Privacy Policy

Terms & Condition

Team

Contact Us

Company

About Us

Services

Features

Our Pricing

Latest News