Charte d'utilisation de l'intelligence artificielle
Version : 1.0 — en vigueur au 20 avril 2026
Éditeur : Online Solution Attorney SRL (« OSA »), BCE 0653.770.793
Dénomination de la plateforme : LawgiSkill
Siège : Avenue Michel-Ange 86, 1000 Bruxelles, Belgique
Contact : contact@lawgi.tech
Pourquoi cette Charte ?
Le Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle (« AI Act ») introduit un cadre gradué d'obligations selon le rôle de chaque acteur (fournisseur, déployeur, importateur, distributeur) et le niveau de risque du système concerné.
La plateforme LawgiSkill interagit avec l'écosystème IA de deux manières principales : (i) ses skills sont conçus pour être utilisés avec des assistants conversationnels fournis par des tiers ; (ii) OSA peut, de manière ponctuelle, déployer un assistant IA de support ou de démonstration directement sur le Site.
La présente Charte a pour objet :
- de clarifier le positionnement juridique d'OSA au regard de l'AI Act ;
- d'informer le Client et les utilisateurs sur les limites inhérentes aux outils d'IA ;
- de responsabiliser le professionnel quant à l'usage qu'il fait de ces outils dans l'exercice de son métier ;
- de respecter les obligations de transparence applicables lorsqu'un système d'IA interagit directement avec l'utilisateur.
1. Positionnement d'OSA au regard de l'AI Act
1.1 OSA n'est PAS fournisseur d'un système d'IA
Au sens de l'article 3(3) AI Act, un « fournisseur » est une entité qui développe ou fait développer un système d'IA et le met sur le marché ou le met en service sous son propre nom ou sa marque.
OSA ne développe ni ne met sur le marché un système d'IA :
- Les skills sont des supports documentaires structurés : ensembles d'instructions méthodologiques, de corpus juridiques et de schémas de raisonnement. Ils ne sont pas des modèles d'IA, ne contiennent pas de modèle d'IA et n'en constituent pas un « système » au sens de l'article 3(1) AI Act (« système automatisé capable de générer des sorties à partir d'entrées »).
- Le connecteur MCP est un ensemble d'API d'interrogation vers des bases juridiques publiques. Il ne produit pas d'inférence d'IA.
- Le modèle d'IA utilisé par le Client (p. ex. Claude d'Anthropic, ChatGPT d'OpenAI) est développé et mis sur le marché par son éditeur tiers, qui en assume la qualité de fournisseur AI Act.
1.2 OSA n'est PAS déployeur d'un système d'IA pour le compte du Client
Au sens de l'article 3(4) AI Act, le « déployeur » (anciennement « utilisateur ») est une entité qui utilise un système d'IA sous sa propre autorité à des fins professionnelles.
Lorsque le Client utilise les skills LawgiSkill avec son propre abonnement à Claude, ChatGPT ou tout autre assistant IA :
- c'est le Client qui utilise le système d'IA sous son autorité, dans son environnement technique, pour ses propres finalités professionnelles ;
- OSA n'exerce aucun contrôle opérationnel sur cette utilisation, n'observe pas les conversations, ne configure pas le modèle et ne fixe pas les paramètres d'inférence.
Par conséquent, OSA n'est ni le fournisseur, ni le déployeur du système d'IA utilisé par le Client. Les obligations afférentes (articles 8-27 AI Act pour les systèmes à haut risque, articles 50-55 pour les obligations de transparence, etc.) ne s'appliquent pas à OSA au titre de son activité de concession des skills.
1.3 Pour les assistants IA déployés directement sur le Site lawgi.tech
Lorsque OSA déploie directement un système d'IA interagissant avec les utilisateurs du Site (par exemple, un chatbot de support ou un mini-assistant de démonstration intégré à la page /demo/), OSA est alors déployeur au sens de l'article 3(4) AI Act. Elle se conforme dans ce cas aux obligations applicables, notamment :
- transparence (art. 50, §1 AI Act) : information claire de l'utilisateur qu'il interagit avec un système d'IA ;
- marquage (art. 50, §2 et §3 AI Act) : contenu généré par IA étiqueté comme tel ;
- gestion des risques : choix d'un système respectant les normes applicables, notamment absence de pratiques interdites (art. 5 AI Act).
Les systèmes d'IA déployés à ce titre sont strictement non à haut risque et sont utilisés à des fins documentaires ou d'orientation. Le recours à un professionnel du droit reste systématiquement recommandé.
1.4 Pour le Client qui redéploie les skills vers ses propres clients
Si le Client est amené à déployer un assistant conversationnel utilisant les skills LawgiSkill à destination de ses propres clients finaux (p. ex. un portail de FAQ juridique public, un chatbot B2C), le Client devient déployeur au sens de l'AI Act pour ce nouveau périmètre d'usage. Il lui incombe dans ce cas :
- d'analyser son système de déploiement à la lumière de l'AI Act (notamment le caractère « haut risque » éventuel selon l'annexe III) ;
- d'assurer les obligations de transparence vis-à-vis de ses clients finaux (art. 50 AI Act) ;
- de documenter son propre cas d'usage, ses garde-fous et son processus d'évaluation humaine.
La Licence d'usage des skills (article 2) n'interdit pas ces usages à condition qu'ils restent internes à l'activité professionnelle du Client ; toute exploitation commerciale grand public sur la base des skills requiert un avenant écrit avec OSA.
2. Limites inhérentes aux outils d'IA générative
Les modèles d'IA générative — à l'état de l'art 2026 — présentent des limites structurelles que le Client et les utilisateurs doivent comprendre :
2.1 Hallucinations
Un modèle d'IA peut produire une réponse inventée, plausible en apparence mais fausse ou inexistante dans les sources. Ce phénomène est inhérent à la nature probabiliste de la génération de texte. Les skills LawgiSkill intègrent des garde-fous visant à limiter ce risque (instructions explicites de citation, connexion en temps réel aux sources officielles via MCP, vérifications croisées), mais ne l'éliminent pas.
2.2 Biais et erreurs factuelles
Les modèles peuvent reproduire ou amplifier des biais présents dans leurs données d'entraînement, ou commettre des erreurs factuelles sur des points précis (dates, montants, références normatives). L'ancienneté des données d'entraînement peut créer un décalage avec l'état du droit au jour de la requête.
2.3 Imprécisions juridictionnelles
Les modèles généralistes peuvent confondre les systèmes juridiques (droit belge / français / luxembourgeois / suisse / UE) ou manquer de précision sur des règles locales. Les skills LawgiSkill orientent explicitement le modèle vers le système juridique attendu, mais l'utilisateur reste responsable de la vérification finale.
2.4 Manque de jugement humain
L'IA ne dispose ni de l'expérience professionnelle, ni de la compréhension contextuelle, ni du discernement déontologique d'un juriste humain. Elle ne pondère pas les enjeux stratégiques, éthiques ou humains d'une situation.
3. Règles d'usage que le Client s'engage à respecter
En souscrivant à LawgiSkill, le Client s'engage à :
- Ne pas considérer la réponse d'un assistant IA utilisant les skills comme un avis juridique formel opposable — l'outil est un support de recherche et de réflexion.
- Vérifier systématiquement, avant toute décision professionnelle, les références citées (articles de loi, décisions, sources officielles) auprès des sources primaires.
- Informer ses propres clients ou interlocuteurs lorsqu'il utilise un système d'IA dans la production d'un livrable juridique, dans la mesure où les règles déontologiques ou contractuelles l'exigent.
- Ne pas déployer les skills vers un public grand consommateur sans avoir :
- analysé les obligations AI Act et ePrivacy applicables au redéploiement ;
- mis en place les garde-fous appropriés ;
- sollicité le cas échéant un avenant avec OSA. - Protéger le secret professionnel — notamment pour les avocats, dans le respect du Code de déontologie. Il est recommandé d'évaluer la politique de confidentialité de l'éditeur de l'IA tierce (Anthropic, OpenAI...) quant à l'usage des requêtes pour l'entraînement, et de configurer l'outil en conséquence (p. ex. mode « Claude for Work » ou « ChatGPT Enterprise » qui garantissent la non-utilisation des échanges pour l'entraînement).
- Ne pas soumettre à l'IA de données personnelles sensibles (catégories particulières art. 9 RGPD, données pénales art. 10 RGPD) ni des informations couvertes par le secret, sans avoir vérifié la compatibilité de l'outil d'IA choisi.
- Former ses collaborateurs aux bonnes pratiques d'utilisation des outils d'IA et aux risques spécifiques (hallucinations, biais, fuite de données).
4. Responsabilité
Le Client est seul responsable des décisions prises ou soutenues sur la base d'analyses produites avec les skills LawgiSkill. Aucune réponse générée par un outil d'IA ne saurait en soi engager la responsabilité du professionnel sans intervention et validation humaine.
OSA n'est pas responsable :
- des hallucinations ou erreurs factuelles produites par le modèle d'IA tiers ;
- des décisions prises par le Client ou ses clients finaux sur la base des analyses ;
- du respect des obligations AI Act incombant au Client en tant que déployeur, lorsqu'il redéploie les skills ;
- du respect des règles déontologiques propres à la profession du Client.
Les limitations de responsabilité prévues dans les CGV (article 8) s'appliquent.
5. Systèmes d'IA déployés par OSA — Inventaire
À la date d'entrée en vigueur de la présente Charte, OSA déploie directement les systèmes d'IA suivants :
| Nom | Fonction | Éditeur tiers | Hébergement des inférences | Risque AI Act |
|---|---|---|---|---|
| Aucun chatbot interactif public à ce stade | — | — | — | — |
Toute évolution fera l'objet d'une mise à jour de la présente Charte et, le cas échéant, d'une bannière d'information.
6. Droits de l'utilisateur face à une décision fondée sur l'IA
OSA ne met en œuvre aucune décision entièrement automatisée au sens de l'article 22 RGPD / article 26, §11 AI Act dans la relation commerciale (pas de scoring client, pas de refus de vente automatisé, pas de décision de prix entièrement algorithmique).
Si, à l'avenir, de telles décisions devaient être introduites, les utilisateurs concernés bénéficieraient du droit (i) à une information préalable, (ii) à une intervention humaine, (iii) à l'expression d'un point de vue et (iv) à la contestation de la décision (art. 22 RGPD, art. 26 §11 AI Act).
7. Revue — Mises à jour
Cette Charte est revue au minimum une fois par an et à chaque évolution substantielle (nouveau système d'IA déployé, modification des positions AI Act applicables, jurisprudence européenne). La version en vigueur est celle publiée sur https://lawgi.tech/legal/charte-ia/.
8. Ressources
- Règlement (UE) 2024/1689 (AI Act) — EUR-Lex : https://eur-lex.europa.eu/eli/reg/2024/1689/oj
- Lignes directrices du Comité européen de la protection des données (EDPB) : https://www.edpb.europa.eu/
- Autorité belge de protection des données (APD) : https://www.autoriteprotectiondonnees.be/
- Bureau européen de l'IA : https://digital-strategy.ec.europa.eu/en/policies/ai-office
- Contact OSA : contact@lawgi.tech
Version 1.0 en vigueur au 20 avril 2026. Éditée par Online Solution Attorney SRL sous la dénomination LawgiSkill.