Lorsque ChatGPT a surpris l'humanité par des résultats incroyables, beaucoup pensent qu'il faut utiliser ce chatbot pour tout et tous. Ce qui semble inoffensif dans la vie privée conduit à des problèmes au monde des affaires qui peuvent rapidement devenir juridiquement répréhensibles.
Introduction
Récemment, une entreprise allemande a annoncé qu'elle proposait une solution de IA pour l'interprétation des textes juridiques. C'est en réponse à un article sur Dr. RGPD à KI pour l'analyse des textes juridiques.
L'application de l'intelligence artificielle de la société en question est encore en phase bêta. Il est probable que le prototype ait été créé rapidement pour explorer le marché d'applications similaires. Aucun point n'a été mentionné concernant le modèle linguistique utilisé en arrière-plan. Les investigations suggèrent qu'il s'agit de ChatGPT.
Ce billet a été créé en collaboration avec la conférence du 05.09.2023 au Club informatique de Mayence et Rhénanie-Palatinat dans le Gutenberg Digital Hub à Mayence.
Voir plus bas pour l'impression.
Les réponses du système AI étaient bonnes, mais pas bouleversantes. Sur les questions juridiques, des réponses plausibles avec sources ont été fournies. Les réponses n'auraient toutefois pas suffi pour décider d'une confrontation juridique en sa faveur. Il est probable que les résultats auraient même conduit directement à une défaite.
On a pu constater que ChatGPT-3 était utilisé par l'application de l'intelligence artificielle de la société allemande en demandant à ce chatbot des informations à ce sujet. La réponse de l'intelligence artificielle était: «Oui, je me base sur un modèle appelé GPT-3, développé par OpenAI. […].»
Qu'est-ce qui est si problématique avec ChatGPT ? La question pourrait également être posée à Microsoft Copilot. Un test simple prouve, que Copilot lui-même est dépassé par des tâches simples.
La motivation
Les chatbots utilisent généralement une base de connaissances intégrée. Voici un exemple d'une application de la société allemande mentionnée ci-dessus, qui utilise apparemment ChatGPT en arrière-plan:

Le chatbot ne connaît donc pas un jugement qui existe et est identifié de manière unique par un identifiant unique, et donc (pour un juriste) identifié de manière unique. Le chatbot aurait dû plutôt informer l'utilisateur des limites du chatbot plutôt que de faire croire qu'il n'y a pas le jugement recherché.
Pour utiliser ChatGPT, il suffit d'utiliser l'interface de OpenAI (API). Puisque l'utilisation de cette API est si simple, beaucoup semblent se sentir autorisés à le faire. C'est ainsi que le désordre prend son cours, comme on peut le voir dans cet exemple.
Il suffit de faire ceci pour utiliser ChatGPT à partir d'un programme proprement dit (Attention: Les données sont toutes envoyées à OpenAI/ChatGPT, seul le code suivant se trouve localement chez le développeur):
import openai
openai.api\_key = "XYZ" #Ihr kostenpflichtiger OpenAI API-Schlüssel
completion = openai.ChatCompletion()
def frage\_chatgpt(frage):
chat\_log = \[{
'role': 'system',
'content': 'Du bist ein hilfreicher Assistent',
}\]
chat\_log.append({'role': 'user', 'content': frage})
response = completion.create(model='gpt-3.5-turbo', messages=chat\_log)
antwort= response.choices\[0\]\['message'\]\['content'\]
return antwort
print(frage\_chatgpt("Was ist die Antwort auf alle Fragen?"))
Aufruf der OpenAI API für ChatGPT, um für eine Frage eine Antwort von ChatGPT zu erhalten.
C'est quelque chose que tout le monde peut faire. D'ailleurs, autant de non-programmeurs parviennent à créer et exécuter ce code que d'individus sans diplôme en mécanique qui peuvent changer un pneu sur leur voiture. Comme indiqué dans le code, l'amusement coûte de l'argent dès qu'on dépasse un certain nombre de requêtes autorisées. La réponse pourrait également être plus rapide (ceci est se plaindre à un niveau élevé pour dissiper l'illusion selon laquelle ChatGPT peut tout faire).
Un autre exemple d'une déclaration fausse générée par ChatGPT:

Voici ma constatation, qui peut également influencer mon propre IA, mais pas celle de ChatGPT: Les cookies ne sont pas des fichiers texte, mais des ensembles de données. Par conséquent, ChatGPT répondra toujours incorrectement pour l'instant.
En souvenir: ChatGPT est un modèle de langage extrêmement développé, qui vaut le détour.
Malheureusement, ChatGPT repose sur des millions ou des milliards de documents, ce qui a permis à trop d'informations générales approximatives et pas assez d'informations spécifiques précises pénétrer dans le cerveau artificiel.
La recherche Bing de Microsoft est également alimentée par l'intelligence artificielle. Microsoft s'est récemment associé financièrement à OpenAI pour profiter du hype autour de ChatGPT. Lorsque les requêtes de recherche sont formulées de manière relativement simple, la AI de Bing donne souvent des résultats faux ou absurdes. En revanche, les résultats sont souvent dans le bon sens lorsque Bing effectue une recherche conventionnelle. La recherche conventionnelle réussit souvent mieux à obtenir de bons résultats. La différence est que les réponses provenant des résultats de recherche sont «seulement» citées, et non abstraites, c'est-à-dire qu'elles ne sont pas résumées en mots propres de la AI.

Préférez une réponse correcte citée plutôt qu'une réponse fausse en vos propres mots.
La meilleure solution
Une meilleure solution donne souvent des réponses correctes et offre à l'utilisateur la chance de reconnaître peut-être des réponses imprecises ou fausses, afin qu'il puisse les examiner de manière critique. Si une réponse peut être imprecise ou fausse, cela peut être déterminé avec une bonne intelligence artificielle propriétaire, tout à fait différemment que lorsqu'on utilise la boîte noire appelée ChatGPT.
L'application pour les systèmes de IA propriétaires d'une entreprise est toujours donnée lorsque des réponses exactes sont nécessaires ou lorsqu'il faut souvent chercher dans ses propres documents. ChatGPT échoue ici ou coûte trop cher, car OpenAI facture en fonction du volume d'utilisation.
L'automatisation, la validation et l'optimisation sont des propriétés qui sont surtout offertes par les systèmes de IA propres aux entreprises, pas par des boîtes noires comme ChatGPT.
Faire dépendre son fonctionnement de tiers ne semble pas non plus être la meilleure stratégie. On le sait depuis les dernières années. Les exemples sont les systèmes et plateformes de Google, Microsoft, Meta ou Apple.
Qualité des données, mentionnée dans le titre du contribution: L'obligation de conserver et de traiter des données à caractère personnel avec précision découle notamment de l'article 18, paragraphe 1 de la RGPD. Si la justesse de ces données est contestée ou si leur traitement n'est plus justifié, une personne concernée peut demander une restriction du traitement.
Même pour les données qui n'ont aucun lien avec une personne, leur exactitude est souvent fondamentale. Si un avocat prend en compte la réponse d'un chatbot dans son acte de procédure, il vaudrait mieux que ce qui y est écrit soit exact et tienne la critique.
Il serait fatal pour des projets de recherche ou dans les brevets si des instructions ou des conclusions fausses pénétraient dans le travail. Le transfert de données critiques vers des tiers est également risqué juridiquement. Les données peuvent être critiques, par exemple lorsque elles concernent
- Secret
- Protégé par le droit d'auteur
- Personnel ou
- Confidentiel
S'arrêter.
Acquérir des connaissances factuelles
La fiabilité d'une intelligence artificielle de traitement de texte peut être considérablement améliorée en insistant explicitement des faits importants dans le cerveau électronique. Cela est souvent appelé Grounding. Microsoft utilise cela, dit-on, pour sa moteur de recherche Bing, mais y échoue, comme l'illustrent de nombreux exemples. Si elle est correctement mise en œuvre, Grounding aide à éliminer les informations fausses largement répandues.
Après avoir mis à jour l'intelligence artificielle propriétaire de l'entreprise, elle fournit également des réponses meilleures que ChatGPT, et ceci pour les connaissances qui sont pertinentes. Qui était Goethe, notre propre système d'intelligence artificielle ne doit pas le savoir. Ce savoir supplémentaire inutile charge un modèle de IA uniquement et conduit à des déclarations fausses au moins ou à une moindre performance ( «la machine ne voit plus la forêt à cause des arbres») ou à des réponses plus lentes.
Voici un exemple de réponse générée à partir du Dr. RGPD Wissensbestand et qui est qualitativement bien meilleure (et surtout correcte) que les résultats de Microsoft Bing et ChatGPT:

Le savoir d'entreprise exploitable se distingue par le fait qu'il est généralement facile à comprendre, sous forme de documents et dont les affirmations sont a priori considérées comme vraies (ou plus vraies que les sources externes). Une machine de recherche AI pour le savoir d'entreprise a plusieurs avantages.
La première chose est que la propre intelligence artificielle de l'entreprise est autonome et ne dépend pas des autres. La question d'une évaluation des conséquences sur la protection des données (DSFA) se pose à peine ou même pas. Les données confidentielles ou sensibles sont bien protégées dans les propres systèmes.
La deuxième possibilité est une intelligence artificielle autonome d'entreprise qui peut être adaptée à ses propres besoins. Si vous regardez l'exemple de programme ci-dessus, vous remarquez peut-être les choses suivantes:
- Des systèmes d'intelligence artificielle peuvent être créés en quelques lignes de code avec Python.
- La complexité se trouve pas dans le programme, mais dans le modèle d'intelligence artificielle qui ne doit être construit qu'une fois.
- Un petit pas suffit pour bouger beaucoup.
Des applications économiques avec un grand avantage sont même possibles. Des systèmes de IA propres sont souvent plus rentables que l'utilisation de l'interface ChatGPT, en ignorant les inconvénients mentionnés lors d'une utilisation d'un système tiers.
Résumé
L'intelligence artificielle est souvent surestimée ou mal évaluée, probablement en raison de l'enthousiasme légitime pour les nouvelles possibilités qu'elle offre. Les intelligences générales comme ChatGPT sont parfaitement adaptées à répondre à des questions générales, sans prétendre à la fiabilité ou même à la correction. Cela est visible dans la conduite de l'utilisateur de tels systèmes, qui ne contiennent aucune indication que les résultats devraient être soigneusement vérifiés ou qu'une réponse fausse pourrait y figurer.
Peu de lignes de code suffisent pour générer une sortie fausse avec l'aide de 100 milliards de neurones artificiels. Un peu plus de lignes de code aident à obtenir des réponses correctes avec son propre système.
Les entreprises qui souhaitent utiliser une intelligence artificielle doivent d'abord se poser une question: à quoi servira exactement cette intelligence artificielle ? Si on ne peut pas répondre à cette question, alors il est probable que l'une des deux choses soit vraie. Cette entreprise n'a besoin d'aucun système d'intelligence artificielle ou elle ne sait toujours pas à quoi cela lui servirait.
L'utilisation privée de ChatGPT et des systèmes similaires est sûrement amusante, mais tout à fait différente de l'utilisation de chatbots ou de systèmes d'intelligence artificielle en général dans une entreprise.
Si une entreprise a un problème qui peut être résolu grâce à l'intelligence artificielle, il est intéressant de vérifier si ce problème peut être résolu avec son propre système d'IA.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
