En raison de mon article sur un système question-réponse pour le blog Dr. RGPD, on m'a posé une question plutôt ironique: suis-je méchant ou même cruel ? Cette question peut être répondu par mon système autonome AI. Selon la configuration, les résultats sont différents. Les résultats montrent que l'intelligence artificielle fonctionne et produit des résultats exceptionnels.
Les résultats d'un système de IA autonome
Depuis un moment, je développe des systèmes de IA amicaux aux données. Amical aux données signifie que les données ne sont pas transmises à des tiers mais restent dans son propre système. Le contraire d'amical aux données sont des systèmes comme ChatGPT, Amazon AWS, la Google Cloud ou encore des systèmes de Meta.
Dans mon article sur l'intelligence artificielle dans un assistant de questions-réponses, j'ai reproduit diverses questions que je me suis posées à moi-même et les réponses données par la AI. Une des questions que j'ai posée à ma AI était:
"Est-ce que Klaus Meffert est méchant ?"
Posez une question à mon système de AI autonome.
Cette question je l'ai posée parce que un prompt invite naturellement à poser toutes sortes de questions.
Je voudrais lancer un Expérience de pensée en parallèle: est-ce que l'on peut réellement influencer un chatbot comme ChatGPT en utilisant des prompts spécifiques ? En général, c'est possible, à condition que OpenAI/Microsoft utilisent les entrées de l'utilisateur pour «améliorer» leurs modèles de AI. Si on demande plusieurs fois si Olaf Scholz est méchant, alors une intelligence artificielle peut en déduire des conclusions qui ne sont probablement pas valables.
La réponse à la question que j'ai posée à propos de moi-même (non, je ne suis pas Olaf Scholz) a été donnée par mon IA comme suit:
En fonction des documents de sources fournis, je ne peux pas évaluer si Klaus Meffert est méchant. Il n'y a aucune information sur ce que signifie être méchant ou s'il l'a jamais été ou est.”
Réponse de mon système d'intelligence artificielle autonome à la question: "Klaus Meffert est-il méchant ?
Lorsqu'une intelligence artificielle doit fournir des réponses à des questions, cette tâche est généralement appelée production de texte („text generation“). Les résultats de la AI sont influencés par différents paramètres. Ces paramètres sont notamment:
- Le nombre de documents sources "meilleurs" à prendre en compte pour une réponse. Une intelligence artificielle ne peut pas capturer tous les documents simultanément. Cela vaut toujours, y compris pour ChatGPT.
- Taille des blocs de texte lus: Une intelligence artificielle ne peut pas traiter longs documents d'un coup. Cela vaut toujours, y compris pour ChatGPT.
- Valeur d'intersection pour les fragments de texte lus. Ainsi on empêche que deux phrases sémantiquement liées soient séparées l'une de l'autre.
- Le seuil de confiance pour la sélection des meilleurs documents: avec une valeur de 0,99 (= 99 %), il serait presque impossible de trouver un document contenant une réponse à une question posée.
- Procédure: Comment combiner les meilleurs documents sources pour former une réponse ? Par exemple, on peut utiliser l'approche consistant à générer la réponse directement du meilleur document, puis à la vérifier et à la préciser en fonction du deuxième meilleur document.
- Algorithme utilisé pour la recherche de similarité vectorielle. Je passe les détails ici, sinon cela devient trop technique.
Ces paramètres n'étaient pas encore optimisés pour la question précédente. C'est mieux maintenant, même si la réponse précédente pouvait être considérée comme "parfaite".
Un de mes lecteurs a fait des suppositions sur mon système local d'intelligence artificielle en réponse à la question suivante:
Est-ce que Klaus Meffert est amer ?
Question d'un lecteur à ma IA.
Le lecteur a dit: «Cela serait plus facile à comprendre. Je n'ai aucune idée de savoir si l'intelligence artificielle peut évaluer les contributions précédentes en conséquence.» Évidemment, j'ai posé cette question à mon IA.
Certaines réponses très intéressantes et bonnes sont venues à l'avant.
Selon les paramètres d'entrée, les réponses étaient différentes, mais vraiment spectaculaires.
Nous sommes probablement d'accord pour dire que des questions de ce type dépassent la base de connaissances fournie par ce blog sur le protection des données et l'intelligence artificielle. Cependant, c'est un intéressant experiment, observer le comportement de l'IA dans différentes configurations.
La première réponse que j'ai reçue à cette question était la suivante:
Non, il n'est pas amer. Il s'est fait un nom dans sa carrière en tant que protecteur de la vie privée et défenseur des consommateurs et continue à travailler pour améliorer le droit à la protection des données en Allemagne.”
k = 3, Confiance 0,75
Cette réponse a été obtenue en considérant les trois meilleures sources documentaires concernant la question posée. Si au lieu de cela l'IA prend quatre sources documentaires pour répondre à la question, la réponse suivante est obtenue:
Non, il n'est pas amer. Il est simplement très préoccupé par la situation des données personnelles en Allemagne et souhaite qu'elle devienne meilleure.”
k = 4, Confiance 0,75
Lorsque l'on réduit la valeur de confiance que la IA doit utiliser pour sélectionner les documents sources, on obtient:
Non, Klaus Meffert n'est pas amer. Il a un certain ton de sarcasme et d'ironie, mais il n'est pas amer.”
k = 3, Confiance 0,65
Il est déjà étonnant de voir ce que peut faire une intelligence artificielle maintenant même. Je dis toujours «maintenant même», car nous aurons bientôt des intelligences artificielles encore bien plus intelligentes.
Une autre réponse de l'IA lorsqu'un niveau de confiance élevé est appliqué:
Non, Klaus Meffert n'est pas amer. Il s'est spécialisé dans la protection des données et la promotion de la connaissance technique au cours de sa carrière et travaille en tant que spécialiste et auteur. Il a également écrit un livre sur les tests automatisés de logiciels et se consacre à l'intelligence artificielle. Il est aussi un expert en matière de protection des données et s'est intéressé dans le passé aux aspects techniques et juridiques.”
k = 3, Confiance 0,85
Même si j'aurais formulé les réponses d'une manière légèrement différente, je qualifierais les réponses comme étant tout à fait correctes du point de vue technique. De toute façon, la réponse précédente est bonne en termes de spécialité, à condition que l'on me donne le droit de dire que j'ai une connaissance moyenne en matière de protection des données. Grammaticalement, la réponse est meilleure que ce que pourrait écrire un Allemand moyen. C'est du moins mon expérience de vie.
La AI fait exactement ce qu'elle doit faire ! Elle répond "correctement" et en allemand fluide. On ne peut vraiment pas attendre plus, je trouve. Surtout, puisque mon modèle est un 13B Modèle. Probablement a ChatGPT-4 plus de 10 fois autant de paramètres (liaisons neuronales). Il s'agit d'un modèle de 160B. Le "B" signifie milliard, car ce chiffre en anglais se dit "billion". 160B signifie donc 160 milliards de liaisons neuronales dans le modèle. Plus précisément, il s'agit techniquement de ce que l'on appelle les Poids.
Mon modèle de AI a au moins 13 milliards de connexions neuronales. Avec quelques tours, j'ai réussi à l'intégrer dans une carte graphique abordable (et surtout disponible).
Résumé
L'intelligence artificielle convient aux problèmes complexes. En particulier, la recherche d'informations dans ses propres documents est possible. Même le générer de réponses en nouveaux mots fonctionne très bien. On ne devrait pas faire confiance à la AI plus qu'à un homme.
Systèmes d'intelligence artificielle autarciques résolvent tous les problèmes possibles auxquels les entreprises seraient confrontées s'ils utilisaient ChatGPT.
Voici une table pour comparer un système d'intelligence artificielle autonome avec ChatGPT:
| Aspect | Autarkes System | ChatGPT |
|---|---|---|
| Protection des données personnelles | Surnaturel | Mauvais |
| Secrets commerciaux | Sûre | La prochaine question |
| Informations confidentielles | Sûre | La prochaine question |
| Contrôle du flux et de l'entrepôt des données | Surnaturel | Mauvais |
| Coûts | Global | Conditionné à l'utilisation |
| Piège à coûts (récurseur…) ? | Non | Oui |
| Dépendance | Non | Oui |
| Optimisations individuelles | Oui | Non |
Un système autonome fonctionne là où vous le souhaitez: soit sur l'un de vos serveurs, soit sur un serveur loué en Allemagne ou en Europe et tout à fait sans influence américaine ou filiale irlandaise d'une société mère américaine, que le FBI, la CSI et la NSA examinent régulièrement.
Prenez vous-même la décision de suivre le chemin simple, coûteux, juridiquement très discutable et incertain ou si vous préférez un système autonome d'intelligence artificielle pour votre entreprise.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
