Tout le monde trouve l'IA géniale. C'est pourquoi tout le monde s'exprime sur l'IA. L'IA étant un domaine techniquement très complexe, de nombreuses demi-vérités ou fausses déclarations voient le jour. Le tout est alimenté par les promesses marketing de Microsoft et d'autres. Cet article clarifie ce qui est vrai et ce qui relève plutôt du domaine des faits alternatifs.
Hypothèses erronées fréquentes sur l'IA
En raison d'une couverture médiatique souvent unilatérale, qui tourne toujours autour de ChatGPT ou des produits d'IA de Microsoft, il semble que de nombreuses idées fausses se développent. En voici quelques-unes :
- Les modèles linguistiques seraient basés sur des statistiques et ne seraient donc pas intelligents.
- Un système d'IA est un algorithme.
- L'IA est un outil.
- Un système d'IA peut travailler avec précision.
- ChatGPT n'est pas intelligent.
- ChatGPT est la meilleure solution.
- L'IA est synonyme de ChatGPT (OpenAI), Claude (Anthropic), Mixtral (Mistral) ou Command R+ (Cohere). Il n'y aurait rien d'autre.
- Chez Microsoft, les données sont en sécurité.
- AI peut être exploité conformément à la loi.
- Les jetons ne sont pas des données réelles.
- Les modèles d'IA ne stockaient pas de données à caractère personnel.
À partir de ces hypothèses erronées, naissent souvent des déclarations fausses. Certaines d'entre elles sont explicitement précisées ci-dessous. En remplacement des autres services cloud, on ne parle que de ChatGPT dans la suite.
Fausses déclarations sur l'IA
Les déclarations suivantes ont été lues dans les médias sociaux sous une forme ou une autre. Les déclarations étaient formulées de manière générale ou spécifique, mais néanmoins fausses.
ChatGPT n'est pas intelligent
Après la définition de l'intelligence artificielle par le Dr DSGVO, ChatGPT est intelligente. Cette définition d'intelligence artificielle dit :

Même d'après Alan Turing, brillant mathématicien pendant la Seconde Guerre mondiale et enchanteur de la machine de codage Enigma, ChatGPT est intelligent : ChatGPT passe le test de Turing. Ce test vérifie si les réponses d'une machine sont indiscernables de celles d'un être humain. Au contraire : ChatGPT fournit souvent (presque toujours pourrait-on dire) des réponses nettement meilleures que celles de l'homme moyennement intelligent.
La nouvelle définition de la réglementation AI définie par la AI définit également ChatGPT (espérons-le) comme intelligent. Voir Article 3 du Act AI du 12.07.2024.
Qu'est-ce que l'intelligence ? La définition de l'intelligence artificielle vient d'être donnée. Il suffit de supprimer deux fois l'attribut "artificiel" de la définition. Et voilà la définition de l'intelligence. L'être humain ne peut pas prétendre au monopole de l'intelligence, même si beaucoup aimeraient qu'il en soit ainsi.
L'intelligence est basée sur des critères humains
Beaucoup pensent que l'intelligence est quelque chose que l'homme détermine. Le règlement de l'UE sur l'IA avait écrit, dans une définition entre-temps révisée de ce qu'est l'intelligence artificielle, que l'intelligence artificielle doit atteindre des objectifs "fixés par l'homme …".
Il n'y a aucune raison pour cette hypothèse erronée. L'homme n'est pas pertinent pour déterminer ce qu'est l'intelligence. Jusqu'à présent, on pouvait tout au plus le prendre comme référence. Cela ne sera probablement plus le cas à l'avenir.
D'ailleurs, on attribue également un comportement intelligent à certaines espèces animales. Apparemment, les animaux ne sont pas des êtres humains.
ChatGPT est la meilleure solution
Tout dépend de l'utilisation. Pour les tâches courantes, ChatGPT est souvent un formidable moteur de réponses. C'est surtout vrai pour les connaissances du monde ou les tâches fréquentes, qui se retrouvent aussi dans les données d'entraînement de ChatGPT.
Pour toutes les tâches concrètes qui doivent être traitées de manière un tant soit peu professionnelle, ChatGPT semble inadapté. Un exemple : résumer un texte sans halucinations. Autre exemple : trouver des connaissances.
ChatGPT ne peut et ne veut certainement pas parcourir une grande partie d'Internet ou d'un site web à votre place. Après tout, soit vous payez "seulement" avec vos données et celles des autres. Ou alors vous payez 20 dollars par mois ou une somme dérisoire par appel à l'API.
ChatGPT ne peut donc se baser que sur des contenus qui sont soit déjà connus, soit inconnus et d'une taille réduite. Par "faible volume", on entend le nombre de documents ou de pages web.
Pour des tâches telles que la numérisation de documents, ChatGPT n'est pas une bonne solution, car il faut tenir compte de nombreuses spécialités.
ChatGPT est mauvais
Tout dépend de l'objectif. ChatGPT n'est pas un moteur de recherche. Celui qui utilise le système contrairement à sa vocation ne doit pas s'étonner de recevoir des réponses médiocres. Un système d'IA n'est pas non plus fait pour compter les lettres d'un mot.
Une IA est bonne pour résoudre des tâches complexes de manière créative. Cette même IA est mauvaise pour effectuer des travaux précis. Tout comme l'homme !
La formation à l'IA est coûteuse
C'est vrai : l'entraînement de grands modèles de langage comme ChatGPT est très coûteux et prend beaucoup de temps.
Mais il est également vrai que l'entraînement de ses propres modèles linguistiques d'IA est très avantageux. La raison en est que ces propres modèles sont spécialisés pour certains cas d'application. Dans de nombreux cas, l'entraînement de tels modèles est possible en quelques heures sur un ordinateur portable ou sur un serveur d'IA propre.
Comme les ordinateurs de l'IA sont généralement allumés et en marche, les coûts de formation à l'IA sont nuls.
La formation à l'IA est donc possible gratuitement dans la plupart des cas.
L'inférence est coûteuse
L'inférence consiste à interroger un modèle d'IA, par exemple en discutant avec un modèle linguistique tel que ChatGPT.
C'est vrai : les grands modèles de langage comme ChatGPT nécessitent des dizaines, voire des centaines de serveurs en même temps pour générer une réponse à votre question. Cela coûte cher.
Mais il est également vrai que si l'on interroge un modèle linguistique d'IA exploité en interne, cela ne coûte rien.
Ainsi, dans la plupart des cas, le coût de l'inférence est nul. Ce qu'OpenAI paie pour ses serveurs peut nous être aussi indifférent qu'OpenAI se fiche de ce que nous payons pour nos ordinateurs.
Microsoft Azure et ChatGPT seraient sûrs
Beaucoup vendent leur "solution" comme étant innovante. Une banque a même parlé de l'introduction d'une propre (privée) IA, mais elle fait référence à Microsoft Azure. Azure est le contraire de la sécurité. Microsoft lui-même est l'objet de nombreuses attaques informatiques. De plus, il faut noter que Microsoft ne donne pas la priorité la plus élevée au thème de la sécurité.
A cela s'ajoute l'appétit massif de Microsoft pour les données. Le nouvel Outlook veut récupérer les e-mails des clients à des fins personnelles ; Windows envoie constamment des données d'utilisateurs à Microsoft, etc.
Microsoft Copilot fonctionne bien
Les premiers tests montrent que l'inverse est vrai. Copilot devait résumer un texte. L'instruction (prompt) pour cela était supersimple et sans équivoque. Le texte était donné directement. La longueur du texte était assez courte, car le champ de saisie de l'interface web de Copilot ne permettait pas d'aller plus loin.
Le rapport de test avec des captures d'écran révèle que Copilot semble être complètement inutile pour certaines tâches. Même lorsqu'on regarde les choses du bon côté, il ne parvient pas à trouver quelque chose de positif dans les résultats de Copilot. La synthèse d'un extrait d'un article du blog Dr DSGVO était tellement fausse qu'un être humain s'en sentirait honteux. Copilot a inventé nombre d'affirmations sans raison et n'a pas rempli la tâche qui lui avait été donnée.
Au lieu de cela, Microsoft fait en sorte que toutes les fois qu'il y a une réponse, il soit présenté comme si Copilot était une excellente solution et que les réponses soient directement utilisées. Nulle part on ne peut lire que certaines réponses pourraient être fausses ou quelque chose d'assez similaire.
Les modèles linguistiques sont basés sur les statistiques
Oui, c'est vrai. C'est exactement comme ça que fonctionne la grammaire. C'est exactement comme ça que fonctionne l'intelligence. Voir le cerveau humain. Les modèles linguistiques ne sont justement pas entraînés de la même manière que l'être humain, qui franchit d'autres étapes pour donner une réponse.
Toute notre existence est basée sur des probabilités : Comparez la désintégration radioactive ou, plus généralement encore, la physique quantique. Tout est basé sur le hasard. Tout. Au besoin, veuillez demander à quelqu'un qui s'y connaît un peu en physique quantique.
Il n'y a pas d'importance pour savoir pourquoi un système est intelligent. Ce qui compte, c'est uniquement les résultats. Quelqu'un qui croit encore que le cerveau humain ne soit pas "hackbar" peut-être trouver intéressant un rapport sur un cerveau de rat artificiel mais il a réussi apparemment à reproduire des mouvements et les activités cérébrales associées par une simulation.
L'IA est utilisable conformément à la loi
En théorie, c'est peut-être le cas. Dans la pratique, certaines questions se posent :
- D'où proviennent les milliards, voire les trillions de jeux de données qui ont été intégrés dans un système d'IA pour son entraînement ?
- Pour les services de cloud computing comme ChatGPT ou Azure, la question se pose de savoir si les conditions juridiques sont suffisantes.
- L'article 44b UrhG (loi allemande sur le droit d'auteur) peut-il être respecté ?
- Comment les données peuvent-elles être supprimées d'un modèle d'IA existant ?
À la question 3 : Le législateur allemand exige que les crawlers ne puissent lire que le contenu de sites web si le propriétaire du site n'y a pas fait objection. L'objection devrait, selon l'Allemagne, être enregistrée dans la rubrique "Impressum" ou les CGV. C'est complètement inenvisageable et non réalisable d'un point de vue technique. Les crawlers ne comprennent pas les formules d'objection en langage naturel. Il n'y a pas de crawlers basés sur l'intelligence artificielle. Il n'y a que des crawlers stupides qui fournissent du contenu pour des systèmes qui deviennent intelligents ou le sont déjà. La fichier robots.txt serait une bonne solution. Malheureusement, l'Allemagne a manqué cette solution. De plus, le propriétaire du crawler devrait plus tard être en mesure de prouver qu'il n'y avait pas d'objection. C'est à peu près impossible dans la pratique. Ainsi, le crawlage des sites web allemands serait toujours un grand risque juridique et souvent interdit.
À la question 1 : Les données proviennent d'Internet. Les textes, les images et autres œuvres sont par elles-mêmes protégés par le droit d'auteur. La protection du droit d'auteur se crée automatiquement à la création d'un travail, à condition que ce travail possède une certaine hauteur de création. Ainsi, ces contenus ne peuvent être lus ni du tout (voir question 3) ou seulement jusqu'à ce que le détenteur des droits leur donne un refus. Les AI génératives produisent des résultats qui pourraient potentiellement être protégés par le droit d'auteur et sont donc illégaux. Puisque seul la lecture était peut-être permise, mais pas la création de réponses à partir de AI.
La suppression de données dans les modèles d'intelligence artificielle** n'est pas possible avec une fiabilité. Un modèle d'intelligence artificielle doit donc être poursuivi illégalement, si quelqu'un ne veut plus voir ses données dans le modèle d'intelligence artificielle (ou au moins dans les réponses de l'intelligence artificielle). Faire disparaître un tel modèle et le reprendre à partir de zéro n'est pas une option pour des modèles gigantesques comme ChatGPT, car cela est beaucoup trop cher et prend beaucoup trop de temps. De nouvelles demandes de suppression retarderaient encore plus la procédure. Cependant, ce problème ne se pose pas avec les AI hors ligne.
À la question 2 : Voir plus haut pour les preuves, pourquoi Microsoft et ses plateformes sont à considérer comme des risques. S'ajoutent les documents juridiques que Microsoft et OpenAI imposent aux utilisateurs. Il se pose la question de qui vérifie ces documents avec soin et ce qui se passe si un défaut est constaté. Le faire discuter des problèmes peut être une stratégie populaire, mais elle ne résout pas le problème réel. De plus, Microsoft veut, comme en montrent de nombreux exemples pratiques (données Telemetrie Windows, nouveau Outlook avec un appétit gigantesque pour les données et accès aux courriels des clients par les informations d'accès du client…), collecter beaucoup de données et rien d'autre. Pourquoi devrait-on faire confiance à ces entreprises ? Il n'y a pas de raison pour cela.
L'IA serait un algorithme
"Un algorithme est […] une prescription d'action unique pour la résolution d'un problème ou d'une classe de problèmes." (Source : Wikipedia, italique ajouté ici).
Un système de IA repose sur un réseau neuronal. S'il peut être qualifié d'algorithme en un sens étroit, c'est plus que discutable. De toute évidence, un réseau neuronal n'est pas considéré comme tel par l'observateur humain, surtout lorsqu'il s'agit de réseaux profonds (d'où le terme du Deep Learning).
Après tout, l'homme n'est pas non plus considéré comme un algorithme. Son cerveau est également constitué d'un réseau neuronal.
Ainsi, on devrait refuser l'affirmation selon laquelle un système de IA est un algorithme, lorsqu'on y regarde de plus près. Sur Wikipedia, un système de IA n'est pas non plus assimilé à un algorithme. Au contraire, le progrès d'apprentissage est attribué à un algorithme, ce qui est plausible, car cette amélioration du réseau neuronal se déroule au cours d'un processus de calcul bien défini.
Si vous pensez que l'IA est un algorithme, veuillez nous faire part d'un cas où, selon vous, une solution automatisée à un problème n'est PAS un algorithme. Nous sommes impatients d'en savoir plus !
L'IA est un outil
C'est à peu près aussi vrai que de dire "une voiture est un tas de matière" ou "les cookies sont des fichiers". Dans ce cas, tout ou rien serait un outil. Le contenu informatif serait alors nul. Par conséquent, cette affirmation n'est pas pertinente.
Certains pensent que les outils AI-gestützte sont des outils de AI, quand on parle de AI comme d'un outil. Les impropriétés linguistiques ne conduisent en tout cas pas à une meilleure compréhension.
L'intelligence n'est en tout cas pas un outil, mais une caractéristique (exceptionnelle) d'un système.
Les modèles linguistiques ne pourraient pas raisonner logiquement
Fait est: les modèles linguistiques peuvent résoudre des questions mathématiques très complexes mieux que presque tous les êtres humains de la Terre. Supposons qu'un système d'intelligence artificielle fasse ceci en lisant toutes les problématiques possibles et en apprenant à partir d'elles. Alors on a déjà utilisé le mot "apprendre". Reste-t-on avec "Lire", alors il est possible que le système d'intelligence artificielle puisse résoudre tous les problèmes inconnus jusqu'alors, si seulement ils sont similaires aux problèmes connus. Où est la différence avec presque tous les êtres humains ?

Veuillez lire les Mathematiques exercices à travers, qui ont été posés aux systèmes d'intelligence artificielle lors de l'AI Math Olympiad (AIMO). Si vous comprenez ces exercices du tout au tout, ils apparaissent manifestement comme une petite partie, en termes de pourcentage, de la population mondiale qui peut se targuer d'un très profond compréhension mathématique.
En outre, l'auteur de cet article a pu résoudre avec l'aide du meilleur modèle mathématique une problématique mathématique très exigeante dont il ne savait que (d'un mathématicien) qu'elle pouvait être résolue par des équations diophantiennes. Pas la moindre idée de ce que sont les équations diophantiennes. Le problème concerne marins et noix de coco et ne devrait pas pouvoir être résolu (proportionnellement parlant) par quiconque sur Terre. Pour cela, le long texte allemand (!) de la question a été inséré dans le modèle mathématique anglophone. La réponse de l'intelligence artificielle était fausse, mais le chemin de solution tentée était si proche de la solution que avec très peu d'efforts, il a pu être trouvé manuellement.
Les jetons ne sont pas des données réelles
Plus précisément, certains pensent que ce n'est pas parce que les textes sont stockés sous forme de nombres dans les modèles linguistiques que les modèles linguistiques ne stockent pas de données originales.
Les modèles linguistiques stockent les textes sous forme de séries numériques (vecteurs). Pour cela, les mots sont décomposés en morceaux appelés tokens. Chaque token correspond à un nombre. Cette association de morceaux de mots à des nombres est unique pour chaque modèle linguistique et est fixée dans un dictionnaire (Vocabulaire). Ce dictionnaire est attaché à chaque modèle linguistique sous forme de fichier texte. On peut toujours consulter ce fichier texte et l'évaluer.
La suite numérique 4711, 0815, 9933 pourrait correspondre à la séquence de lettres Maxi, mi, lian. Il est clair que les nombres se réfèrent à des mots. Ainsi, les séries numériques sont personnelles si les lettres codées représentent des données personnelles. Les données indirectement dérivables d'une personne sont également personnelles (vgl. Art. 4 N° 1 DSGVO).
Les modèles linguistiques forment leur sortie notamment par des valeurs de probabilité cumulatives des tokens. On ne considère donc pas seulement deux tokens, mais une chaîne entière de tokens. Un paramètre technique qui contrôle cela s'appelle top_p.
Le document de thèse de Hambourg (voir ci-dessous) se trompe donc sur des points fondamentaux. Il semble avoir été rédigé dans le but de légaliser tous les systèmes d'IA, dont la plupart devraient être illégaux.
Les modèles linguistiques d'IA ne stockeraient pas de données personnelles
L'argumentation du Hambourgeois Protecteur de la vie privée (HmbBfDI) est la suivante : Il est incroyablement difficile d'exhumer des données personnelles à partir de modèles linguistiques. Le juge européen a dit que la reconstitution d'un lien avec une personne ne peut être considérée comme possible que si les moyens et les efforts nécessaires pour y parvenir sont dans le cadre normal. Le HmbBfDI dit qu'il faudrait une attaque de confidentialité [] illégale** sophistiquée pour extraire des données personnelles à partir de modèles linguistiques. En raison du coût énorme qui s'ensuit, il s'agit, selon la jurisprudence du juge européen, pas de données personnelles.
Voici un contre-exemple simple qui réfute facilement le HmbBfDI :

Les modèles linguistiques stockent les données de toutes les personnes de la même manière. Même les personnes qui ne sont pas publiques sont stockées dans le modèle linguistique, à savoir lors du pré-entrainement sur les données d'entraînement. Les données d'entraînement se composent de milliards de documents. Il est peu probable que seuls Angela Merkel ou autres personnes très publiques y figurent, qui semblent avoir moins le droit à la vie privée que le citoyen moyen.
Il est même possible de récupérer des citations complètes à partir d'un modèle linguistique. L'article qui a été lié précédemment démontre également que dans les LLM, il y a bien des données personnelles. En opposition avec l'hypothèse du HmbBfDI, tous les grands modèles de AI font partie d'un système de AI. Cela signifie : Un système de AI peut interpréter les nombres dont un modèle de AI est composé et les convertir en texte. Seule une instance de AI sur le disque dur sans la capacité d'interprétation serait non critique. Ce cas non critique n'existe pas pour ChatGPT ou GPT-4o. Il existe peut-être à peine dans des modèles linguistiques open source, mais même théoriquement. Car il suffit de télécharger une bibliothèque de programmation très répandue pour pouvoir interpréter le contenu du modèle. Malheureusement, le HmbBfDI a construit une différence technique entre ChatGPT et GPT-4o qui n'existe pas.
En soi, cela n'a pas d'importance :
- Lorsqu'on utilise un LLM, il y a souvent des données à caractère personnel. Si celles-ci sont mises en circulation, la personne qui le fait est responsable.
- Si un LLM n'est pas utilisé, les données qu'il contient n'ont pratiquement aucune importance. Personne ne le voit.
- Le stockage n'est donc pas la priorité.
L'intelligence artificielle générale ne peut pas exister
Cette forme d'intelligence est également appelée AGI. AGI signifie Artificial General Intelligence. Nous sommes encore au début. Il est évident que les robots intelligents qui circulent dans l'histoire mondiale ne sont pas fréquemment observés.
La vérité est : Peu d'entreprises seuls vont déjà investir des milliers de milliards de dollars dans la construction de robots intelligents. Pour cela, il faut :
- Un robot (déjà là, de mieux en mieux).
- Un cerveau électronique (déjà là, de plus en plus performant).
- Quelqu'un qui place la boîte à cerveau (ordinateur avec IA) sur le robot (ce quelqu'un est aussi déjà là).
Il existe donc déjà ces trois composants. Systèmes d'apprentissage automatique existent manifestement déjà. Voir ChatGPT ou NuminaMath (plus bas). Il ne s'agit que d'une question de temps avant que les robots apprennent à mieux maîtriser notre monde que nous ne le ferons jamais.
L'IA ne sera pas puissante avant de nombreuses années
Il n'est pas possible de prouver la fausseté de cette hypothèse, pas plus que les affirmations du paragraphe précédent sur les AGI. L'avenir nous le dira.
C'est vrai : le développement de l'intelligence artificielle avance à vitesse supérieure à la lumière. Ce qui n'était pas possible il y a 2 semaines, est maintenant réalisable. Cela vaut notamment pour les progrès des modèles de langage open-source. Le modèle AIMO mentionné ci-dessus a été gagné par un modèle open-source nommé NuminaMath. Il a répondu correctement à 29 des 50 problèmes mathématiques plus difficiles posés sous forme de texte.
Google affirme d'ailleurs qu'un progrès en robotique a été réalisé grâce à un modèle de langage.
Prévisions du Dr. DSGVO : Dans 10 à 15 ans, des robots se promèneront dans la région et représenteront une menace sérieuse pour l'humanité. Cela peut aussi être 5 ans (pour être plus précis, il faudrait être expert en robotique). Mais il est certain qu'il ne faudra pas attendre 35 ans pour que nous ayons à nous inquiéter sérieusement de notre existence en raison de la supériorité de l'IA. Si vous avez des enfants, ils organiseront, selon les prévisions de cet article, leur fin de vie d'une manière différente de ce que l'on peut trouver bon.
En résumé
Voici les principales affirmations sous une forme correcte :
- ChatGPT est un système intelligent qui dépasse de loin l'être humain pour de nombreuses tâches.
- L'intelligence est indépendante de l'homme.
- L'intelligence artificielle est l'intelligence sur un système artificiel. N'hésitez pas à définir vous-même ce qui est artificiel (cela n'a aucune importance).
- La consultation de modèles linguistiques coûte rien. Cela vaut pour AI hors ligne, c'est-à-dire des modèles linguistiques autogérés.
- L'entraînement de modèles d'intelligence artificielle coûte rien. Cela vaut pour l'entraînement sur la propre hardware ou des matériel loué. Ce matériel est déjà allumé. Qu'un entraînement IA s'y déroule ou non, c'est sans importance pour les coûts du matériel.
- L'intelligence artificielle n'est pas un algorithme, mais une solution inextricable pour de nombreux problèmes.
- Microsoft Copilot est un système inutilisable. En tout cas, c'est déjà le cas pour les tâches standard les plus simples, que n'importe quelle IA hors ligne peut mieux accomplir.
- Le cloud Azure n'est pas sûr. En témoignent de nombreux incidents dans lesquels Microsoft n'a pas particulièrement brillé.
- Dans quelques années, l'IA deviendra un danger pour l'humanité. Ou comme l'a dit Sam Altmann d'OpenAI : "L'IA nous tuera tous. Mais d'ici là, elle sera incroyablement utile"."
Si vous souhaitez introduire une intelligence artificielle (IA hors ligne) dans votre entreprise, il est important de savoir :
- Une IA hors ligne peut être optimisée. Elle donne de meilleurs résultats que ChatGPT pour de nombreux cas d'application. Cela s'explique notamment par le fait que votre système ne travaille que pour vous et n'a pas besoin de travailler également pour des millions d'autres utilisateurs.
- Une IK hors ligne offre un contrôle total des données. Chaque DPD se réjouit d'une IK hors ligne.
- Une IA hors ligne est peu coûteuse à exploiter, que ce soit par l'achat d'un serveur d'IA ou par la location d'un tel serveur dans un centre informatique allemand auprès d'un fournisseur allemand.
- Une IA hors ligne peut récupérer des données sur Internet ou communiquer avec d'autres systèmes informatiques.
Quelles sont vos questions ou vos conclusions ?



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
