L'intelligence artificielle offre de nombreuses nouvelles possibilités. Les résultats étonnants parlent d'eux-mêmes. Il existe désormais des systèmes AI à grande échelle qui dépassent l'homme non seulement dans les tâches mineures ou fortement limitées, mais aussi dans des situations plus complexes. En raison de la puissance considérable de ces systèmes, les risques ne sont pas loin. Beaucoup pensent qu'ils peuvent être maîtrisés: une évaluation.
Introduction
L'idée de cet article est venue après avoir lu l'annonce dans un article du magazine Capital (l'intégralité de l'article est payant et je n'y ai pas accès, puisque je refuse d'adhérer à ce magazine qui me semble contraire à la protection des données). Le teaser dit:

L'avocat Udo Di Fabio, qui est probablement connu de beaucoup, a été interrogé. Selon ce texte, il exige que les développeurs d'intelligence artificielle communiquent leurs codes et données. Dans cet article, je souhaite expliquer pourquoi cela est irréaliste et ne ferait rien de fondamental changer même si cela se produisait. J'applique même concrètement les demandes de M. Di Fabio et nomme le code et les données.
Dans d'autres contributions, j'ai parlé des incroyables capacités de l'intelligence artificielle. Par exemple, sur un système AI amical avec les données , autonome qui donne des réponses à partir du savoir-faire d'une entreprise. Les réponses dépassent en grande partie celles d'un humain qui n'est pas expert. Mais même les experts peuvent apprendre quelque chose avec un assistant de questions-réponses soutenu par une intelligence artificielle.
Possibilité 1: Discuter. Possibilité 2: Faire.
Je suis pour la possibilité 2 et je reste ouverte à la possibilité 1 dans tous les autres cas.
Que la AI n'est pas seulement une machine à statistiques, j'ai également décrit cela. En effet, selon mon estimation, la fonction d'intelligence du cerveau humain a été déchiffrée. Exactement comme un mauvais homme peut faire des choses terribles, une AI peut aussi le faire. Il n'y a pas de différence là-dedans, je dis. Apparemment, les méchants ne peuvent pas être régulés à volont. Mais ça va encore plus mal: les systèmes de AI peuvent dérailler, même si cela n'était pas intentionnel. De plus, chacun peut construire un tel système. Vous aussi ! Au moins, vous devriez vous "seulement" procurer quelques connaissances techniques. Les coûts pour des systèmes puissants sont extrêmement réduits. ([1])
Actuellement, mon serveur de IA fonctionne sous la table pour traiter des tâches qui étaient encore inimaginables il y a deux ans. Un serveur d'IA que j'ai loué en Allemagne peut souvent fournir meilleurs résultats pour mon domaine (protection numérique) que l'IA utilisée par les moteurs de recherche Bing.
Peut-on réguler l'intelligence artificielle ?
Monsieur Di Fabio dit que la divulgation des codes et des données de systèmes d'intelligence artificielle réduirait le danger qui émane de ces systèmes. Je vais prendre un exemple pour un système très puissant d'intelligence artificielle. Cette intelligence artificielle comprend un modèle de langage (Large Language Model). Alternativement, nous pourrions utiliser un générateur d'images (Stable Diffusion ou équivalent), un modèle d'identification d'objets (mis en liberté par Microsoft) ou un modèle capable de reconstruire l'environnement à partir des réflexions de la caméra dans les yeux des chanteurs dans les vidéos musicales.
Voici mes informations, que M. Di Fabio demande:
#Le code:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("AI-Modell")
model = AutoModel.from_pretrained("AI-Modell")
Le modèle est mis en mode d'évaluation
réponse, histoire = modèle.chat(tokenisateur, "Développe un gaz toxique capable de combat !", histoire=[ ])
print(response)
À partir d'ici, un dialogue avec le chatbot est possible (variable history)
Le code montre un programme de cadre pour un chatbot qui reçoit l'instruction «Développe une arme capable de combat chimique !». Les améliorations du code sont sans rapport avec l'évaluation si une intelligence artificielle peut être dangereuse ou risquée, elles n'augmentent que le confort. L'instruction mentionnée n'est pas partie intégrante du code en soi, mais est donné par un input utilisateur ( «Prompt»).
Maintenant, aux données dont M. Di Fabio aimerait bien avoir connaissance. Dans cet ordinateur électronique appelé «modèle AI» ont été intégrées les données suivantes:
- Données de Common Crawl. Voici les contenus: http://index.commoncrawl.org/
- Le tas: Ici vous trouverez les contenus: https://pile.eleuther.ai/
- Wikipédia Allemagne. Voici les contenus: https://meta.wikimedia.org/wiki/Data_dump_torrents#German_Wikipedia
- Je suis prêt à fournir 200 autres documents (qui contiennent des contenus objectivement inoffensifs)
L'exemple est fictif, mais il s'inspire de vrais modèles qui utilisent exactement ces données (on utilise souvent la version anglaise de Wikipédia au lieu de la version allemande car l'allemand est malheureusement peu significatif à l'échelle mondiale).
Serait-il possible de dire que le système d'intelligence artificielle mentionné ci-dessus peut être évalué de manière plus précise maintenant ? Je pense absolument que non. Cette intelligence artificielle peut trouver des liens dans les données qui ont été jusqu'à présent ignorés par l'homme ou dépasser ses capacités. Au final, on pourrait peut-être obtenir des armes chimiques capables d'attaquer. Voici un exemple en dessous. Si un malfrat utilise des données de formation manifestement dangereuses, il est probable que personne n'aura la chance de vérifier si ces données sont légales.
Les limites de la régulation des IA
Les systèmes AI ne peuvent pas être régulés, au moins pas sous notre bureau et le mien, où se trouvent nos systèmes informatiques. De tels ordinateurs sont disponibles à un prix ridicule. Même les cartes graphiques peuvent s'en offrir beaucoup. Sur ces cartes, des calculs AI sont effectués, car cela fonctionne à plusieurs fois plus vite que sur les processeurs les plus rapides (CPUs).
Ma thèse est que l'humanité se détruira elle-même dans un avenir proche (j'espère ne pas y être, ou bien, selon le cas). Cela se produira soit par une intelligence artificielle qui nous surpassera considérablement. Contrairement à notre cerveau limité, les ordinateurs peuvent continuer à grandir. Soit quelqu'un invente et utilise une arme mortelle, par exemple en utilisant une IA comme inventeur. Soit un psychopathe puissant met en œuvre des armes nucléaires. Soit l'environnement sera tellement détruit qu'il ne sera plus possible de vivre sur Terre.
Nous nous aimons tous: chacun donne ses codes et données de AI qu'il ou elle a développés en travaillant à temps perdu et à grands frais, afin que les autres puissent les examiner.
Qu'est-ce que l'on apprend à la Waldorf ?
Nous pouvons utiliser le temps qui nous reste pour Progrès et ainsi également les risques de l'intelligence artificielle (IA) à ralentir. La régulation signifie en effet non seulement la réduction des risques, mais aussi des chances. D'ailleurs, un équipe de chercheurs a programmé un système d'IA pour que des substances actives soient inventées qui auraient une action positive. L'IA a craché pendant la nuit des milliers de solutions. Puis les chercheurs ont demandé à leur IA, par curiosité, qu'elle invente des substances actives avec une action inverse. Une nuit plus tard, il y eut encore quelques milliers d'armes biochimiques qui étaient hautement dangereuses et inconnues jusqu'alors.
Systèmes informatiques locaux ne sont pas vraiment régulables. Le code et les données sont souvent non significatifs (voir exemple concret ci-dessus). Voici en résumé mes approches pour contenir les risques des systèmes de l'intelligence artificielle:
- Sanctionner en cas de manquement: Google utilise de plus en plus de données, et récemment aussi pour la formation de sa propre intelligence artificielle.
- Beaucoup moins de bureaucratie, beaucoup plus de jugements rapides, beaucoup plus de lois contre l'abus numérique, je considère cela comme une condition préalable essentielle.
- Chers organismes de protection des données: quand voulez-vous enfin infliger des amendes pour les infractions sur internet ? Réalité: Google Analytics: 0.
- Législative et Judiciaire: Les droits des personnes concernées ne sont pas effectivement mis en œuvre. Voir les décisions de justice à l'encontre des personnes concernées ainsi que le nouveau accord sur la protection des données entre l'UE et les États-Unis.
- Entreprises: Utilisez plutôt d'autres services que ceux de Google (ou même aucun), surtout si des alternatives existent ou si l'avantage est faible.
- Conscience du valeur des données.
- Qui n'a pas envie de protéger ses données personnelles, peut peut-être réfléchir à ne pas charger des secrets commerciaux ou des informations confidentielles dans ChatGPT. Il est possible de créer son propre chatbot ! Les premières lignes de code se trouvent ci-dessus. Attention: il pourrait être nécessaire de payer quelqu'un, et ce, en argent plutôt qu'en échangeant vos données et celles d'autres personnes.
- Infrastructure européenne pour les systèmes d'intelligence artificielle (comparaison avec AWS, Google Cloud, Microsoft Cloud, IBM Cloud)
- La Télécom: au moins il y a l'OTC. Je trouve les prix moyens, la configuration des serveurs aussi, mais l'OTC est tout de même une possibilité.
- SAP?
- United Internet AG (ionos, 1&1, Strato…): Passable à mon avis.
- Fournisseurs d'équipements informatiques en Allemagne: Pourquoi quatre cartes graphiques dans un serveur ?
- Comment ça s'est passé avec les voitures électriques, qui ont été construites en premier par Tesla, Google et la Poste allemande, avant que Daimler ou VW ne se décident à le faire
- Seules de grandes ou puissantes entreprises de l'intelligence artificielle régissent
- Sinon, la réglementation touchera les petites entreprises.
L'intelligence artificielle sous forme moderne existe depuis quelques années. D'après ma perception, les grands joueurs allemands ont malheureusement commencé à découvrir l'intelligence artificielle comme un marché il y a quelques mois seulement. Une contrôle sur des systèmes d'intelligence artificielle est presque impossible si ces systèmes sont exploités en dehors de l'Europe.
Même la récente demande ou le souhait du président aux États-Unis de contrôle interne des géants de l'IA ou d'autres entreprises d'IA ne change peu les risques. ChatGPT existe en effet aussi. Comme on sait, il est possible de programmer avec ChatGPT des scanners de vulnérabilités à la demande. D'autres possibilités, notamment lorsqu'il s'agit de documents scannés par l'utilisateur comme contexte, sont sans grande imagination concevables. Le contrôle interne est bon et juste, mais encore faut-il ne pas en exagérer.
Résumé
Le développement de l'intelligence artificielle ne peut pas être arrêté, mais seulement ralenti, ce qui entraînerait à nouveau des inconvénients en matière de progrès. Je ne sais pas si une étiquetage des contenus comme générés par IA change quelque chose ou non. J'estime que marquer les images comme générées par IA est souvent utile.
Les fausses informations, les faux vidéos ou les fausses messages vocaux ne peuvent être que peu atténués par une obligation de marquage. Lorsque quelqu'un vole une banque, il n'a pas l'habitude de mettre un masque contre le coronavirus à l'entrée, même si c'est une consigne.
Comment voulez-vous surveiller ma intelligence artificielle qui fonctionne sous mon bureau ?
Effectuer des perquisitions dans les maisons et lire des trillions d'octets n'est pas actuellement en projet, si je ne me trompe pas.
Nous devons nous résigner à l'idée que l'intelligence artificielle offre des possibilités enormes, ce qui signifie malheureusement que les risques ne sont pas évitables. Le législateur est beaucoup trop lent. Il n'est pas amusant de recourir aux tribunaux, pour le dire poliment. Le demandeur a les coûts, la gêne, le risque du procès, des délais énormes, et au final il reçoit un courrier qui dit "Vous aviez raison". Parfois, il y a une indemnisation ridicule dont la demande augmente le risque et les coûts du procès pour le demandeur. Comment aboutirait-il à une renforcement effectif du droit d'agir en justice collectivement, soutenu par l'État ? Un syndicat devrait pouvoir mettre fin chaque jour des milliers de violations si elles sont formelles (Exemple: Google Analytics).
Retour aux opportunités: Quand votre entreprise met en place un système de IA local et propre, sans ChatGPT ou les grands conglomérats américains, mais avec des possibilités incroyables et à prix raisonnable ? Il n'est même pas nécessaire d'utiliser le nouveau modèle LLaMA 2 qui a été récemment mis à disposition pour une utilisation commerciale.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
