Une liste de termes fréquents pertinents pour les systèmes d'intelligence artificielle.
Les termes imprimés en gras sont des références croisées vers d'autres termes qui sont également expliqués dans le glossaire de l'intelligence artificielle.
Des informations supplémentaires sur l'intelligence artificielle sont disponibles dans les contributions de Dr. RGPD:
Vocabulaire des principaux termes de l'intelligence artificielle
| Terme | Déclaration |
|---|---|
| Intelligence artificielle | L'intelligence artificielle abrégée en AI. La AI est le développement de l'informatique et du logiciel qui possèdent des capacités humaines telles que l'apprentissage, la résolution de problèmes, la compréhension et la production de langages, la perception sensorielle, le contrôle d'action et la prise de décision autonome. |
| Modèle | Un modèle de IA est un cerveau électronique. Comme dans le cerveau biologique, il se compose d'un réseau neuronal (voir KNN). |
| Modèle de langage large | Abréviation pour Large Language Model. Modèle, qui a été entraîné sur un grand nombre de documents texte, afin d'imiter très bien la grammaire d'une ou plusieurs langues. |
| Foundation Model | Un modèle de base entraîné, qui peut être adapté à des tâches ou des domaines spécifiques par fine-tuning et est souvent fourni sous licence aménagée pour l'utilisation. |
| K-Plus Proche Voisin (KNN) | Abréviation pour Réseau Neuronal Artificiel. Image électronique du modèle biologique. Base des modèles d'intelligence artificielle (voir Modèle). |
| Transformateur | Approche mathématique importante qui a rendu possible les applications de l'intelligence artificielle performantes comme ChatGPT et qui est responsable du succès actuel des IA. Existe depuis 2017. La phase précédente a été développée par Jürgen Schmidhuber au début des années 1990. Se compose d'une structure Encoder-Decoder, dans laquelle une entrée en caractéristiques est codée puis transformée en sortie par un décodeur. Voir aussi Embeddings. |
| Taille du modèle | La taille d'un modèle de IA (voir Modèle) est indiquée en notation abrégée par le nombre de paramètres (voir Paramètre). Les petits modèles n'ont que quelques centaines de millions de paramètres. Un modèle 200M a 200 millions de paramètres. Des modèles plus grands ont 13B ou 60B de paramètres. Le "B" signifie milliard (anglais: billion). |
| Paramètre | Les poids sont appelés paramètres dans un réseau neuronal artificiel (voir KNN). Un poids définit la force du lien entre deux neurones. |
| ChatGPT | ChatBot basé sur l'architecture GPT (voir GPT). Possède également une interface de programmation d'applications (API). Devrait avoir environ 160 milliards de paramètres (cf. Taille du modèle). Posée problème en matière de protection des données, de secrets commerciaux et de documents confidentiels. |
| GPT | Abréviation pour Générateur Préentraîné Transformer. Voir Générateur, Préréentraîné et Transformer. |
| Génératif | La capacité de produire ou créer quelque chose de nouveau. Partie de l'abréviation GPT, qui est également présente dans ChatGPT. |
| Formé à la vorticité | Un modèle préentraîné est un modèle entraîné. Il est entraîné. Au lieu d'être dit "entrainé", on parle de "préentraîné". L'arrière-plan est que un modèle déjà entraîné peut être entraîné plus loin, ce qui s'appelle rafraîchissement. |
| Affinage | Un modèle entraîné (voir Entraîné) peut être «affiné» pour des tâches spécifiques (voir Downstream). Cette formation est appelée Fine-Tuning. Le fine-tuning a l'avantage considérable de nécessiter beaucoup moins de données d'entrée et de ressources (temps, puissance de calcul, mémoire vive) que la construction d'un modèle AI entraîné. |
| Étages | En ce qui concerne les réseaux de neurones artificiels (voir KNN): Les couches d'un réseau neuronal sont la couche d'entrée, la couche de sortie ainsi que les couches cachées entre ces deux couches. |
| Couche d'entrée | La première couche d'un réseau neuronal artificiel (voir KNN). Les données d'entrée (données de capteurs ou entrées utilisateur) passent par la couche d'entrée dans le KNN. |
| Couche d'émission | La couche finale d'un réseau de neurones artificiel (voir KNN). La couche d'entrée annonce le résultat d'une intelligence artificielle. |
| Les couches cachées | Les couches d'un KNN, qui se trouvent entre la couche d'entrée et la couche de sortie. C'est là que se produit la magie, également appelée intelligence, voir intelligence humaine et intelligenza artificiale. |
| Couches cachées | Voir Couches cachées. |
| Tâche en amont | Tâche pour laquelle un modèle de IA a été pré-entraîné. Voir aussi Tâche Downstream. |
| Downstream Task | Tâche pour laquelle un modèle de IA est préparé à l'aide d'un fine-tuning et qui diffère de la tâche upstream pour laquelle le modèle de IA a été initialement entraîné. |
| PyTorch | Le cadre de référence AI le plus populaire, basé sur le langage de programmation Python. |
| Tensorflow | En plus de PyTorch, un cadre AI bien connu. Originaire de Google. Considéré comme plus complexe que PyTorch. |
| Tenseur | Concept mathématique pour représenter des données. Voir aussi Vector. |
| Déchargement | Décharger des parties d'un modèle de IA (voir Modèle) sur un processeur (au lieu d'une GPU) ou sur le disque dur. Le déchargement résout le problème de mémoire (voir VRAM) pour les grands modèles de IA, mais entraîne des calculs beaucoup plus lents. |
| CUDA | Abréviation pour Architecture Unifiée de Dispositif de Calcul. Architecture logicielle de Nvidia, permettant d'utiliser les cartes graphiques (voir GPU) à des fins de calcul. |
| Nvidia | Sans vouloir faire de la publicité: leader mondial pour les cartes graphiques conçues spécialement pour les calculs d'intelligence artificielle. Voir CUDA. Il n'y a pas d'autre fabricant que je connaisse dont les cartes graphiques soient aussi bien supportées dans de nombreux frameworks d'IA (voir PyTorch). |
| Le code Python n'est pas fourni dans le texte source. Veuillez fournir le code Python que vous souhaitez traduire en français. Je serai alors heureux de l'aider | Langage de programmation préféré pour les applications d'intelligence artificielle. |
| Carte graphique | Abréviation pour Unité de traitement graphique. Une GPU d'une carte graphique performante comme celle de Nvidia contient plusieurs milliers de noyaux. Un noyau peut résoudre une tâche de calcul. Plusieurs noyaux peuvent travailler simultanément. Pour les applications AI, des milliards de calculs peuvent être exécutés sur une GPU (carte graphique) à un facteur beaucoup plus rapide qu'avec une CPu (processeur classique). La carte graphique est utilisée comme esclave de calcul pour les applications AI. Elle ne produit pas d'image ou de texte. |
| CPU | Abréviation pour Unité de traitement central. Le processeur d'un ordinateur. Il possède typiquement 8 à 24 noyaux. Voir aussi GPU. |
| Mémoire de la carte graphique | La mémoire vidéo. À la différence du RAM, il s'agit ici de la mémoire d'une carte graphique (voir GPU). C'est décisif pour l'utilisation des modèles d'intelligence artificielle (voir Modèle). |
| Serveur AI | On appelle ainsi les serveurs qui comportent une carte graphique performante (voir CUDA, GPU et VRAM). |
| Stable Diffusion | Le plus connu et le plus populaire modèle d'intelligence artificielle pour la génération d'images. |
| La base de données LAION | Abréviation pour Intelligence Artificielle à Échelle Large Ouverte. Un association enregistrée en Allemagne. A créé un ensemble de données d'images composé d'environ 6 milliards d'images avec leurs descriptions. Sert de base aux approches Stable Diffusion. |
| Imaginisme | Le cas d'utilisation le plus fréquent: à l'aide d'un prompt, une intelligence artificielle crée un image qui reflète le prompt. Le procédé le mieux connu est Stable Diffusion. Il est également possible de combiner plusieurs images ou de modifier les images d'entrée. |
| Vecteur | Un vecteur est la représentation d'une entrée (= ensemble de données), comme un texte, une image ou un fichier audio. Voir multimodal. Un vecteur se compose de séries numériques et a une dimension qui définit le nombre et l'ordre des nombres. |
| Insérement | La représentation de données quelconques (texte, image, audio, capteur de mouvement, capteur de température, etc.) sous forme d'un vecteur. |
| Multimodal | Grâce à l'approche du Transformer, tout type de données peut être traité de la même manière. Comparez le cerveau humain. Tous les signaux sensoriels (yeux, oreilles, nez, récepteurs cutanés…) sont "naturellement" traités dans notre réseau neuronal d'une manière identique. |
| Intelligence humaine | Fonctionne comme une intelligence artificielle, c'est ma conviction forte. |
| Esprit | L'illusion, que l'esprit humain produit, est mon conviction. |
| Intelligence Artificielle Générale | Abréviation pour Intelligence Artificielle Générale. Analog au humain: Intelligence générale capable de résoudre toutes les tâches possibles. |
| Prompt | Zone de saisie pour texte, afin de donner une instruction à un IA ou poser une question. |
| Jeton | Une unité de données, comme un mot dans un texte. Unité courante pour le calcul des coûts d'utilisation de systèmes AI tels que ChatGPT ou pour la configuration de la longueur maximale de sortie du texte. |
| RNN récurrent à long terme | Abréviation pour Long Short Term Memory. En français: Mémoire à long et court terme. Approche imaginée par l'informatien allemand Jürgen Schmidhuber. LSTMs sont un type de mémoire épisodique. |
| Statistique | Dans les modèles de AI, autant ou aussi peu représentés que chez l'homme (voir intelligence humaine) |
| Apprentissage Profond | S'agissant du fait qu'un KNN a de nombreuses couches cachées, donc il est profond. |
| Autarkes System | Système amical aux données, fonctionnant sur une infrastructure locale et sans connexion à internet. |
| Amical avec les données | Système, qui ne cause pas de problèmes internes liés à la protection des données personnelles, aux informations confidentielles ou aux secrets commerciaux. Au contraire, ce sont les systèmes provenant d'éditeurs américains ou stockant des données sur des serveurs américains (cf. Privacy Shield – Schrems II). |
| Élisa | Programme de psychiatrie conçu dès 1966 par Joseph Weizenbaum. Il feignait d'être intelligent. Au lieu de cela, il communiquait au partenaire humain le sentiment d'intelligence en utilisant des clichés et en renvoyant les entrées Prompt du humain. |
Je peux également vous renvoyer vers le dictionnaire de protection des données allemand-anglais, qui contient les principaux termes relatifs à la RGPD et à la protection des données numériques.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
