Lista często używanych słów związanych z systemami sztucznej inteligencji.
Słowa drukowane czarnym kolorem są odniesieniami do innych słów, które również zostały wyjaśnione w słowniku AI.
Więcej informacji o AI można znaleźć w artykułach na stronie Dr. RODO:
Słownik ważnych pojęć z dziedziny AI
| Pojęcie | Wyjaśnienie |
|---|---|
| Inteligencja sztuczna | Również skrótowo AI. AI to rozwój komputerów i oprogramowania, które posiada zdolności podobne do ludzkich, takie jak np. uczenie się, rozwiązywanie problemów, zrozumienie języka i jego generowanie, percepcja sensoryczna, kontrola działań i samodzielna podejmowanie decyzji. |
| Model | Model AI jest elektronicznym mózgiem. Tak samo jak w mózgu biologicznym składa się z sieci neuronalnej (patrz KNN). |
| Model LLM | Skrócony zapis od Large Language Model. Model, który został wychowany na dużym zbiorze dokumentów tekstowych, aby dobrze opisać gramatykę jednej lub więcej języków. |
| Foundation Model | W modelu podstawowym, który został wytrenowany i może być dostosowywany do konkretnych zadań lub dziedzin poprzez Fine-Tuning, często udostępniany jest na użytek komercyjny. |
| K-środkowy sąsiad | Skrót od neuronów sztucznych. Elektroniczne odwzorowanie biologicznego wzorca. Podstawa dla modeli AI (patrz model). |
| Transformator | Kluczowy matematyczny podejście, które pozwoliło na powstanie skutecznych aplikacji AI takich jak ChatGPT i jest odpowiedzialne za sukces obecnej AI. Istnieje od 2017 roku. Wersja wstępna została opracowana przez Jürgena Schmidhubera na początku lat 90-tych. Składa się z struktury Encoder-Decoder, w której wejście jest kodowane do cech, które następnie są przekształcane przez dekoder w wyjście. Zobacz również Embeddings. |
| Rozmiar modelu | Wielkość modelu AI (patrz model) jest podawana w skrócie jako liczba parametrów (patrz parametry). Małe modele mają tylko kilkaset milionów parametrów. Model 200M ma 200 mln parametrów. Większe modely mają 13B lub 60B parametrów. "B" oznacza miliardę (ang. billion). |
| Parametr | Jako parametry są uznawane wagi w sieci neuronowej sztucznej (patrz KNN). Waga określa siłę połączenia między dwoma neurony. |
| ChatGPT | ChatBot oparty na architekturze GPT (patrz GPT). Posiada również interfejs programowy (API). Ma około 160B parametrów (porównaj rozmiar modelu). Jest problematyczny pod kątem ochrony danych osobowych, tajemnic biznesowych i poufnych dokumentów. |
| GPT | Skrót odnosi się do Generative Pretrained Transformer. Zobacz Generatywny, Wznowiony i Transformer. |
| Generatywny | Umiejętność stworzenia lub wytworzenia czegoś nowego. Część skrótu GPT, który również jest w ChatGPT. |
| Uczeń wiatru | Wydrukowany. Model wydrukowany jest model nauczony. Jest on nauczany. Zamiast nauczany używa się terminu wydrukowany. Tło to, że model już nauczony może być dalej nauczany, co nazywane jest fine-tuning. |
| Dokonywanie drobnych modyfikacji | Model wytrenowany do określonej czynności (patrz Wytrenowany) może być dalej "wytrenowywany" na potrzeby konkretnych zadań (patrz Downstream). Ten proces nazywa się Fine-Tuning. Fine-Tuning ma duży plus, ponieważ wymaga znacznie mniej danych wejściowych i zasobów (czasu, mocy obliczeniowej, pamięci RAM) niż budowanie modelu AI wytrenowanego od zera. |
| Warstwy | Odwołuje się do sieci neuronowych sztucznych (patrz KNN): Warstwy w sieci neuronowej są warstwą wejściową, wyjściową oraz warstwami ukrytymi pomiędzy tymi dwoma warstwami. |
| Warstwa wejściowa | Pierwsza warstwa sztucznego sieci neuronowej (patrz KNN). Dane wejściowe (dane z czujników lub wprowadzane przez użytkownika) docierają do KNN poprzez warstwę wejściową. |
| Warstwa wyjściowa | Ostatnia warstwa sztucznego układu neuronowego (patrz KNN). Warstwa wyjściowa ogłasza wynik AI. |
| Warstwy ukryte | Warstwy jednego KNN, pomiędzy Schichtą wejściową i Schichtą wyjściową. Tutaj odbywa się magia, również nazywana inteligencją. Zobacz menschliche Intelligenz i AI. |
| Warstwy ukryte | Zobacz Skryte warstwy. |
| Zadanie wsteczne | Zadanie, dla którego zostało wytrenowane modelu AI. Zobacz również Downstream Task. |
| Downstream Task | Zadanie, dla którego model AI został przygotowany za pomocą fine-tuning i które różni się od zadania upstream, dla którego model AI został pierwotnie przeszkolony. |
| PyTorch | Najpopularniejsze framework AI oparte na języku programowania PYTHON. |
| Tensorflow | Obok popularnego frameworku AI, PyTorch, znany z Google. Uważany za bardziej skomplikowany od PyTorch. |
| Tensory | Pojęcie matematyczne służące do reprezentacji danych. Zobacz też wektor. |
| Offloading | Przenoszenie części modelu AI (patrz Model) na procesor (zamiast GPU) lub na dysk twardy. Przenoszenie rozwiązuje problem pamięci (patrz VRAM) przy dużych modelach AI, ale powoduje znacznie wolniejsze obliczenia. |
| CUDA | Skrócony zapis od Compute Unified Device Architecture. Architektura oprogramowania firmy Nvidia, pozwalająca na wykorzystanie kart graficznych (patrz GPU) do obliczeń. |
| Nvidia | Bez chęci na reklamę: Światowy lider w dostarczaniu kart graficznych, które są idealnie przygotowane do obliczeń AI. Zobacz CUDA. Nie ma innego producenta, który swoje karty graficzne tak dobrze wspierałby wiele frameworków AI (patrz PyTorch). |
| Karta graficzna wyświetlająca | Skrócony zapis odnoszący się do jednostki przetwarzającej grafikę. Jedna lepsza karta graficzna, np. od Nvidia, zawiera tysiące rdzeni. Każdy rdzeń może wykonać obliczenia. Wielokrotnie więcej rdzeni mogą działać jednocześnie. Dla zastosowań AI miliardy obliczeń mogą być wykonane na karcie graficznej (GPU) znacznie szybciej niż na CPUnie (zwykłym procesorze). Karta graficzna jest w zastosowaniach AI wykorzystywana jako pomocnik obliczeniowy. Nie wyświetla żadnych obrazów ani tekstu. |
| CPU | Skrócony zapis od Central Processing Unit. Jednostka procesowa komputera, posiadająca typowo 8-24 rdzeni. Zobacz też GPU. |
| Pamięć wideo RAM | Pamięć wideo. W przeciwieństwie do pamięci RAM, tutaj mowa jest o pamięci karty graficznej (patrz GPU). Istotne dla korzystania z modeli AI (patrz model). |
| Serwer AI | Takie są serwery, które zawierają wydajną kartę graficzną (patrz CUDA, GPU i VRAM). |
| Stable Diffusion | Najbardziej znane i popularne model AI do generowania obrazów. |
| LAION | Skrót od Large Scale Artificial Intelligence Open Network. Zarejestrowany w Niemczech związek. Posiada zestaw danych obrazkowych liczący około 6 miliardów zdjęć z opisami. Służy jako podstawa dla podejść Stable Diffusion. |
| Tworzenie wizerunków | Najczęściej stosowanym przypadkiem jest generowanie obrazu przez AI na podstawie promta, który go odzwierciedla. Najbardziej znane zastosowanie to Stable Diffusion. Możliwe jest również łączenie kilku zdjęć lub modyfikacja wejściowych obrazów. |
| Wektor | Wektor jest reprezentacją wejścia (zbioru danych), takiego jak tekst, obraz lub plik audio. Zobacz multimodal. Wektor składa się z ciągów liczb i ma wymiar, który definiuje liczbę i układ liczb. |
| Wprowadzenie | Przedstawienie danych dowolnego rodzaju (tekst, obraz, dźwięk, czujnik ruchu, czujnik temperatury itp.) w postaci wektora. |
| Wielomodalny | Dzięki podejściu Transformer-a każdy rodzaj danych może być traktowany równo. Porównajmy ludzki mózg. Wszystkie dane zmysłowe (oko, ucho, nos, skóra… ) są "naturalnie" w sieci neuronalnej naszego mózgu przetwarzane na tak samo sposób. |
| Ludzka inteligencja | Działa jak Inteligencja sztuczna, jest moją mocną tezą. |
| Duch | Iluzja, która jest produktem ludzkiego mózgu, jest moim przekonaniem. |
| Inteligencja Artystyczna Komputerowa | Skrót od Artificial General Intelligence. Analog do człowieka: Ogólna inteligencja, która może rozwiązać wszystkie możliwe zadania. |
| Prompt | Możliwość wprowadzania tekstu, aby dać komuś instrukcje lub zadać pytanie. |
| Token | Jednostka danych, taką jak słowo w tekście. Powszechnie używana jednostka do obliczania kosztów korzystania z systemów AI, takich jak ChatGPT, lub do konfiguracji maksymalnej długości wyjścia tekstu. |
| RNN z zapamiętywaniem długości sekwencji | Skrót od Long Short Term Memory. W języku polskim: Długotrwałe krótkoterminowe pamięć. Od niemieckiego informatyka Jürgena Schmidhubera pochodzi ten pomysł. LSTM jest rodzajem epizodycznej pamięci. |
| Statistik | W modelach AI tak samo często występuje, jak u ludzi (patrz inteligencja ludzka) |
| Nauka głęboka | Odwołuje się do tego, że jeden KNN ma wiele skrytch warstw, czyli jest głęboki. |
| System autarkiczny | System przyjazny danych, działający na lokalnej infrastrukturze i nie wymagający połączenia z internetem. |
| Przyjazny danych | System, który nie powoduje własnych problemów z ochroną danych osobowych, poufności danych lub tajemnicami biznesowymi. To przeciwność systemów pochodzących od dostawców z USA (porównaj: Privacy Shield – Schrems II). |
| Elżbieta | Program psychologiczny, który został stworzony już w 1966 roku przez Josepha Weizenbauma. Gauklił przed sobą inteligencję. Zamiast tego ludziom udawało się tylko to, że czuli się inteligentnymi, poprzez użycie fraz i odbijanie wprowadzonych przez nich Prompt-wpisów. |
Zdecyduje się również na odniesienie do słownika ochrony danych Deutsch-Englisch, który zawiera najważniejsze pojęcia związane z RODO i ochroną danych cyfrowych.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
