Możliwości sztucznej inteligencji pomagają firmom w rozwiązywaniu lub złagodzeniu problemów z bezpieczeństwem. Mowa jest zarówno o fizycznej, jak i technicznej bezpieczeństwie, np. na terenie zakładu, jak również w sieciach firmowych (bezpieczeństwo cybernetyczne).
Wprowadzenie
Jak można nauczyć komputerowy program, by rozpoznawał włamywaczy, którzy krążą po terenie firmy? Czy komputerowy program może rozpoznać włamywacza na podstawie dźwięków lub alarmów ruchu, które są zgłaszane przez czujniki?
Osobiście (długoletnia praktyka w programowaniu) mi przy tym bardzo by się trudno, aby napisanie programu, który może rozwiązać takie zadania według moich konkretnych, zaprogramowanych wymagań.
Aby odpowiedzieć na powyższe pytania, dzisiaj wystarczy tylko jedno: Czy człowiek może to zrobić? Odpowiedź jest oczywista: Tak. Dowód: Osoba do wczesnego ostrzegania może łatwo rozpoznać intruzów poprzez oglądanie monitorów lub patrząc po terenie. Co działa w rzeczywistości, to również odnosi się do sieci, takich jak Intranet firmy. Tam specjaliści ds. bezpieczeństwa rozpoznają, czy atak z zewnątrz (lub czasem przez złych pracowników) jest możliwy do założenia.
Sztuczna inteligencja uczy się przez przykłady. Konkretna instrukcja nie musi być wpisana. Zamiast tego wystarczą przykłady.
Jak człowiek to robi? Najprostsza odpowiedź: za pomocą swojego Głównego Mózgu. Pełniejsza odpowiedź: nikt nie wie. W każdym razie, ludzie uczą się na podstawie Przykładów. Wczesne lata życia to szczególnie te przykłady, które przedstawiane są przez rodziców dziecka. Ten proces nazywamy Wychowaniem.
Z pomocą nowoczesnych metod sztucznej inteligencji maszyny mogą wykonywać to samo, co ludzie, a nawet lepiej. W każdym razie wiadomo, że maszyna nie męczy się, ale człowiek już tak. Maszyny również zawsze są gotowe do wykonania zadanej im pracy, w przeciwieństwie do ludzi. Maszyny są tańsze niż pracownicy.
Aby otrzymać system AI, który zadowalająco (lub dobrze lub bardzo dobrze lub wybitnie) rozwiązuje skomplikowaną sprawę, wystarczy więc tylko podać dużą ilość przykładów. Tak samo jak u ludzi. Gdy system AI osiągnie pewien poziom inteligencji, dla nowych zadań wystarczą już tylko nieliczne przykłady. Tak samo jak u ludzi.
Z powodu natury obecnych algorytmów sztucznej inteligencji uważam, że one imitują sposób działania ludzkiego mózgu. Do tej pory nikt nie mógł mi pokazać, że moja teoria jest błędna.
Przypisy w dziedzinie bezpieczeństwa
Aby rozpoznać włamywacza, należy sklasyfikować sygnały. Te sygnały pochodzą np. od kamer, mikrofonów lub alarmów ruchu.
Klasyfikacja jest równoznaczna z myśleniem w kategoriach. Tak więc osoby na terenie zakładu mogłyby być następująco podzielone:
- Bezpieczny przechodzień lub klient
- Sprzątacz lub murzyn
- Przestępcy
Aby rozpoznać jako rzemieślnika ubranego złodzieja, powinno również w przypadku rozpoznania osoby jako rzemieślnika nastąpić określona alarmacja. Z pomocą Oczekiwany wynik pozytywny można sterować, czy dźwięk alarmowy będzie cichy lub głośny, ewentualnie pod bezpośrednim i automatycznym wezwaniem policji lub innych osób strażowych.
Wyniki analizy, które pojawiają się w określonym czasie, można rozważać w częściach, aby zidentyfikować niewidoczne wydarzenia, które jednak są istotne. Także złodzieje mogą zostać uznani za takich, którzy stale tylko trochę odchodzą od linii zachowania, które można przypisać niegroźnemu współczesnicy.
Ten sam dokładny procedurę, która może być użyta do rozpoznania włamywaczy na terenie zakładu, można również wykorzystać do rozpoznawania hackerów w systemach informatycznych. Różnica polega tu na czujnikach, czyli danych wejściowych. Co na terenie zakładu jest kamerą, to np. w sieci komputerowej jest Filtraż ognia.
Wszędzie tam, gdzie istnieją czujniki i inne dane wejściowe, fizyczne lub techniczne, można zastosować algorytmy AI dla celów bezpieczeństwa. Dane wejściowe bez czujników pojawiają się np. w formularzach kontaktowych, czy też przy wywołaniu adresu URL, do którego hackerzy chętnie dodają krytyczne parametry bezpieczeństwa.
Zalecenia
Ktoś, kto chce wstawić całkowicie nieprzydatne dane do systemu trzeciego jak ChatGPT, może to zrobić. Często jednak dane są osobowe lub dotyczą tajemnic biznesowych. W niektórych przypadkach dane nie są zbyt ważne, ale powinny być chronione z racji konkurencji.
System tak jak ChatGPT jest ponadto (bardzo) wolny i opłacalny. Szybko okazują się koszty nawet przy średniej intensywności użytkowania, wynoszące setki lub tysiące euro miesięcznie tylko za dostęp do interfejsu OpenAI.
Lepsze są lokalne systemy, czyli systemy AI, które działają na własnych komputerach. Serwery lub dostawcy zlokalizowani w USA mają ogólnie problem z ochroną danych (słowo klucz: Privacy Shield – Schrems II). Te problemy z ochroną danych znikały same z lokalnymi systemami. Również tajemnice biznesowe każdy rozsądnie myślący człowiek raczej wpuszcza do własnego systemu, niż rozprasza je na szeroką skalę w historii świata.
Już z małym wysiłkiem można stworzyć systemy AI wysokiej jakości. Jeśli potrzebujesz mnie, proszę o kontakt.
Obraz do tego wpisu nie został stworzony jedynie przy pomocy lokalnie działającej na moim systemie AI, ale również został następnie w sposób prawie bezstratny powiększony na większe rozmiary (czynię to m.in. gdy artykuły są drukowane na papierze). Ta metoda powiększania obrazów może być również wykorzystana przy zdjęciach z kamer monitorujących.
Moje zdanie ukazało się w Sicherheits-Berater i zostało tam powyżej przedstawione w innych słowach na krótko.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
