Kunstig intelligens muligheder hjælper virksomheder med at løse eller mindske sikkerhedspolitiske problemer. Her er både fysiske sikkerhed, såsom på virksomhedens område, samt tekniske sikkerhed, som i virksomhedernes netværk (cybersikkerhed). Uddrag fra min artikel, der blev publiceret i magasinet Sikkerhedsrådgiver.
Indledning
Hvordan får man et Computerprogram til at kunne genkende indbrudere, der sniger sig rundt på firmaets område? Kan et Computerprogram genkende en indbruder ved hjælp af lyde eller bevægelsesalarmer, som sensoren meldte?
Personligt (langvarig erfaring i softwareudvikling) ville jeg i hvert fald meget svært have det at skrive et program, som kunne løse sådanne opgaver efter mine konkrete, programmerede anvisninger.
For at besvare ovenstående spørgsmål skal i dag kun følgende spørgsmål besvaret blive: Kan en mand gøre dette? Svaret er åbenbart: Yes. Bevis: Vagtpersonalet kan ved hjælp af monitorer eller ved at patrulere på området tydeligt identificere indbrudere. Hvor det i virkeligheden fungerer, gælder også for netværk, som et selskabs intranet. Der er her security-specialister, der kan afgøre, om en angreb fra udenfor (eller sjældent også af onde medarbejdere) skal antages.
Kunstig intelligens lærer ved eksempler. Konkrete opgaver behøver ikke at være programmeret. I stedet er eksempler nok.
Hvordan gør mennesket det bare? En enkel forklaring: Med sit hjerne. Den fuldstændige forklaring: Ingen ved det. I hvert fald lærer mennesket efter eksempler. I tidlige livsår præsenteres disse eksempler især af barnets forældre. Vi kender denne proces som opdragelse.
Med hjælp af moderne metoder for kunstig intelligens kan maskiner gøre det samme som mennesker, eller endda bedre. I hvert fald er der ingen tvivl om, at en maskine ikke bliver træt, mens et menneske allerede begynder at blive træt. Maskiner har også altid lyst til at udføre en opgave, som de er blevet bedt om, i modsætning til mennesker. Maskiner er også billigere end medarbejdere.
For at få et AI-system, der kan løse en meget kompleks opgave tilfredsstillende (eller godt eller meget godt eller fremragende), skal man blot indsætte en masse eksempler. Lige så meget som mennesker. Når et AI-system har nået en bestemt intelligens niveau, er der kun få eksempler nødvendige til nye opgaver. Lige så meget som mennesker.
Fordi arten af nuværende AI-algoritmer, synes jeg, at de efterligner funktioneringen af det menneskelige hjerne. Så længe har ingen kunnet vise mig, at min teori er forkert.
Sikkerhedsområder
For at kunne genkende indbrudere, skal signaler klassificeres. Disse signaler kommer f.eks. fra kameraer, mikrofoner eller bevægelsesmeldinger.
En klassifikation er det samme som Skubloddenkning. Så kunne personer på virksomhedens område således forskelliges:
- Insignifikant passant eller kunde
- Boligbestyrer eller husejer
- Brottyve
For at kunne genkende den som snedker klædt udvindende tyv, bør også ved en tilsnedker anerkendt person en bestemt alarmering finde sted. Med hjælp af et Tillidsværdi kan styres, om en stille eller en larmende alarm er påkrævet, muligvis under direkte og automatisk henvysning til politiet eller yderligere vagtpersonale.
Analyseergebnisse, der falder til i en bestemt periode, kan betragtes afsnitvis for at opdage underliggende begivenheder, som selv om de ikke er af større betydning, samlet set er relevante. Således kan også indbrudere genkendes, der hver gang kun lidt ud fra den almindelige adfærd danser, hvilket man kunne tilskrive en uskyldig medlem af samfundet.
Det præcise samme fremgangsmåde, der kan bruges til at identificere indbrudere på virksomhedens område, kan også bruges til at identificere hackere i IT-systemer. Den største forskel ligger her i sensoren, altså indgangsdata. Det, som på virksomhedens område er kameraen, er f.eks. firewall'en i computersystemet.
Overalt, hvor der således findes sensorer og andre indgangsdata, fysiske eller software-tekniske, kan AI-algoritmer til sikkerhedsformål anvendes. Indgangsdata uden sensorik optræder fx i kontaktformer, eller også ved at kalde på en URL, der hacker gerne tilføjer sikkerhedskritiske parametre.
Anbefalinger
Hvis man ønsker at indtaste helt uvidenskabelige data i et tredjesystem som ChatGPT, kan man gerne gøre det. Ofte er data dog personbevaegt eller omhandler blot forretningshemmeligheder. Nogle gange er data ikke af højeste kritik, men skal alligevel ikke falde i forkert hænder på grund af konkurrenceårsager.
Et system som ChatGPT er desuden (very) langsomt og udgiftsværdigt. Hurtigt opstår selv ved middelgradig intensiv brug, omkring hundrede eller tusinde kroner pr. måned i udgifter kun for at bruge OpenAI's interface.
Bedre er lokale systemer, altså kI-systemer, der kører på egne computere. Servere eller leverandører, som er placeret i USA, har generelt et problem med privatlivets fred (Stikord: Privacy Shield – Schrems II). Disse privatlivsproblemer løses sig selv med lokale systemer. Selv forretningssaglige hemmeligheder giver vel hver rimelig tænking menneske hellere ind i sit eget system, end at de spredes ud over hele verden.
Allerede med lidt omhu kan AI-systemer af høj kvalitet opbygges. Taler du gerne med mig, hvis det er nødvendigt.
Billedet til denne artikel blev ikke kun skabt med hjælp af en lokal på min computer kørende AI. Det blev derefter også næsten tabfrit opskaleret til større billedformater (det gør jeg blandt andet, når artikler trykkes på papir). Denne type billedopskalering kan man også bruge ved billeder fra overvågningskameraer.
Mit bidrag er udkommet i Sikkerheds-rådgiver og ovenover i andre ordeligt udtrukket.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
