Kunskapen från artificiell intelligens hjälper företag att lösa eller minska säkerhetsproblem. Det gäller både fysisk säkerhet, till exempel på företagsområdet, och teknisk säkerhet, som i företagsnätverk (cybersäkerhet).
Inledning
Hur kan man ett datorprogram få att upptäcka inkräktare som smyger runt på företagsområdet? Kan ett datorprogram identifiera en inkräktare utifrån ljud eller rörelselarm som sensorerna rapporterar?
Jag personligen (langvarig erfarenhet inom utveckling av programvara) skulle i alla fall ha svårt att skriva ett program som kan lösa sådana uppgifter enligt mina specifika, programmerade krav.
För att besvara de frågor som ställts tidigare måste idag bara en fråga besvaras: Kan människor göra detta? Svaret är uppenbart yes. Bevis: Vaktpersonal kan genom att titta på skärmar eller genom att patrullera området tydligt identifiera inkräktare. Vad som fungerar i det verkliga livet gäller också för nätverk, såsom ett företags intranät. Där identifierar säkerhetsexperter om en attack från utsidan (eller ibland även av onda medarbetare) är att anta.
Konstgjord intelligens lär genom exempel. Konkreta uppgifter behöver inte programmeras in. Istället räcker exempel ut.
Hur gör människan det bara? Enklast svar: Med sitt huvud. Fullständigare svar: Ingen vet det. I alla fall lär människan sig genom exempel. I tidiga åldrar presenteras dessa exempel främst av barnets föräldrar. Denna process kallar vi då uppfostran.
Med hjälp av moderna metoder inom artificiell intelligens kan maskiner uppnå samma som människor eller till och med vara bättre. I alla fall är det säkert att en maskin inte mår utmattad, men en människa gör det. Maskiner har också alltid lust att utföra ett uppdrag som är lagt på dem, i motsats till människor. Maskiner är billigare än anställda.
För att få ett kognitivt system som kan lösa en högkomplex uppgift tillfredsställande (eller bra eller mycket bra eller utmärkt) måste man bara mata in en mängd exempel. Precis som med människor. När ett kognitivt system har nått en viss intelligensnivå räcker det med få exempel för nya uppgifter. Precis som med människor.
På grund av typen av nuvarande AI-algoritmer tror jag att de efterliknar hur mänskligt hjärna fungerar. Ingen har kunnat visa mig att min tes är felaktig hittills.
Säkerhetsområdets användningsfall
För att upptäcka intrångare måste signaler klassificeras. Dessa signaler kommer exempelvis från kameror, mikrofoner eller rörelsemottagare.
En klassificering är liktydigt med facklåstänkande. Så kunde personer på arbetsplatsen exempelvis skiljas på följande sätt:
- Inofarande passant eller kund
- Vaktmästare eller trädgårdsmästare
- Intrångare
För att kunna känna igen den som har förklärt sig till en hantverkare, bör även vid erkännande av en person som är handhälska en viss varning ske. Med hjälp av ett Säkerhetsvärde kan man styra om det ska vara en stillsam eller en högljudd varning, och kanske direkt och automatiskt kalla på polisen eller ytterligare vaktpersonal.
Analyseresultat som inträffar under en viss tid kan betraktas i delar för att upptäcka underliggande händelser som är relevant i sin helhet. Så även inkräktare som alltid bara dansar lite ut ur raden av beteende som man skulle tillskriva en oskyldig medborgare.
Det exakt samma förfarande som kan användas för att upptäcka inkräktare på företagsområdet kan också användas för att upptäcka hackare i IT-systemen. Skillnaden ligger här i sensorerna, alltså ingående data. Vad som på företagsområdet är kameran, är till exempel brandväggen i datornätverket.
Overallt där det finns sensorer och andra indata som kan vara fysiska eller softwaretekniska, kan AI-algoritmer användas för säkerhetsändamål. Indata utan sensorik uppstår till exempel i kontaktformulär eller när man kallar på en URL, där hackare gärna lägger till säkerhetskritiska parametrar.
Rekommendationer
Den som vill mata helt obeslagna data till ett tredjepartsystem som ChatGPT kan gärna göra det. Men ofta är datan personbehandling, eller det handlar om affärssekretess. Ibland är datan inte särskilt kritisk, men den bör ändå inte hamna i händerna på tredje part av konkurrensnykterhetsskäl.
Ett system som ChatGPT är dessutom ( mycket ) långsamt och kostnadsamt. Snart kommer även vid medelmåttig intensiv användning flera hundra eller tusen euro per månad i kostnader bara för att använda OpenAIs gränssnitt.
Bättre är lokala system, alltså kI-system, som körs på egna datorer. Server eller leverantörer som är baserade i USA har generellt ett problem med dataskydd (Stichwort: Privacy Shield – Schrems II). Dessa dataskyddsproblem försvinner med lokala system. Även affärshemligheter vill nog varje rimligt tänkande människa hellre lägga i sitt eget system, än att sprida ut dem på stora skala över hela världen.
Redan med liten ansträngning kan högkvalitativa kognitiva system byggas upp. Kontakta mig om ni behöver.
Bildet till detta inlägg skapades inte bara med hjälp av en lokal på min dator körande AI. Det skapades sedan också nästan utan förlust genom att den lokala AI:n höjdes upp till större bildstorlekar (detta gör jag bland annat när artiklar trycks på papper). Denna typ av bildhöjning kan man också använda sig av vid bilder från övervakningskameror.
Min artikel har publicerats i Säkerhetsrådgivare och ovanstående i andra ord sammanfattas här.



My name is Klaus Meffert. I have a doctorate in computer science and have been working professionally and practically with information technology for over 30 years. I also work as an expert in IT & data protection. I achieve my results by looking at technology and law. This seems absolutely essential to me when it comes to digital data protection. My company, IT Logic GmbH, also offers consulting and development of optimized and secure AI solutions.
