.



AI bestrijden met AI

Elena Poincet_CEO TEHTRIS-500300

Het aantal bedrijven dat kunstmatige intelligentie (AI) toepast, is volgens Gartner sinds 2015 met meer dan 270% gestegen. Deze technologie biedt mogelijkheden om de huidige uitdagingen voor de economie, maatschappij en veiligheid aan te pakken. Maar het biedt ook mogelijkheden voor cyberaanvallers die het aanvalsoppervlak van hun doelwitten zien toenemen en AI kunnen gebruiken voor kwaadaardige doeleinden. Elon Musk had in 2017 al gewaarschuwd voor de risico's van ongereguleerde AI, die hij een "groot probleem" voor onze samenleving noemde.

AI-aanvallen: wat zijn de risico's?

Hoewel er tot nu toe geen grootschalige op AI gebaseerde aanvallen zijn geweest, zal deze dreiging in de nabije toekomst ongetwijfeld toenemen. Het gebruik van AI zal de snelheid, omvang en complexiteit van aanvallen doen toenemen. AI kan bijvoorbeeld worden gebruikt voor:

  • Social engineering: door data over een doelwit te gebruiken (bijvoorbeeld via sociale netwerken en e-mails) kan AI de identiteit van het doelwit nauwkeurig nabootsen. Gepersonaliseerde spearphishing e-mails met de toon, persoonlijkheid en taalgebruik van het doelwit maken de aanval zeer moeilijk te detecteren.
  • Betere aanvallen: AI-malware kan zich aanpassen aan zijn omgeving, erin opgaan en detectie vermijden. Dit is met name mogelijk door het gedrag van een menselijke gebruiker te imiteren. Na observatie kan het in realtime leren zich op een specifiek eindpunt te richten of besluiten zichzelf te vernietigen of te pauzeren. AI-malware kan ook onopvallend data stelen door zich alleen te richten op informatie van strategisch belang.
  • Manipulatie van AI-systemen: Een aanvaller kan toegang krijgen tot de dataset die wordt gebruikt om het AI-algoritme te "trainen" en deze wijzigen, waardoor de werking ervan in gevaar komt. Als een aanval de binnenkomende data wijzigt, kan dit ook de reactietijd van de AI beïnvloeden. Dit soort aanvallen om het AI-systeem slecht te laten functioneren vormt een ernstig risico, bijvoorbeeld in de context van autonome auto's of industriële apparatuur.

AI in cybersecurity

Cybersecurity-experts worden tegenwoordig geconfronteerd met meerdere uitdagingen: een recordaantal aanvallen, gebrek aan deskundig personeel, cybermoeheid en toenemende complexiteit. Deze gevaarlijke situatie heeft geleid tot het gebruik van AI in cybersecurity die zich kan aanpassen aan AI-aanvallen. Daarbij bieden moderne defensieve AI-oplossingen verschillende voordelen, waaronder:

  • Meer efficiëntie bij het voorkomen dat malware en andere soorten aanvallen een systeem infiltreren. Dit is mogelijk door een 24/7 reactie te bieden zonder menselijke tussenkomst.
  • Detectie van geavanceerde bedreigingen en zelfs voorheen onbekende aanvalspatronen. Bij software die gebouwd is om snel veel bestanden tegelijk te versleutelen, kunnen AI en machine learning systemen bijvoorbeeld verdacht gedrag detecteren. Als de software zichzelf onvindbaar probeert te maken, is dat ook een teken dat de software niet legitiem is.
  • Geautomatiseerde respons, door te leren van elk incident. Hierdoor kunnen veel repetitieve taken worden afgehandeld, zoals het reageren op een groot aantal waarschuwingen voor kleine risico's. En zo kunnen analisten prioriteit geven aan grotere incidenten.

De uitdagingen van het gebruik van AI in cybersecurity

Een belangrijke uitdaging van AI in cybersecurity ligt in het concept explainability. Aangezien de technologie zich voortdurend aanpast en evolueert worden AI-systemen vaak vergeleken met zwarte dozen, omdat het besluitvormingsproces niet transparant is.

Het concept Explainable Artificial Intelligence (XAI) streeft ernaar dit proces transparanter - en dus begrijpelijker - te maken en inzicht te geven in wat tot een AI-beslissing heeft geleid.

Het doel van XAI is dan ook om:

  • Het AI-resultaat duidelijker te maken voor de analist, die daarop kan vertrouwen om de relevantie ervan te beoordelen of de reactie op een bedreiging te verbeteren.
  • Het AI-systeem te verbeteren wanneer de datawetenschapper vooroordelen vaststelt. Het is dan namelijk mogelijk om vast te stellen waar en waarom die vooroordelen zijn opgetreden en er kunnen stappen worden ondernomen om ze te beperken.
  • Aanvallen te detecteren die bedoeld zijn om een AI-systeem te beschadigen. Dit kan door de kwaliteit van de data te controleren.

Een ander belangrijk punt is het ethische aspect van AI. Zowel internationale organisaties als particuliere bedrijven willen het gebruik van deze technologieën reguleren. Zo werkt de Europese Unie momenteel aan richtlijnen om AI te reguleren en Microsoft heeft zijn tweede whitepaper gepubliceerd ten gunste van verantwoorde intelligentie.

Tegelijkertijd betekent het gebrek aan data in de cybersecurity-sector dat AI zich niet volledig kan ontwikkelen. Vooral niet op basis van een stabiele database. Bij cybersecurity moet AI dus worden gebruikt in combinatie met fundamentele cybersecurity-regels en andere tools zoals cryptografie. De strijd tussen AI vs AI zal draaien om de vraag: welke AI beschikt over meer data zodat hij beter kan zijn dan de ander?

 

Éléna Poincet, directeur en oprichtster van TEHTRIS

 

 

Lees ook
Zomercolumn: De AI Code of Conduct van Lenovo - Een Stap naar Verantwoorde Innovatie

Zomercolumn: De AI Code of Conduct van Lenovo - Een Stap naar Verantwoorde Innovatie

In een tijdperk waarin technologie ons leven op ongekende manieren verandert, staat kunstmatige intelligentie (AI) centraal als een van de meest invloedrijke innovaties. AI heeft de kracht om de manier waarop we werken, communiceren en zelfs denken fundamenteel te transformeren.

KnowBe4 benoemt 6 augustus tot Nationale Social Engineering Dag

KnowBe4 benoemt 6 augustus tot Nationale Social Engineering Dag

KnowBe4 neemt het voortouw in het vergroten van cybersecurity bewustzijn door National Social Engineering Day op de Nationale Dag Kalender te zetten

Proofpoint: "Cloudflare-tunnels misbruikt voor afleveren van RAT's"

Proofpoint: "Cloudflare-tunnels misbruikt voor afleveren van RAT's"

Cybersecuritybedrijf Proofpoint volgt een groep cybercriminelen die Cloudflare-tunnels gebruikt voor het afleveren van malware. De criminelen misbruiken de TryCloudflare-functie die het mogelijk maakt om eenmalig zonder een account een tunnel aan te maken. Deze tunnels verlenen op afstand toegang tot gegevens en bronnen die zich niet op het lokale1