Skip to main content

blog

AI: Cruciaal Moment in de Geschiedenis of een Hype?

| Author: NCSC

In de afgelopen maanden is er door de media veel aandacht besteed aan de release en de ontwikkeling van ChatGPT. Deze kunstmatige intelligentie, in de vorm van een Large Language Model (LLM), voert met ogenschijnlijk gemak menselijke taken uit. Denk aan de spraakmakende demo’s, waarin een foto ter plekke wordt omgezet in code voor een werkende website, het samenvatten van complexe teksten of het deduceren van een complex pakket aan taken naar een overzichtelijk actielijst. Je kan ermee praten, zoals met een “echt” mens.

Gaat deze nieuwe technologie de geschiedenis in als een cruciale stap in de menselijke ontwikkeling, zoals ook de uitvinding van de drukpers, de stoommachine en het internet? Of is het een interessante, maar relatief onbelangrijke technische gadget, met enig praktisch nut?

De cruciale stap: Artifical General Intelligence

Tot voor kort was Artificial Intelligence (AI) vooral breed beschikbaar in zogenaamde narrow AI vorm. Deze toepassingen zijn zeer taakspecifiek en inmiddels volledig doorgedrongen in de haarvaten van veelgebruikte technologische oplossingen. Denk bijvoorbeeld aan gezichtsherkenning op mobiele devices of nummerplaatherkenning op camerabeelden. Dit zijn vormen waarvoor een computer specifiek wordt getraind, bijvoorbeeld door een patroon te leren uit een zeer grote hoeveelheid afbeeldingen van gezichten of nummerplaten.

Een LLM leert op een vergelijkbare manier, door zeer grote hoeveelheden tekst te analyseren. Hierdoor kan een LLM leren te voorspellen wat het meest waarschijnlijke woord is dat zal volgen in een zinsconstructie, of wat de meest voor de hand liggende reactie is op een vraag. Het trainingsmateriaal voor de meest recente LLM’s, zoals GPT-4 van OpenAI, omvat nagenoeg alle tekst die openbaar beschikbaar is.

De manier waarop het brede publiek momenteel met LLM’s in aanraking komt is via het bekende chatvenster, waar enkelvoudige vragen kunnen worden gesteld waar direct een reactie op wordt geformuleerd. Een belangrijke ontwikkeling is een multi-agent structuur. Daarin wordt een veelvoud van dergelijke chatvensters aangestuurd door één centrale robot die in staat is om alle in- en output te coördineren.

Deze orchestration is een van de meest krachtige ontwikkelingen, parallel aan de sterke kwaliteitsverbeteringen in de LLM’s zelf. Het lijkt veel op hoe een mens een complexe vraagstelling zou benaderen om tot een concreet actieplan te komen. De multi-agent methode kan worden gebruikt om vanuit een relatief abstracte vraagstelling te komen tot een gerichte aanpak. De eerste stap is probleemdefinitie, dus het stellen van deelvragen, vervolgens het oplossen en beantwoorden daarvan en daarna het samenvoegen van alle informatie tot een coherent antwoord of een actieplan. Het actieplan kan vervolgens weer verder worden ingevuld, en kan leiden tot concrete, uitvoerbare taken. LLM’s hergebruiken hiervoor de kennis die de mensheid heeft opgeschreven als trainingsmateriaal en voorbeeld.

Een chatbot op zichzelf, zoals bekend van ChatGPT, zou je als één van de narrow AI vormen kunnen zien – het hersendeel wat verantwoordelijk is voor spraak. Die kan op zijn beurt ook worden georchesteerd in samenwerking met de eerdergenoemde narrow AI’s zoals beeldherkenning. In die zin kunnen LLM’s worden gezien als dé vorm van AI die overkoepelend en autonoom alle vormen van AI kan verbinden. Daarmee kan, net zoals bij de prefrontale cortex van het menselijke brein, een generieke coördinator ontstaan met die strategieën en plannen kan ontwerpen en deeltaken kan coördineren. Is hier dan sprake is van Artificial General Intelligence (AGI) – een generieke intelligentie die zich kan meten aan dat van de mens? Dat geautomatiseerde systemen inmiddels beschikken over geavanceerde autonome analyse- en plan-capaciteiten, die de mens in allerlei vormen overtreffen en inhalen, staat in ieder geval vast.  

De meeste LLM’s die voor het bredere commercieel beschikbaar zijn, zijn uitgewerkte en verfijnde versies, getraind op informatie tot en met september 2021. Daarnaast is door OpenAI, het bedrijf achter ChatGPT, veel geïnvesteerd in het opschonen c.q. censureren van het model, om te voorkomen dat het voor kwaadaardige doelen wordt ingezet of maatschappelijk onacceptabele resultaten geeft. Deze publieke versies zijn al een langere tijd in ontwikkeling, waarbij het publiek-klaar maken een tijdrovende stap in de productvolwassenheid lijkt. Dit is dus zeker niet de laatste stand van de techniek – achter de schermen wordt door duizenden partijen gewerkt aan meer geavanceerde versies dan waar het brede publiek momenteel toegang toe heeft.

In de tussentijd gaan de ontwikkelingen achter de schermen in onverminderd tempo verder. We moeten ervan uit gaan dat de versies die het bredere publiek kan zien, mogelijk niet noodzakelijk de laatste versies zijn waar geopolitieke mogendheden wellicht over beschikken. Hierin schuilen ook belangrijke risico’s: statelijke actoren die in theorie over sterk ontwikkelde, ongecensureerde LLM’s beschikken, met zelfstandige kenmerken mogelijk gemaakt door orchestration. Zij zouden deze kunnen aanwenden in hun eigen geopolitieke belang. Bijvoorbeeld voor het opzetten van complexe cyberaanvallen, het schrijven van exploit-code voor nog onbekende beveiligingsproblemen of het à la minute omzetten van gepubliceerde kwetsbaarheden naar potente exploit-software. Zowel in de plannings- als uitvoeringsfase kan alles worden geautomatiseerd – de computer kan een eigen plan trekken en hiernaar handelen. Een autonome cyberaanval, gebruik makend van de modernste aanvalstechnieken, behoort tot de mogelijkheden. Het verkrijgen van deze zeer geavanceerde, weaponized LLM’s, is een nationale race die kan worden vergeleken met de race naar quantum computing, waarin Europa momenteel niet of slechts zeer beperkt in participeert.

In het verweer tegen deze risico’s zitten juist ook kansen van AI. Voor de meeste genoemde risico’s kan AI worden aangewend om te interveniëren voordat een menselijke operator dat vanuit bijvoorbeeld een SOC hoeft te doen. Verder zijn er al veel narrow AI vormen in gebruik, om met behulp van patroonherkenning onbekende malware of kwaadaardig netwerkverkeer te herkennen. Het is echter van groot belang dat alle team Blue leden zich bewust worden van de versnellende trend in AI en de mogelijkheden en bedreigingen die dat met zich meebrengt. De top van organisaties moet zich ook van deze risico’s bewust zijn – risico’s kunnen week-op-week ontstaan en moeten ook in deze cadans worden beoordeeld.

AI ontwikkeling is CRUCIAAL

Of AI uiteindelijk als cruciale stap in de menselijke ontwikkeling wordt gedefinieerd zal achteraf blijken, als onderdeel van de geschiedenis. Momenteel is de snelle ontwikkeling van AI te urgent om niet naar te handelen. De kracht van AI neemt zodanig toe dat AI een disruptor kan vormen voor bepaalde bedrijfsmodellen of zelfs hele sectoren. Een grote aandacht voor het onderwerp, door zowel cybersecurity-experts als de business en de bestuurders, is daarom van essentieel belang. Er zijn te veel unknown unknowns om achterover te leunen en af te wachten wat AI gaat brengen – de ontwikkelingen moeten op de voet worden gevolgd en de impact moet doorlopend worden bepaald.

Er is vanuit Europa een AI Act in ontwikkeling. Deze wetgeving beslaat een aantal risico’s, maar is vooral productgericht. Daarmee beslaat het niet het volledige spectrum waar in deze blog een voorschot op is genomen.

In de komende periode zal het NCSC een aantal publicaties uitbrengen om het onderwerp Artifical General Intelligence verder uit te diepen, op zowel de bestuurlijke en organisatorische risico’s als de technische cybersecurity-uitdagingen en het beheer en gebruik van LLM’s.