Cyberveiligheid en AI-assistenten: wanneer code code schrijft… met kwetsbaarheden

Ai coding cyber

AI-assistenten stellen nieuwe uitdagingen op het gebied van cyberveiligheid. Het gebruik ervan bij codeontwikkeling kan bedrijven blootstellen aan kritieke risico’s.

AI-aangedreven programmeerassistenten transformeren de softwareontwikkeling. Maar achter de beloften van productiviteit gaan grote beveiligingsrisico’s schuil, die soms worden onderschat door technische teams. In september 2024 publiceerden ANSSI (Frankrijk) en BSI (Duitsland) een gezamenlijk rapport dat als een alarmsignaal fungeert voor ontwikkelaars, CIO’s, CISO’s en legal tech-professionals.

In een wereld waarin AI code schrijft in plaats van mensen, wie controleert de code?


🤖 Reële kansen voor softwareontwikkeling

AI Coding Assistants (Copilot, CodeWhisperer, Tabnine, enz.) bieden al:

  • Automatische generatie van codeblokken,

  • Hulp bij documentatie, testen en vertaling tussen programmeertalen,

  • Verbeterd comfort voor ontwikkelaars, vooral bij repetitieve taken.

Maar deze assistenten, gebaseerd op LLM-modellen, garanderen noch de kwaliteit noch de veiligheid van de gegenereerde code. Is de combinatie van AI-assistenten en cyberveiligheid dus een riskante zaak?


🧨 Kwetsbaarheden vaak onzichtbaar… tot ze worden uitgebuit

Het rapport van ANSSI-BSI identificeert verschillende specifieke bedreigingen:

1. Beveiligingskwetsbaarheden in gegenereerde code

Zelfs wanneer assistenten functionele code produceren, zijn er vaak kritieke kwetsbaarheden aanwezig: SQL-injecties, authenticatiefouten, slechte verwerking van gebruikersinvoer…

🧠 « Door AI gegenereerde code moet standaard als onbetrouwbaar worden beschouwd », benadrukken de agentschappen.

2. Aanvallen op de toeleveringsketen

LLM’s kunnen niet-bestaande bibliotheken of pakketten « hallucineren » die ontwikkelaars zonder verificatie kopiëren. Dit opent de deur voor aanvallen via kwaadaardige pakketten (bijv. « typosquatting »).

3. Lekken van gevoelige gegevens

Prompts kunnen API-sleutels, interne configuraties of persoonsgegevens bevatten. Deze gegevens kunnen worden gebruikt om het model opnieuw te trainen of worden onderschept.

🎯 Het wordt aanbevolen om het gebruik van persoonlijke accounts voor deze AI-assistenten te verbieden in het kader van gevoelige of industriële projecten.

4. Indirecte prompt-injectie

Een besmet bronbestand kan commando’s injecteren in een AI-assistent als deze de code leest. Hierdoor kan een aanvaller de AI zonder medeweten kapen.


✅ Belangrijkste aanbevelingen uit het ANSSI-BSI-rapport

Dit zijn de best practices die door de autoriteiten zijn geïdentificeerd:

Maatregel Doelstelling
🔍 Systematische menselijke controle Geen gegenereerde code mag zonder review worden geïntegreerd.
🛡️ Beveiligingstests versterken (DevSecOps) Productiviteitswinsten moeten worden gecompenseerd door versterkte audits.
☁️ Strikte controle van cloudtools Gebruik bedrijfsaccounts met duidelijk contractueel beleid.
🧼 Prompthygiëne Nooit inloggegevens of vertrouwelijke informatie opnemen.

⚖️ Wat zijn de juridische implicaties?

Bedrijven die deze tools gebruiken, moeten het gebruik ervan integreren in hun risicoanalyse (een verplichting onder de AVG en NIS2), vooral wanneer persoonsgegevens of gevoelige gegevens in het geding zijn.

🔒 Het gebruik van een AI-assistent in een softwareproject wordt een governancebeslissing die moet worden gedocumenteerd in het verwerkingsregister of het beveiligingsbeleid.


📌 Kernpunten

AI-assistenten zijn nuttig… maar niet onschadelijk. Zonder waarborgen kunnen ze beveiligingskwetsbaarheden introduceren, aanvallen vergemakkelijken of complianceovertredingen veroorzaken.

Bedrijven moeten ze behandelen als elk ander gevoelig engineeringinstrument: met procedures, documentatie, tests en menselijke controle.

Bron: https://cyber.gouv.fr/en/actualites/anssi-and-bsi-publish-their-security-recommendations-regarding-ai-programming-assistants

Meer informatie: https://lawgitech.eu/category/intelligence-artificielle/

En savoir plus sur Lawgitech

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture