Blog Layout

Verdere vormgeving AI ACT

okt. 19, 2023

 

Vormgeving van de AI ACT

 

De EU streeft ernaar om dit jaar nog de finalisering van de AI Act te bewerkstelligen. De initiële voorstellen, onthuld afgelopen zomer, hebben voor ophef gezorgd onder verschillende bedrijven. Met name de indeling van AI-modellen heeft zorgen doen rijzen over mogelijke beperkingen op innovatie. Een nieuw voorstel beoogt AI-oplossingen te categoriseren in drie niveaus, waarbij alle foundational models grondige veiligheidstests dienen te doorstaan.


In augustus hebben we uitvoerig beschreven welke bedenkingen technologiebedrijven hebben geuit met betrekking tot de voorstellen van de AI Act. Uit deze analyse bleek dat de particuliere sector graag wil bijdragen aan het opstellen van voorschriften die de veiligheid van burgers waarborgen en tegelijkertijd ruimte bieden voor innovatie.

De EU staat voor de uitdaging om een balans te vinden die zowel grote technologiebedrijven als kleinere spelers in het veld van kunstmatige intelligentie kan reguleren. Volgens berichtgeving van Bloomberg zijn er nu meer concrete plannen waarin de EU AI-innovaties kan indelen in een van de drie categorieën.


1. Foundation models: transparantie, protocollen, opt-out

Foundation models worden vaak omschreven als AI-modellen die kunnen worden ingezet voor diverse taken, zoals voorgesteld door EU-onderhandelaars. De eisen voor dergelijke basismodellen zijn strikt. Het trainingsproces moet transparant zijn, met onafhankelijke experts die proberen ongewenst gedrag op te sporen. Vervolgens vindt er een evaluatie plaats op basis van gestandaardiseerde protocollen. Bedrijven die gebruikmaken van een bepaald Foundation model zouden, volgens het voorgestelde AI Act, het recht hebben om informatie en tests van het model op te vragen. Daarnaast moeten klanten de mogelijkheid krijgen om zich af te melden, waardoor hun gegevens niet voor verdere training worden gebruikt.

Het is duidelijk gemaakt dat het reguleren van basismodellen op deze manier uitdagend kan zijn, maar het voldoen aan de voorschriften van de AI Act zou haalbaar moeten zijn, hoewel ontwikkelaars van basismodellen nog werk te verrichten hebben.


2. Rekenkracht als meetpunt

Striktere regels zijn in het verschiet voor "zeer capabele" foundation models, gedefinieerd aan de hand van een nader te bepalen criterium voor Floating Operations Per Second (FLOPS). Hier heeft de EU de meeste ruimte voor regulering en is er gelegenheid voor bedrijven om met beleidsmakers te overleggen over best practices en vrijwillige gedragscodes. De EU heeft echter nog steeds moeite om grip te krijgen op de snelle ontwikkelingen in het AI-landschap. Er is ook een voorstel om de potentiële impact van een model te beoordelen op basis van de toepassingen die ervan afhankelijk zijn. Als er aanzienlijke risico's verbonden zijn aan een oplossing, moeten de bijbehorende AI-systemen aan strengere eisen voldoen, met externe experts die potentiële risico's analyseren.

Dit blijft een uitdaging, met name voor open-source oplossingen, aangezien deze als gedecentraliseerde entiteiten moeilijk kunnen voldoen aan strikte voorschriften. De EU zal hierop nog een passend antwoord moeten formuleren, vooral omdat grote technologiebedrijven open-source als een belangrijke speler in het AI-ecosysteem beschouwen.


3. AI-oplossingen op basis van gebruikers

De laatste categorie omvat algemene AI-systemen. Elk systeem dat wordt gebruikt door 10.000 professionele klanten of 45 miljoen eindgebruikers moet verplicht worden onderworpen aan risicoanalyse en methoden voor risicovermindering, inclusief externe beoordelingen.

De genoemde gebruikersaantallen zijn echter niet dwingend, aangezien de EU het recht behoudt om andere systemen aanvullende voorschriften op te leggen.


Het blijkt opnieuw dat er binnen de gelaagde structuur van de AI Act meer ruimte is dan op het eerste gezicht lijkt.

07 apr., 2024
CISM vs CISSP aan welke certificering heb je meer als cyber security consultant?
07 apr., 2024
Cijfers en resultaten uit ISC2 Cybersecurity Workforce Study
07 apr., 2024
Tekort aan cybersecurity professionals is een groot probleem.
12 dec., 2023
EU-verkiezingen lopen gevaar door de opkomst van door AI ondersteunde informatiemanipulatie
26 nov., 2023
Ook gemeentes vallen onder NIS2.
29 okt., 2023
Aan de slag met DORA
29 okt., 2023
This is a subtitle for your new post
19 okt., 2023
NIS2 GO: Cyberus & Chapter8 alliantie.
door Soha Iravany 06 jun., 2023
NIS2: een nieuwe Europese richtlijn voor Netwerk- en Informatiebeveiliging 
door Soha Iravany 29 mei, 2023
A blog of the Hague Security Delta (HSD)
Meer posts
Share by: