De EU staat voor de uitdaging om een balans te vinden die zowel grote technologiebedrijven als kleinere spelers in het veld van kunstmatige intelligentie kan reguleren. Volgens berichtgeving van Bloomberg zijn er nu meer concrete plannen waarin de EU AI-innovaties kan indelen in een van de drie categorieën.
1. Foundation models: transparantie, protocollen, opt-out
Foundation models worden vaak omschreven als AI-modellen die kunnen worden ingezet voor diverse taken, zoals voorgesteld door EU-onderhandelaars. De eisen voor dergelijke basismodellen zijn strikt. Het trainingsproces moet transparant zijn, met onafhankelijke experts die proberen ongewenst gedrag op te sporen. Vervolgens vindt er een evaluatie plaats op basis van gestandaardiseerde protocollen. Bedrijven die gebruikmaken van een bepaald Foundation model zouden, volgens het voorgestelde AI Act, het recht hebben om informatie en tests van het model op te vragen. Daarnaast moeten klanten de mogelijkheid krijgen om zich af te melden, waardoor hun gegevens niet voor verdere training worden gebruikt.
Het is duidelijk gemaakt dat het reguleren van basismodellen op deze manier uitdagend kan zijn, maar het voldoen aan de voorschriften van de AI Act zou haalbaar moeten zijn, hoewel ontwikkelaars van basismodellen nog werk te verrichten hebben.
2. Rekenkracht als meetpunt
Striktere regels zijn in het verschiet voor "zeer capabele" foundation models, gedefinieerd aan de hand van een nader te bepalen criterium voor Floating Operations Per Second (FLOPS). Hier heeft de EU de meeste ruimte voor regulering en is er gelegenheid voor bedrijven om met beleidsmakers te overleggen over best practices en vrijwillige gedragscodes. De EU heeft echter nog steeds moeite om grip te krijgen op de snelle ontwikkelingen in het AI-landschap. Er is ook een voorstel om de potentiële impact van een model te beoordelen op basis van de toepassingen die ervan afhankelijk zijn. Als er aanzienlijke risico's verbonden zijn aan een oplossing, moeten de bijbehorende AI-systemen aan strengere eisen voldoen, met externe experts die potentiële risico's analyseren.
Dit blijft een uitdaging, met name voor open-source oplossingen, aangezien deze als gedecentraliseerde entiteiten moeilijk kunnen voldoen aan strikte voorschriften. De EU zal hierop nog een passend antwoord moeten formuleren, vooral omdat grote technologiebedrijven open-source als een belangrijke speler in het AI-ecosysteem beschouwen.
3. AI-oplossingen op basis van gebruikers
De laatste categorie omvat algemene AI-systemen. Elk systeem dat wordt gebruikt door 10.000 professionele klanten of 45 miljoen eindgebruikers moet verplicht worden onderworpen aan risicoanalyse en methoden voor risicovermindering, inclusief externe beoordelingen.
De genoemde gebruikersaantallen zijn echter niet dwingend, aangezien de EU het recht behoudt om andere systemen aanvullende voorschriften op te leggen.
Het blijkt opnieuw dat er binnen de gelaagde structuur van de AI Act meer ruimte is dan op het eerste gezicht lijkt.