Skip to main content

Afgelopen maanden markeerden een mijlpaal en vormden een duidelijke stroomversnelling op weg naar ’s werelds eerste uitgebreide en eenduidige AI-regulering. De Europese Unie wilde al langer artificiële intelligentie reguleren. Het voorstel voor deze AI-verordening (de AI-Act) werd reeds in april 2021 door de Europese Commissie gelanceerd. Op vrijdag 8 december 2023 bereikten de onderhandelaars een voorlopig politiek akkoord met betrekking tot de tekst voor deze nieuwe verordening. De laatste technische details worden uitgewerkt, waardoor het aannemen van de finale tekst steeds dichterbij komt. Begin februari werd de compromistekst goedgekeurd door de verschillende vertegenwoordigers van de lidstaten en op dinsdag 13 februari passeerde de finale tekst de bevoegde commissies van het Europese Parlement. Binnenkort staat de formele goedkeuring in de plenaire zitting van het Europees Parlement op de agenda, evenals de definitieve goedkeuring door de Europese Raad.

De verplichtingen voortvloeiend uit de AI-Act zullen gefaseerd in werking treden, waarbij de eerste verplichtingen al zullen gelden vanaf 6 maanden na inwerkingtreding.

Een nieuw AI-tijdperk komt dus met rasse schreden dichterbij, terwijl AI voor jou als ondernemer vandaag al alomtegenwoordig is. Een goede juridische voorbereiding is dus cruciaal. We blikken alvast even vooruit over wat we mogen verwachten: wat zal de AI-Act ons brengen?

AI?! What’s in the name?

Om het toepassingsgebied af te bakenen voorziet de EU in een internationaal gealigneerde en toekomstbestendige definitie van AI. De AI-Act omschrijft een AI-systeem als a machine-based system designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs. Als voorbeeld van deze output verwijst men naar inhoud, voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de omgeving waarmee wordt geïnterageerd.

De EU gaat nog een stapje verder. In het licht van de ontwikkelingen rond generatieve AI (denk bijvoorbeeld aan ChatGPT) werd het begrip “General Purpose Artificial Intelligence” geïntroduceerd (“GPAI”). GPAI wordt in de AI-Act omschreven als an AI model, including when trained with a large amount of data using self-supervision at scale, that displays significant generality and is capable to competently perform a wide range of distinct tasks regardless of the way the model is placed on the market and that can be integrated into a variety of downstream systems or applications. This does not cover AI models that are used before release on the market for research, development and prototyping activities.

Naast verplichtingen gekoppeld aan risiconiveaus, zoals hieronder omschreven wordt, bevat de AI-Act standaardverplichtingen voor aanbieders van GPAI.

To the EU, and beyond?!

Ook voor internationale partnerschappen en deals is de AI-Act relevant. Samengevat zal de AI-Act immers van toepassing zijn op AI-systemen en GPAIs:

  • die in de EU in de handel werden gebracht of in de EU in gebruik werden gesteld;
  • waarvan de gebruikers zich in de EU bevinden; en
  • die zich in een derde land bevinden, maar waarvan de output van het systeem in de EU wordt gebruikt.

 

Risiconiveaus

De AI-Act zal een risicogebaseerde benadering hanteren. AI-systemen zullen worden ingedeeld in een aantal risicocategorieën. Per categorie gelden specifieke (strengere of minder strenge) regels.

Onaanvaardbare risico’s. Enkele AI-systemen met onaanvaardbare risico’s worden door de AI-Act verboden. Het gaat daarbij o.a. over sommige biometrische categoriseringssystemen, het gebruik van subliminale technieken, het fenomeen “social scoring” in bepaalde contexten, enzovoort.

Hoge risico’s. Sommige AI-systemen worden geclassificeerd als systemen die een hoog risico met zich meedragen. Het is voornamelijk deze categorie die je als ondernemer best goed in de gaten houdt. Deze AI-systemen worden immers toegelaten, maar zijn onderhevig aan specifieke regulering. Enerzijds zijn er voorschriften voor de AI-systemen zélf en anderzijds hebben de aanbieders en andere exploitanten ervan specifieke verplichtingen. Dit heeft tot gevolg dat AI-systemen steeds vaker vergezeld moeten worden van de juiste documentatie.

Specifieke transparantierisico’s. Voor GPAI-modellen en bepaalde AI-systemen met risico’s op manipulatie (bijvoorbeeld omwille van hun interactie met natuurlijke personen), zijn er transparantievoorschriften voorzien. Een voorbeeld hiervan is het bekendmaken dat bepaalde content door AI gegenereerd wordt, met name in het kader van “deep fake”-content. Deze voorschriften lijken minder ingrijpend dan deze voor hoog risico AI-systemen.

Systeemrisico’s. Naast de standaardverplichtingen voor aanbieders van GPAI-modellen, zijn er specifieke verplichtingen wanneer dit GPAI-model een systeemrisico vormt. Zo’n systeemrisico wordt gekenmerkt door de grote gevolgen die het kan hebben voor de interne markt vanwege de reikwijdte van het GPAI-model en door de gevolgen die het eventueel heeft voor de volksgezondheid, openbare veiligheid, grondrechten of voor de samenleving als geheel. Omdat deze gevolgen zich via het GPAI-model op grote schaal in de waardeketen kunnen verspreiden, acht de wetgever het opportuun om bijkomende verplichtingen en waarborgen inzake veiligheid op te leggen.

Minimale risico’s. Wat AI-systemen met minimale risico’s betreft, zou voornamelijk zelfregulering aangemoedigd worden.

 

Start-ups en scale-ups vs. AI-Act: vloek of zegen?

Er bestaat uiteraard bezorgdheid over de administratieve last die de AI-Act voor start-ups en scale-ups vormt, en daar is men zich van bewust. In de AI-Act benadrukt men rekening te zullen houden met de specifieke kenmerken van deze ondernemingen. Een apart hoofdstuk genaamd “maatregelen ter ondersteuning van innovatie” werd daarom ingevoegd. Zo werden er reeds in het aanvankelijke voorstel enkele verplichtingen opgenomen voor de lidstaten ter ondersteuning van start-ups en scale-ups ten opzichte van de grote tech-giganten.

Hoe dit zich exact zal weerspiegelen in de praktijk, blijft nog onduidelijk.

Four & Five kijkt uit naar de goedkeuring van de finale tekst om de concrete invulling van het akkoord met zekerheid te kunnen begrijpen en te kunnen toelichten aan jou als ondernemer. Eén ding is zeker: de technologiesector staat voor ontzettend spannende tijden. Four & Five houdt elke ontwikkeling nauwgezet in de gaten en vergezelt je graag tijdens dit proces naar een nieuw AI-tijdperk!

Heb je vragen bij deze vooruitzichten of bekijk je graag samen met Four & Five wat deze evolutie naar een AI-Act voor jou kan betekenen, aarzel dan niet om ons te contacteren. Onze experten bij Four & Five staan voor jou klaar.