Nieuwe Europese wet voor AI Geeft Risico’s en Regels weer – Dit is wat je moet weten

Jan Jaap Bolkesteijn
| 7 min read

Het grote succes van AI (artificial intelligence) tools, zoals ChatGPT van OpenAI, heeft de Europese regering bewust gemaakt van het gebrek aan wetten en regels in een sector die mogelijk gevaarlijk kan zijn voor gebruikers. Zo hebben regulators binnen de EU nieuwe regels opgesteld voor deze AI tools.

Zo gaf een bericht van Reuters aan dat wetgevers in de EU het niet eens zijn met de verouderde AI wetgeving die jaren geleden is opgesteld.

Deze wetten zijn gemaakt om gebruikers van AI tools te beschermen tegen de mogelijke gevaren van de nieuwe technologie die het afgelopen jaar erg populair is geworden, door onder andere grote investeringen van Meta, Google en Microsoft.

De verouderde wetten van de Europese Commissie horen geldig te zijn voor landen binnen de EU, daarom moeten meerdere mensen uit verschillende EU-landen overleggen voordat de nieuwe wet ingevoerd kan worden.

Wetgevers van de EU Discussiëren over voorgestelde AI ACT, maar tijd dringt

Verschillende wetgevers van de EU keken uit naar de overeenkomst op het wetsontwerp tijdens een bijeenkomst in Strasburg, Frankrijk in februari. Deze bijeenkomst van 5 uur lang leidde tot een doodlopende weg omdat niet iedereen het met elkaar eens was.

De wetgevers verwachten tegen het einde van 2023 een conclusie te kunnen trekken en elkaar de hand te kunnen geven, maar veel mensen trekken deze mogelijkheid in twijfel. Zo zijn er verwachtingen dat deze overeenkomst uitgesteld zal worden naar 2024.

Mensen zijn niet blij met de gedachte achter een vertraging tot 2024 en zeggen dat de verkiezingen zouden moeten zorgen voor nieuwe prioriteiten van de parlementsleden. 

Daniel Leufer, een beleidsanalist, zei dat “de vaart waarmee nieuwe systemen online komen, regulatie lastig maken. Het is een snel doelwit, maar er zijn maatregelen die we nog wel kunnen nemen: transparantie, quality control en basisrechten.”

Tijd dringt voor Wetgevers

Wetgevers van de EU werken in een race tegen de klok aan 3.000 amendementen en voorstellen voor een nieuw AI kantoor voor de AI Act. Volgens Brando Benifei, een Italiaans parlementslid, is het “overleggen van de nieuwe wetgeving erg complex vanwege de betrekking van veel verschillende partijen.”

De taak van Benifei en nog iemand is om het overleg van de AI Act te overzien. De wetgever zegt dat “Het overleg lang duurt”, omdat ze met veel parlementsleden moeten praten, meestal met zo’n 20 leden per keer.

Wetgevers doen hun best om een overeenkomst te krijgen met betrekking tot innovatie en de bescherming van consumenten.

AI tools zijn volgens wetgevers een aparte klasse gebaseerd op risico. Deze verschillende niveaus van risico zijn verdeeld onder weinig tot geen risico, veel risico en onacceptabel veel risico. Tot zover zullen tools met een hoog risico niet worden verbannen, maar van de ontwikkelaars worden wel verwacht dat ze erg transparant zijn over hun zaken.

Ondanks het overleg, is er weinig gepraat over AI tools zoals ChatGPT, die de wereld een aantal maanden geleden overspoelde. Mensen waren erg geïnteresseerd in de tool en nieuwsgierig naar wat het allemaal kan doen.

Een aantal weken na het lanceren van ChatGPT in februari, blijkt dat de tool een grote userbase heeft die dagelijks blijft groeien, al helemaal na de lancering van GTP-4, een gloednieuwe versie van het AI language model.

Wat houdt de AI Act in?

De AI Act is gemaakt om elke AI tool op de markt bij te houden die gebruikt van nieuwe AI technologie. Het zal overzicht bieden over elk systeem die content, voorspellingen, grote besluiten en voorkeuren biedt. 

Naast het overzien van het bestuur van AI door bedrijven, zal de AI Act inzicht bieden in de use cases van AI in handhaving en de publieke sector. De AI Act zal samenwerken met bestaande wetten, zoals onder andere de General Data Protection Regulation (GDPR).

AI tools en systemen die met mensen communiceren, “deepfakes” kunnen maken en toezicht bieden, zullen moeten voldoen aan strenge richtlijnen voor transparantie.

Wat is ‘hoog risico’ volgens Europese Wetgevers?

Sommige AI tools worden gezien als hoog risico, of erg riskant, zoals systemen die hulp bieden in infrastructuur, handhaving, administratie van justitie, onderwijs of veiligheid. Maar omdat ze niet binnen de categorie van ‘onacceptabel risico’ vallen, zullen deze niet worden verbannen, maar moeten ze wel transparant zijn.

Mensen en bedrijven die deze riskante AI tools gebruiken worden mogelijk gecontroleerd, dienen hun activiteiten bij te houden en toegang bieden tot bepaalde gegevens. Dit zou voor bedrijven extra geld kunne kosten om deze wetten na te leven.

Welke AI Tools dienen als General Purpose AI Systeem?

Een General Purpose AI Systeem is een categorie waar AI tools met meerdere functies onder vallen, ChatGPT van OpenAI is hier een voorbeeld van.

Wetgevers van de EU zijn nog steeds aan het overleggen over of een General Purpose AI moet worden gezien als riskant. In dat geval zou het nog onbekend zijn wat de invloed hiervan zou zijn op bedrijven die gebruik willen maken van AI. De AI Act brengt de verplichtingen van AI ontwikkelaars niet duidelijk in kaart.

Vertegenwoordigers van deze categorie AI tools zijn het niet eens met de AI Act en zeggen dat de wetgevers hun eigen regels en richtlijnen moeten vertrouwen, die volgens de vertegenwoordigers, veilig en robuust zijn.

De bedrijven pleiten voor een opt-in clausule, die de keuze bij de bedrijven zelf legt, zo kunnen zij zelf kiezen of ze gebruik willen maken van deze regulaties.

Wat als een AI bedrijf tegen de wet ingaat?

In het geval dat een bedrijf de wetten overtreed, zal het bedrijf een boete krijgen van 30 miljoen euro of 6% van zijn winst, het hoogste van de twee.

Voor bedrijven in de tech sector, zoals Microsoft, zou het betekenen dat het een boete zou krijgen van zo’n 10 miljard euro boor het overtreden van de wet. Daarom proberen deze bedrijven een middenweg te vinden, omdat ze al veel hebben geïnvesteerd in nieuwe AI technologie en producten.

Ze doen hun best om door te kunnen blijven gaan met innoveren, zonder dat hun tools beschouwd worden als riskant, waardoor ze nog meer kosten zouden maken en energie moeten steken in overzicht houden.

Volgens een enquête van appliedAI, voorspelt de helft van de deelnemers dat de AI Act de voortgang binnen de AI sector stevig zal afremmen.

Zouden AI bedrijven mee moeten doen met het opstellen van wetten?

Volgens een DeepMind, een AI bedrijf van Google met zijn eigen AI chatbot, Sparrow, zijn regels voor AI erg complex en zou er een systeem moeten komen waarmee alle partijen betrokken raken.

“Wij geloven dat het maken van een kader rondom General Purpose AI een betrokken proces moet zijn, wat betekent dat de betrokken partijen ook mee moeten worden genomen in het proces.” Dit zei Alexandra Belias, het hoofd van internationaal beleid van DeepMind.

Ze voegde toe dat “dit het beste moment is om een kader op te stellen die met de tijd mee kan gaan en voor een lange tijd zal werken”.

Het bekende muziek streaming platform, Spotify, heeft laatst een “AI dj” gelanceerd, die persoonlijke afspeellijsten kan opstellen voor gebruikers. De directeur van Spotify, Daniel Ek, gelooft dat AI zijn voordelen en nadelen heeft, maar met samenwerking van regulators het een veilige sector kan zijn die mensen helpt.

“Er zijn veel punten om rekening mee te houden. Ons team werkt er hard aan om met regulators te zorgen dat de technologie zoveel mogelijk mensen helpt op een veilige manier”, zei de directeur van Spotify.

Europese wetgevers vertelden aan deelnemers in de AI sector dat ondanks AI momenteel erg populair is, het regelmatig zou moeten worden gecontroleerd en bijgewerkt wanneer er nieuwe problemen en bugs naar boven komen.

Leufer zegt dat “Overleg met geduld moet worden genomen en dat er dit jaar geen conclusie moet worden getrokken als er nog geen overeenkomst is.”

De wetgevers binnen de EU zullen voorlopig met spoed proberen om nieuwe voorstellen te maken voordat de Europese verkiezingen van 2024 voor de deur staan.

Maak winst met het Nieuwe Vote-to-Earn Platform van Love Hate Inu

Love Hate Inu is een gloednieuw Vote-to-Earn project waar gebruikers kunnen stemmen op polls en daarmee geld verdienen met crypto. Met de presale van zijn LHINU token, heeft het project al ruim $1,48 miljoen opgehaald in iets meer dan 2 weken tijd.

Met het platform van Love Hate Inu kun je, door LHINU tokens te staken, stemmen op polls en deelnemen aan enquêtes. Doordat jouw stem wordt verwerkt via de blockchain, zijn alle stemmen transparant en kan er niet gespamd worden.

De LHINU token verwacht viraal te gaan en een soortgelijke stijging van waarde te ondergaan als de bekende meme coins, Dogecoin en Shiba Inu. Door gebruik te maken van een leuke illustratiestijl die erg deelbaar is via social media en de unieke utility die het platform biedt, kan Love Hate Inu een groot succes worden.

Lees ook: