De EU wil Artificial Intelligence (AI) systemen reguleren middels de EU-AI-Act. De regelgeving richt zich vooral op het versterken van regels rondom datakwaliteit, transparantie, menselijk toezicht en verantwoording. De wetgeving moet begin 2024 van kracht worden. In onderstaand artikel wil ik in het kort de werking uitleggen voor bedrijven en overheden die AI-toepassingen willen ontwikkelen of verkopen.
De primaire verantwoordelijkheid voor een AI-systeem zal worden gedragen door de "aanbieders" van AI-systemen; echter, er zullen echter ook bepaalde verantwoordelijkheden worden toegewezen aan distributeurs en importeurs van AI-halffabricaten (zoals b.v. bij LLM foudation models). Maar ook gebruikers kunnen de werking van AI-toepassingen beïnvloeden door b.v. op social media een specifiek onderwerp te zoeken. Het recommending systeem zal daar automatisch op reageren en dit onderwerp hoog op de tijdlijn van een gebruiker zetten. De AI-Act stelt dat ook in dit geval de aanbieder transparant is over de werking.
Zowel de Europese AI-Act als de AVG (Algemene Verordening Gegevensbescherming) vereisen de uitvoering van een Data Protection Impact Assessment (DPIA), wat aangeeft dat ze overeenkomsten hebben in de manier waarop ze risico's benaderen. In de aanpak van een DPIA kunnen dan ook de krachten gebundeld worden. Dit samenwerkingsverband tussen de twee regelgevingen zorgt voor een robuuster kader voor ethische en verantwoorde ontwikkeling en implementatie van AI-technologieën in Europa.
De opzet van de EU-AI-Act is groot en complex en de totstandkoming is een stevig politiek proces. Top bedrijven zijn bang dat de regelgeving te streng is: https://edition.cnn.com/2023/06/30/tech/eu-companies-risks-ai-law-intl-hnk/index.html. Top wetenschappers zoals Andrew Ng zijn bang dat wetgevers te weinig verstand hebben van AI om goede regelgeving te maken: https://www.deeplearning.ai/the-batch/what-lawmakers-need-to-know-about-ai/. Zeker nu de technische ontwikkelingen zo enorm snel gaan.
Het grootste deel van het werk om een goedkeuring te krijgen, komt terecht bij de ontwikkelaars die hun AI-code moeten documenteren, op een manier die ook nog eens begrijpelijk voor de gebruiker is. Daarom is het belangrijk om als organisatie eerst AI-richtlijnen op te stellen. Ook is het belangrijk voor organisatie om AI niet alleen als bedreiging te benaderen, maar zeker ook als kans en de technische en juridische sandbox te gebruiken: dit is een onderdeel in de Europese AI-Act om innovatie te stimuleren.
AI-Labs biedt expertise en diensten rondom de implementatie van de Europese AI-Act, die zich richt op veilige, eerlijke en transparante AI-systemen. Voor klanten betekent dit ondersteuning bij het ontwikkelen, en implementeren van AI-toepassingen die voldoen aan strenge eisen op het gebied van datakwaliteit, transparantie, menselijk toezicht en verantwoording, waarbij de naleving van de nieuwe regelgeving centraal staat. Onze aanpak kenmerkt zich door een op-maat traject. Hierbij werken we samen met diverse advocaten kantoren die gespecialiseerd zijn op dit onderwerp.