Blog

Proactieve regulering AI?

De ontwikkeling van artificiële intelligentie (AI) is onvermijdelijk, maar wat weten wij eigenlijk écht over de impact ervan? Om daar grip op te houden, is proactieve regulering noodzakelijk.

Tesla-topman Elon Musk waarschuwt voor de gevaren van het gebrek aan regulatie rond artificiële intelligentie (AI). Ondanks het feit dat proactief reguleren innovatie zou kunnen tegenwerken, moet in het geval van AI een uitzondering gemaakt worden, aldus Musk. Een groot aantal wetenschappers ziet de gevaren niet waar Elon Musk het over heeft. Is Musk paranoïde of is hij juist een visionair?

Er bestaat eigenlijk geen allesomvattende definitie van AI, om de simpele reden dat het concept zelf iedere dag evolueert. Men kan AI misschien best omschrijven als het idee om machines te doen denken als mensen. Kortweg zijn het elektronische toestellen, die zo geprogrammeerd zijn dat ze data of impulsen uit hun omgeving kunnen omzetten naar machinetaal en op basis daarvan zelfstandige beslissingen kunnen nemen. Articieel intelligente machines zijn zich echter niet bewust van de taken die ze uitvoeren. Ze volgen algoritmes en herkennen patronen. Eén van de technologiën die ze daarvoor aanwenden is machine learning, de mogelijkheid voor een programma om op basis van herhaling en ervaring zichzelf te verbeteren. Andere concepten die men al snel op dezelfde hoop gooit, zijn automatisering of robotisering, processen waarbij men zo veel mogelijk taken laat uitvoeren door een automatisch systeem of robot.

AI is een vaak misvat begrip, maar tegelijkertijd de hype van het moment in technologieland. AI kan namelijk vele voordelen bieden voor de mensheid. Zo zijn machines in staat om enorme hoeveelheden informatie te verwerken en te begrijpen, op een manier die voor de gewone mens onmogelijk is. Bovendien komen mensen nu al bijna dagelijks in aanraking met een vorm van AI; denk aan de muzikale aanbevelingen op Spotify, of zoekresultaten op Google en Amazon. En hoe slimmer de machines, hoe groter de stappen die ermee gezet kunnen worden. Op termijn zal een zelflerend systeem op zijn beurt een slimmere versie van zichzelf kunnen ontwerpen.

Daar staat wel tegenover dat een intelligentie die onze menselijke capaciteit overstijgt, ook risico’s voor onze maatschappij inhoudt. AI die ongecontroleerd blijft groeien, zonder dat er grenzen gelegd worden op toepassingen en capaciteiten, zal ook negatieve gevolgen hebben.

Persoonlijke gegevens en privacy

Momenteel bestaan er al heel wat toepassingen van kunstmatig intelligente systemen. Laten we het voorbeeld nemen van Siri en Alexa, digitale assistenten aangeboden door respectievelijk Apple en Amazon. Via AI verzamelen deze systemen allerlei persoonlijke gegevens over ons, hun gebruikers, zoals interesses, voorkeuren en gewoontes – kortom, ze stellen een profiel samen over wie wij precies zijn. Dat moet de digitale persoonlijke assistent dan in staat stellen om onze keuzes te voorspellen en bepaalde acties in gang te zetten, zonder dat wij dit eerst moeten vragen. Ja, dit kan ons het leven misschien wel gemakkelijker maken, maar hoe zit het met onze privacy? Wat gebeurt er met al die persoonlijke gegevens over ons die zij opslaan?

Uit het voorgaande blijkt dat intelligente systemen het best functioneren als ze over veel data beschikken. Het is dan ook het doel van een AI-systeem om zo veel mogelijk gegevens te verzamelen, te analyseren en op te slaan, dankzij technologieën die men in razendsnel tempo aan het ontwikkelen is. Steeds meer organisaties en bedrijven zijn zelf bezig met het massaal verzamelen van verschillende gegevens, op steeds grotere schaal. Eens de gegevens verzameld zijn, krijgen zij op zichzelf waarde en worden zij een commoditeit, een nieuw soort betaalmiddel. Hoe meer data, hoe sneller wij steeds perfomantere AI-systemen kunnen ontwikkelen – maar de meesten van ons voelen instinctief wel aan dat het behalen van steeds betere resultaten niet ten koste mag gaan van onze privacy en het recht op bescherming ervan. Waar ligt dus die grens? En wie beslist waar de grens ligt? Dat is waar een proactieve regelgeving een kader zou moeten bieden.

Nood aan regulering

Tot op heden is er geen concrete regelgeving omtrent systemen die een vorm van AI integreren, zoals zelfrijdende auto’s, robots of persoonlijke digitale assistenten. Voor een jurist stelt het probleem zich al gauw voor als één van aansprakelijkheid. Ieder intelligent systeem dat zelfstandige keuzes kan maken, kan ook fouten maken in die keuzes die leiden tot schade. Daarvoor moet iemand dus als aansprakelijk worden aangeduid, teneinde de schade te vergoeden. Wie is aansprakelijk in het geval van een machine?

De nadruk in het AI-debat ligt op dit ogenblik vooral op de ontwikkeling van AI op zich. Maar wat Elon Musk en consorten voorstaan, is dat dit focuspunt zich verplaatst naar het maatschappelijk nut van AI en hoe de mens dit best in de maatschappij inbouwt via methoden waarbij de controle blijft behouden. Er moet meer ingezet worden op onderzoek naar de gevolgen van AI voor de economie, de arbeidsmarkt, en de politieke wereld. Vandaag ziet men voldoende verontwaardigde artikels over potentieel jobverlies door toenemende automatisering, maar hoeveel daarvan zijn gestoeld op feiten en wetenschap? Wat weten wij écht over de impact van AI en automatisering?

Als we kijken naar ons nationaal wettelijk kader, wordt snel duidelijk dat er nog geen aandacht is voor regulering van AI. Zoals hierboven al kort aangehaald, is dit hoogstwaarschijnlijk te wijten aan de vele misvattingen over AI en het gebrek aan kennis over de mogelijkheden en impact op onze samenleving. Een politicus die zich op dit ogenblik meer bezighoudt met regulering van een vaag concept als AI, dan met sociale zekerheid en immigratie, zou bij de volgende verkiezingen genadeloos afgestraft worden. Bovendien is het legislatieve proces in België zo gebouwd dat het de facto reactief is, niet proactief. Het wordt in gang gezet om te reageren op een gekende situatie, wat bij AI nog helemaal niet het geval is. Ondertussen blijft het tempo waarop AI evolueert echter stijgen, wat men niet kan zeggen over het tempo van het wetgevend proces. Hoe dan zal onze wetgeving de snelle technologische ontwikkelingen bijbenen?

Hoe reguleert men AI?

Daarenboven volstaat regulering op nationaal vlak wellicht niet. AI is een wereldwijd fenomeen en de uitdagingen reiken veel verder dan landsgrenzen. Dit leidt tot het idee dat er ook nood is aan regulering op Europees en internationaal vlak. Binnen de Europese Unie bestaat er wel al enkele jaren een beweging die zich via onderzoeksgroepen en diverse projecten richt op AI en robotisering. Een voorbeeld hiervan is SPARC, opgericht door de Europese Commissie in 2013 en omgeschreven als “the partnership for robotics in Europe”. Maar dergelijke projecten zijn slechts een begin en hebben tot nog toe nog niet geleid tot de ontwikkeling van concrete wetgevingsinitiatieven.

Conclusie

Ondanks een groeiende belangstelling voor AI en automatisering is er een duidelijk gebrek aan kennis van hun potentiële impact op mens en maatschappij. Net daarom heeft een proactief beleid zin: het zou onze samenleving in staat stellen de voordelen van AI duidelijker te begrijpen en een kans geven deze te omkaderen, nog voordat er misbruik van gemaakt kan worden op grote schaal. Doemdenken en paniekzaaierij hebben in dit debat ook geen plaats, omdat de ontwikkeling van AI onvermijdelijk geworden is. Door middel van een proactieve ingesteldheid en de weg naar regulering in te zetten, kan men AI en automatisering het best in goede banen leiden.

De bijdrage van Matthias Dobbelaere-Welvaert, managing partner bij theJurists Europe, is geschreven in samenwerking met Louise Beldé en Anna Aleksanjan van deJuristen Gent. Dobbelaere-Welvaert doceert ook ‘Copyright and Mediarights’ aan de Erasmus Hogeschool Brussel en is gespecialiseerd in privacy, vrije meningsuiting en artificiële intelligentie.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren