De AI Act: einde aan de onschuld?
Als eerste heeft Europa een aantal regels en doelstellingen geformuleerd hoe om te gaan met AI. Controlerende instanties zullen regels en procedures opstellen die uiteindelijk bij “gewone mensen” terechtkomen. Maar wat doen we in de tussentijd?
Bijna iedere internetgebruiker is zich er inmiddels wel van bewust; wanneer iets gratis is, betaal je met jouw informatie. Dat moet ook wel, want de kosten voor aandeelhouders, miljoenen verdienende CEO’s, programmeurs, server farms en energie moeten ergens vandaan komen. En toen was daar ineens ChatGPT al snel gevolgd door Bard en een paar andere concurrenten. We keken allemaal verbaasd naar de overweldigende kracht van generatieve AI, ook wel conversational AI genoemd. Een leuke titel voor een workshop, een sinterklaasgedicht, een blokje Java of gewoon even een samenvatting van een rapport van 50 pagina’s. Mindblowing.
18 maanden later
We zijn inmiddels ruim 18 maanden verder en de marktwaarde van NVIDIA is tot ongekende hoogte gestegen, iedereen wil de snelste chips om AI nog beter, groter, sneller te maken. Het energieverbruik van enorme datacenters stijgt tot ongekende hoogte en de hype bereikt zijn hoogtepunt. Tijd om even stil te staan.
MAD Cow Syndrome
De basis van conversational AI bestaat uit peta-bytes data van het internet. Correcte data maar ook data van twijfelachtige kwaliteit. AI wordt slimmer door nieuwe gegevens van het internet te halen en door een constante dialoog met heel veel gebruikers. Die gebruikers stellen vragen, krijgen antwoord en geven feedback. Soms wordt AI daar slimmer door, soms wordt het door gebruikers om te tuin geleid en soms zal er vanwege onkunde foutieve feedback als correct worden aangemerkt. Dat je niet blind mag vertrouwen op de output van AI blijkt inmiddels ook wel door een fenomeen dat het MAD Cow Syndrome wordt genoemd. AI gaat gekke feedback geven omdat hun “kennis” vervuild wordt door foutieve output van andere AI-toepassingen.
Public Domain
AI wordt dus slimmer van jouw data. De rapporten die jij in ChatGPT of Bard plakt om een mooie samenvatting van te maken zijn “Public Domain of Open Source” vanaf het moment dat je op enter drukt. Niet iedereen lijkt zich dat te beseffen, we vinden het al lang prachtig dat die samenvatting binnen 2 minuten op ons scherm staat. Maar jij betaalt, met jouw data.
Oops. Maar hoe belangrijk is dit? Ik heb de proef op de som genomen en de vraag gesteld “Bard, wat kun je me vertellen over de digitaliseringsplannen van Gemeente XXXX?”. Ik kreeg een uitgebreid antwoord met veel details en de naam van een specifiek rapport. Als ik met Google zoek naar dit rapport kan ik dat nergens terugvinden. Niet op de website van desbetreffende gemeente en ook niet bij IT-partners van die gemeente. Ik durf bijna met zekerheid te zeggen dat iemand Bard heeft gevraagd een samenvatting te maken van dit, ongetwijfeld lange en saaie, rapport. In de afgelopen maanden ben ik al meerdere van dit soort voorbeelden tegengekomen.
De moraal van het verhaal
Denk na wat je aanbiedt aan jouw favoriete AI-toepassing. Is het vertrouwelijke informatie of bevat het privacygevoelige data, doe het dan niet. ChatGPT en Bard kennen het stempel “VERTROUWELIJK” niet en zullen ook die informatie gewoon gebruiken om antwoorden aan andere gebruikers te geven.
Als integratiespecialist zijn wij gespecialiseerd in het vertrouwelijk behandelen van gegevens van de overheid en overheidsgerelateerde organisaties. Dit artikel is een voorbeeld hoe serieus wij die taak nemen. Zorg dat je data-strategie in orde is en hou rekening met ontwikkelingen die van invloed zijn op die strategie. Die data zijn natuurlijk van ons allemaal, maar dat betekent niet dat die gegevens zomaar beschikbaar zijn voor iedereen!
Blogger: Marcel den Hartog – Trend & Innovations Expert EnableU.
Dit is heel interessant. Zou het betekenen dat ik als ik mijn dagboeken upload in chatGPT om ze samen te vatten, er kans is dat een maand later iemand aan chatGPT vraagt wat Jan Jongenelen deed op 21-4-2019, chatGPT dan informatie uit mijn dagboek aan diegene presenteert?
Dat zou wel heel bont zijn.
Lastig dat het allemaal zo ondoorzichtig is wat ze precies doen met de input van gebruikers.
Dit artikel raakt aan verschillende kwesties rondom AI, zoals data privacy, het gebruik van persoonlijke informatie, en de impact van AI op de maatschappij en het milieu. Ik zal de belangrijkste punten uit het artikel bespreken en deze in context plaatsen met de huidige Europese wetgeving en best practices in de AI-sector.
AI en Persoonlijke Data: De zorg dat AI-platforms zoals ChatGPT of Bard persoonlijke of vertrouwelijke informatie kunnen gebruiken en verspreiden, is een legitieme. Echter, volgens de Algemene Verordening Gegevensbescherming (AVG) in Europa, moeten bedrijven expliciete toestemming vragen voor het gebruik van persoonsgegevens en duidelijk aangeven hoe deze worden gebruikt. AI-systemen ontwikkeld of gebruikt in Europa moeten aan deze normen voldoen.
Verwerking van Vertrouwelijke Informatie: Het is cruciaal om te begrijpen dat AI-systemen, zoals ChatGPT, niet inherent het onderscheid kunnen maken tussen vertrouwelijke en niet-vertrouwelijke informatie. Het is aan de gebruikers om te beslissen welke informatie zij invoeren. Bedrijven en individuen moeten voorzichtig zijn met het delen van gevoelige informatie met AI-toepassingen. Daarnaast zijn er strikte procedures en protocollen voor het omgaan met vertrouwelijke informatie, die vaak losstaan van de AI-technologie zelf.
MAD Cow Syndrome: Dit lijkt een verwijzing naar een fenomeen waarbij AI-systemen foutieve of misleidende informatie kunnen genereren als gevolg van verkeerde of misleidende input. Dit is een bekend probleem in de AI-gemeenschap, bekend als ‘garbage in, garbage out’. AI-systemen zijn afhankelijk van de kwaliteit van de data waarmee ze worden getraind en gevoed. Het is belangrijk om AI-systemen voortdurend te monitoren en te corrigeren om dergelijke fouten te minimaliseren. Hiervoor worden tal van human feedback loops gebruikt maar ook systemen die automatisch informatie valideren op waarheid.
Energieverbruik en Milieu-impact: De zorgen over het energieverbruik van grote datacenters die AI-systemen aandrijven, zijn terecht. Dit is een gebied waar veel onderzoek en ontwikkeling plaatsvindt, gericht op het verbeteren van de energie-efficiëntie en het verlagen van de milieu-impact van deze technologieën. Zowel Google als Microsoft hebben zeer geavanceerde datacenters die de CO2 uitstoot volledig compenseren. Middels het aanplanten van bossen of middels innovatieve warmte wisselaar technieken zodat iedere KwH maximaal kan worden ingezet voor rendement.
Europese Wetgeving: De EU heeft inderdaad regelgeving opgesteld om het gebruik van AI te reguleren, waaronder de AVG en voorgestelde AI-regelgeving. Deze regelgeving is ontworpen om te zorgen voor verantwoordelijk en ethisch gebruik van AI, met speciale aandacht voor privacy, transparantie, en verantwoordelijkheid. Dit is ook niet meer dan logisch immers wat is het belang om een systeem tot stand te brengen die niet wordt gedragen door onze informatie maatschappij.
Concluderend, hoewel het artikel enkele geldige punten aanhaalt over de potentiële risico’s en uitdagingen van AI, is het belangrijk om te erkennen dat er aanzienlijke inspanningen worden geleverd om deze technologieën verantwoordelijk en veilig te gebruiken, met inachtneming van zowel de privacy van de gebruiker als de milieu-impact. De ‘dino-denkwijze’, of het niet erkennen van de voortdurende ontwikkelingen en verbeteringen in de AI-sector, kan leiden tot een verkeerd begrip van hoe deze technologieën werken en worden gereguleerd. En terugkomend op de moraal van het verhaal… Er is zoiets als opt out (tja lees de regels) kortom je betaalt niet met je data als je dat expliciet niet wilt. Gewoon lezen van de voorwaarden van een platform. Leuker kan ik het niet maken wel makkelijker.
Tja… Laat ik beginnen met op te merken dat ik een fan ben van AI. Ik bewonder de technologie en de mogelijkheden die het nu al biedt.
Maar: Je betaald wel degelijk met JOUW informatie, of je de voorwaarden nou leest of niet. Het is naïef om te denken dat iedereen eerst de ellenlange voorwaarden leest en dan pas start met het gebruik van AI. In de voorwaarden staat bijvoorbeeld dat je kunt aangeven dat jouw input en feedback niet gedeeld mag worden. Vervolgens staat er “your name and any other personally identifiable information will be removed before…”. Met andere woorden, je informatie wordt gewoon gebruikt, het is alleen niet terug te leiden naar jouw persoontje.
We hebben allemaal de taak om gebruikers te wijzen op de voordelen EN de risico’s van het gebruik van AI. Als ik een euro kreeg voor ieder rapport met het stempel “vertrouwelijk” er op, dat aangeboden wordt aan ChatGPT of Bard dan had ik al een aardig zakcentje verzameld.
Opgemerkt moet worden dat de publieke tools die nu gebruikt worden LLM modellen zijn die veelal ontwikkeld zijn om als chatbot te fungeren. Het zijn geen gespecialiseerde AI toepassingen die input “wegen” in tegenstelling tot de beloftes van bijvoorbeeld Google dat feedback wordt “gereviewd door een team”.
Garbage in-garbage out gebeurt momenteel met een snelheid en massaliteit die compleet nieuw is voor iedereen. Er wordt iedere minuut meer foute informatie gegenereerd dan ooit te voren en deze informatie wordt gebruikt om de “kennis” van deze AI tools te vergroten. De reden dat nieuwere versies meer discrimineren is voor een flink gedeelte terug te voeren op de “leerstof” die is aangeboden door andere gebruikers!
De moraal van het verhaal: wees kritisch op wat je aanbiedt (als je het niet van de daken wilt schreeuwen, voer het dan ook niet aan Bard of ChatGPT) en wees kritisch op wat er als output terugkomt. Er zijn nu al bedrijven en individuen die deze AI oplossingen bewust “feeden” met informatie waar zij derden mee willen beïnvloeden, dus blijf alert, hoe mooi het ook is.