Data en ai
Blog

Emergente AI shitshows

Het geheel is meer dan de som der delen. Een voorbeeld: wanneer een vergadering een geweldig idee oplevert en dat je achteraf geen idee hebt van wie dat idee kwam. Het is ontstaan in de interactie tussen mensen. Het is van niemand en van iedereen tegelijk, maar het is er wel.

Het lijkt onvermijdelijk dat dergelijk emergent gedrag ook een rol speelt in de interactie tussen AI-modellen. Dat kan prachtige resultaten opleveren – misschien kunnen we maatschappelijke problemen oplossen op manieren die we nu nog niet kennen. Maar diezelfde interacties kunnen ook dramatisch uitpakken, bijvoorbeeld doordat ze elkaar versterken en daarmee juist een echokamer aan valse informatie laten ontstaan. De eerste signalen dat deze emergentie een ‘shitshow’ kan opleveren zijn er al.

Als we al grip kunnen krijgen op Google Bard en Microsoft Bing, dan is nog helemaal niet zeker wat er gaat gebeuren als de twee met elkaar interacteren.

Dat is een belangrijk inzicht in een tijd waarin deskundigen, politici, wetgevers en bestuurders op zoek zijn naar manieren om beheerst om te gaan met AI. Want die beheersing stopt niet bij de grenzen van een organisatie. Sterk versimpeld: als we al grip kunnen krijgen op individuele actoren als Google Bard en Microsoft Bing, dan is nog helemaal niet zeker wat er gaat gebeuren als de twee met elkaar interacteren. Dat effect speelt nog sterker als er straks tientallen modellen vanuit verschillende kennisdomeinen informatie uitwisselen en verbanden combineren. Juist die combinatie kan baanbrekende ideeën opleveren. Maar het kan ook destructief uitpakken. Of, als we Hollywood mogen geloven, zelfs een oorlog tussen of met AI’s ontketenen.

De kern daarvan is niet nieuw. De maatschappij is altijd al een complex adaptief systeem waarin actoren met elkaar verbonden zijn die leren van elkaar op basis van ervaring. Dergelijke systemen zijn per definitie lastig te doorgronden, mede de reden waarom plotselinge gebeurtenissen zoals een bankencrisis vrijwel niet te voorspellen zijn. Maar waar het bij mensen om relatief langzame interacties gaat, waarbij er tijd is om in te grijpen met renteverhogingen of het opkopen van banken, gaat het bij modellen om duizenden interacties in een seconde die in recordtijd tot een emergent verschijnsel kunnen leiden, zoals in het verleden de flash crash al eens in vereenvoudigde vorm heeft aangetoond.

De vraag is: hoe kunnen we daar grip op krijgen? Laten we te rade gaan bij Open.AI. Het antwoord: ‘Interacties tussen large language models (LLM’s) zijn nog relatief nieuw en de precieze aard van het emergente gedrag dat hieruit voortkomt is nog onbekend. Het is daarom belangrijk om verder onderzoek te doen naar de potentiële voordelen en risico’s van de interactie tussen LLM’s en hoe we dit emergente gedrag kunnen begrijpen en beheersen.’

Het model begrijpt in elk geval zelf dat er werk te doen is. Er is dus bewustwording, waarvan bij mensen altijd gezegd wordt dat het de eerste stap is richting oplossing. Een goed begin toch?

 

Deze blog is als column gepubliceerd in iBestuur Magazine #47

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren