Data en ai
Nieuws

Italiaanse toezichthouder wil antwoorden van DeepSeek

Beeld: Shutterstock

De Italiaanse datatoezichthouder Garante heeft opheldering gevraagd van de Chinese start-up DeepSeek. De waakhond wil onder andere weten welke persoonlijke gegevens de chatbot van het bedrijf verzamelt en in hoeverre deze worden opgeslagen in China.

Twintig dagen de tijd

DeepSeek heeft twintig dagen de tijd om antwoorden te geven op vragen van de toezichthouder, meldt Garante in een verklaring. De Italiaanse toezichthouder staat bekend als een van de meest actieve op het gebied van kunstmatige intelligentie (AI). De waakhond verbood in 2023 kortstondig het gebruik van ChatGPT in Italië. Aanleiding daarvoor waren vermoedelijke schendingen van Europese privacyregels.

DeepSeek zou minstens zo goed zijn als de chatbots van grotere spelers zoals ChatGPT van OpenAI. De AI-app steeg de afgelopen dagen naar de top van de ranglijst van de Amerikaanse appwinkel van Apple en heeft ChatGPT ingehaald. Een woordvoerder van het Witte Huis meldde dinsdag dat de Amerikaanse autoriteiten DeepSeek onderzoeken met het oog op de nationale veiligheid.

De Amerikaanse autoriteiten onderzoeken DeepSeek met het oog op de nationale veiligheid.

Voorzichtigheid geboden

Ook Nederlandse kenners op het gebied van AI zijn niet onverdeeld enthousiast over DeepSeek en waarschuwen voor mogelijke risico’s rond privacy en beïnvloeding. Gegevens van gebruikers van de app kunnen in handen komen van de Chinese overheid. ‘Voorzichtigheid met DeepSeek is geboden’, zegt AI-expert Casper Rutjes van data- en consultancybedrijf ADC.

Informatie die mensen aan de app geven, wordt opgeslagen op servers in China en kan worden gebruikt door de overheid. ‘Het is wel mogelijk om DeepSeek lokaal te installeren waardoor gegevens niet in China worden opgeslagen, maar de meeste mensen zullen gewoon de app downloaden. Die gegevens gaan wel naar China’, aldus ADC-specialist Rik van der Woerdt.

Het getrainde AI-model is politiek gekleurd.

Politiek gekleurd

Daarnaast zijn er al voorbeelden in de media geweest waarbij DeepSeek geen antwoord wilde geven op politiek gevoelige vragen. ‘Het getrainde AI-model is politiek gekleurd. Bepaalde antwoorden zoals rond Tiananmenplein en Taiwan komen niet overeen met hoe hier in Europa naar die zaken wordt gekeken’, stelt Rutjes. ‘Het laat zien dat bepaalde keuzes worden gemaakt over wat het systeem teruggeeft die waarschijnlijk niet passen in de normen en waarden in Europa’, zegt Frank van Praat, actief met AI bij advies- en accountantskantoor KPMG.

Rutjes wijst verder op het risico van grote afhankelijkheid van DeepSeek die strategisch misbruikt kan worden. ‘Stel dat DeepSeek populairder wordt dan ChatGPT, maar ineens stopt. Dan zit je met een probleem. Europa moet daarom niet te afhankelijk worden van die AI-tools en hier meer zelfvoorzienend worden.’ (ANP)

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren