Google waarschuwt eigen mensen dat ze wel goed moeten nadenken voordat ze AI gebruiken. Het verbaast me eigenlijk niet. Een cynicus zou kunnen zeggen: ‘Logisch want Google loopt met z’n Bard achter op Microsoft met OpenAI’s ChatGPT’. Net zoals on-premises softwarereus Microsoft lange tijd terug weinig heil zag in cloud (en langer geleden gevaren zag in open source).
De waarschuwing van Google – eigenlijk van diens moederbedrijf Alphabet – gaat namelijk om de eigen mensen: interne medewerkers, developers. Zij worden door hun werkgever opgeroepen om extra alert te zijn bij gebruik van tools die generatieve-AI (genAI) bevatten of gebruiken. In een interne memo zijn alle Alphabet-werknemers gewaarschuwd: gebruik geen persoonlijke of vertrouwelijke informatie in een conversatie met een AI-gebaseerde chatbot.
Intellectueel eigendom
De input die gebruikers geven, kan namelijk weer meegenomen worden als verse trainingsdata. Dus vragen, aanvullingen, details, vervolgvragen, teksten die de AI mag inkorten, geluidsopnames die het gaat transcriberen, softwarecode ter verbetering en andere informatie komen zo terecht in het kennisreservoir van tools als ChatGPT. Samsung weet dat, Amazon heeft het ook aan den lijve ondervonden, Apple vreest dat.
Maker OpenAI heeft z’n bekende creatie eerst al getraind op informatiebronnen waar zeer waarschijnlijk al auteursrechtelijk beschermd materiaal en intellectueel eigendom van anderen in zit. Meer data van derden, inclusief gevoelige informatie en zelfs bedrijfsgeheimen, hoeven nu niet te rekenen op scherpe filtering. Ook omdat dat natuurlijk best moeilijk te implementeren is. Discretie voor gebruikers is wel verkrijgbaar, maar dat heeft een prijs.
Ingrediënten
Daarnaast speelt nog het risico van hallucinaties, onvolledigheid en zelfs onveiligheid mee. Zo hebben onderzoekers laatst ontdekt dat ChatGPT weliswaar softwarecode kan schrijven, maar dat die niet per se goed of veilig is. Hoe ze dat hebben ontdekt? Door die AI-bot het afgeleverde ontwikkelwerk daarna expliciet te laten keuren. Wat bleek? De eigen codecreatie kon op punten beter qua veiligheid, ‘wist’ ChatGPT die dat dus niet gelijk, uit zichzelf had gedaan.
Allemaal ingrediënten die het eindresultaat flink omlaag kunnen halen. Google en diens moederbedrijf Alphabet zijn zich hier goed van bewust. Als zoekmachinereus en techconcern met veelomvattende onderzoeksprojecten en innovatietrajecten weten ze daar heus wel hoe de worst wordt gemaakt. Net zoals de kok in een restaurant. Als die iets afraadt dan heeft dat meestal wel een goede reden. Of het moet zijn dat de schnitzel een hogere marge heeft?
Deze blog werd eerder gepubliceerd bij onze collega’s van AG Connect