Data en ai
Artikel

Verantwoorde AI: Tips en lessen van Microsoft

Er zijn AI-tools van een enkele afbeelding levensechte video's kunnen creëren. Beeld: Egor Zakharov.

Het afgelopen jaar was voor Microsoft één grote reis op het gebied van verantwoorde AI. Naast opmerkelijk en opwindend was het vooral ook leerzaam. Microsoft heeft een schat aan waardevolle kennis opgedaan over het bouwen van verantwoorde AI-systemen, maar ook over het ondersteunen van klanten en gebruikers bij zowel gebruik als custom ontwikkeling. Dit zijn de vier waardevolste ‘lessons learned’.

Vergaderingen samenvatten, voorstellen schrijven, grote hoeveelheden data analyseren, meerdere interne documenten tegelijkertijd bevragen: het afgelopen jaar werden de vele toepassingen van generatieve AI (GenAI) massaal omarmd binnen de zakelijke markt. Met de lancering en brede integratie van Microsoft Copilot en Azure OpenAI Service was het ook voor Microsoft een ronduit sensationeel GenAI-jaar. Al sinds jaar en dag heeft het techbedrijf principes en processen voor het bouwen van verantwoorde AI-toepassingen. De grootschalige implementatie van GenAI-producten de afgelopen twaalf maanden leverde echter een hoop nieuwe uitdagingen (en kansen) op.

Responsible AI Transparancy-rapport

Microsoft publiceerde daarom onlangs het eerste Responsible AI Transparancy-rapport, dat de verantwoorde AI-aanpak van het bedrijf beschrijft en ingaat op de nieuwe uitdagingen. Chief Responsible AI Officer Natasha Crampton en Chief Product Officer for Responsible AI Sarah Bird bespreken de belangrijkste learnings in de blogpost ‘7 takeaways from a year of building generative AI responsibly and at scale’. Dit zijn de vier nuttigste lessen die Microsoft trok op klanten- en gebruikersvlak:

1. Mensen inlichten over de bron

GenAI-systemen kunnen in een handomdraai levensechtere video’s, afbeeldingen en geluidsfragmenten creëren. Het wordt dus steeds belangrijker dat gebruikers de herkomst van kunstmatig gegenereerde inhoud kunnen achterhalen.
De Content Credentials van Microsoft zijn cryptografische watermerken waarmee gebruikers kunnen verifiëren of content door AI is gemaakt. Het AI for Good Lab, dat maatschappelijke problemen wil oplossen met AI, focust meer en meer op deepfakes, de kwade genieën daarachter én hun tactieken.

De les? Vanwege de levensechtheid van GenAI-content moeten gebruikers de herkomst daarvan kunnen achterhalen. De Content Credentials van Microsoft helpen hierbij.

2. Verantwoorde AI-tools voor klanten

Om de kwaliteit en bescherming van AI-outputs te verbeteren, stelt Microsoft zijn eigen tools, diensten, sjablonen en richtlijnen beschikbaar voor klanten. Organisaties kunnen hierdoor op verantwoorde wijze GenAI-systemen bouwen, beoordelen, implementeren en beheren.
Met Azure AI Content Safety kunnen klanten bijvoorbeeld haatdragende en gewelddadige inhoud filteren. Een nieuwe set tools voor Azure AI Studio helpt organisaties bovendien om de veiligheid en betrouwbaarheid van custom GenAI-systemen te verbeteren. Onder meer kan een ‘hallucinatie’ van het model worden gedetecteerd.

De les? Een groeiend aantal organisaties bouwt eigen GenAI-systemen. Om de kwaliteit en veiligheid te verbeteren, kunnen organisaties nu putten uit Microsofts eigen responsible AI-gereedschapskist.

3. Verwacht dat mensen dingen stukmaken

‘Jailbreaks’ lijken een wetmatigheid: er zullen altijd mensen zijn die proberen de beschermingsmaatregelen van AI-­modellen te omzeilen. Microsoft gaat

dit te lijf door mogelijke kwetsbaar­heden te onderzoeken voordat AI-­producten worden geüpdatet én door altijd de nieuwste tools te verstrekken aan klanten, zodat zij hun custom AI-toepassingen binnen Azure beter kunnen beschermen. Dankzij patroonherkenning kunnen nieuwe modellen van Microsoft zelfs jailbreaks herkennen en blokkeren.
Een ander recent model voorkomt aanvallen waarbij het AI-systeem wordt overgenomen door instructies in prompts te ‘injecteren’.

De les? Verken je de grenzen van technologie, dan loop je geheid tegen oneigenlijk gebruik aan. Microsoft werkt daarom voortdurend aan nieuwe oplossingen, zoals jailbreak-proof AI-modellen. Gevolg is dat organisaties continu moeten kijken naar extra veiligheidsfuncties binnen nieuwe modellen. 

4. Informatie over de grenzen van AI

AI is niet perfect. Gebruikers zouden kunstmatig gegeneerde inhoud moeten verifiëren. Microsoft vereeenvoudigt dit door bij elke chat-output links naar de geraadpleegde bronnen toe te voegen.
Sinds 2019 biedt het bedrijf via ’transparantienotities’ informatie aan over (onder meer) de mogelijkheden en beperkingen voor verantwoord toepassen van AI. Gebruiksvriendelijke mededelingen binnen producten ondersteunen gebruikers bovendien bij veilige en verantwoorde omgang met AI.

De les? AI laat soms steekjes vallen. Transparantie over de beperkingen van AI is daarom belangrijk. Idealiter controleren gebruikers standaard of informatie juist is – om die reden linkt Microsoft naar de bron.

Responsible AI Transparancy-rapport

In het eerste – vanaf nu jaarlijkse – Responsible AI Transparancy-rapport beschrijft Microsoft hoe het responsible AI ontwikkelt en op welke wijze klanten en gebruikers worden ondersteund bij het bouwen en gebruiken van verantwoorde AI-systemen. Het rapport schetst onder meer best practices voor gebruik, risicobeheersmaatregelen voor generatieve AI-modellen en aanbevelingen voor overheden om AI-systemen veilig en verantwoord te beheren en reguleren.

Meer weten? Download hier het Responsible AI Transparency-rapport.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren