Data en ai
Artikel

Veiligheid en vertrouwen cruciaal in uitdagend maar beloftevol AI-landschap

Paula Goldman, Chief Ethical and Human Use Officer bij Salesforce. Beeld: Salesforce

AI is in opmars en biedt bedrijven tal van kansen om sneller en productiever te werken en sterkere relaties met hun klanten te bouwen. Tegelijkertijd brengt het ook een hoop vragen en zorgen met zich mee. Organisaties zullen een grote verantwoordelijkheid moeten nemen en deze veelbelovende technologie met zorgvuldigheid moeten verkennen en inzetten.

Recent onderzoek in opdracht van Salesforce laat zien dat ruim de helft van de Nederlanders niet goed op de hoogte is van de wet- en regelgeving rond AI. Over het gebruik van AI is nog veel discussie gaande en de onwetendheid van gebruikers vormt soms een risico. De output van AI is tenslotte gegenereerd op basis van data en ingevoerde kennis – geen menselijk gevoel of inzicht. Juist dit benadrukt de behoefte aan een aanpak waarbij ethiek, veiligheid en menselijke controle voorop staan.

Waarom menselijke controle bij het gebruik van AI cruciaal is

Het behouden van menselijke controle bij AI-ontwikkeling en -gebruik is essentieel. Mensen kunnen ethische afwegingen maken en morele beslissingen nemen, iets wat AI (nog) niet kan. Dit zorgt ervoor dat beslissingen of acties genomen op basis van AI-toepassingen, voldoen aan onze normen en waarden. De menselijke touch is vooral in organisaties zoals in de publieke sector, van zeer groot belang om op de juiste, meest ethische wijze om te kunnen gaan met AI als hulpsysteem. AI zou eerlijk, transparant, privacybewust en verantwoordelijk moeten worden ontworpen en gebruikt, zodat wordt gewaarborgd dat het bijdraagt aan het welzijn van individuen en gemeenschappen, zonder ongewenste negatieve gevolgen.

AI als hulpmiddel voor de publieke sector

AI speelt op dit moment al een belangrijke rol in de publieke sector door de dienstverlening en efficiëntie van processen te verbeteren. AI kan bijvoorbeeld grote hoeveelheden data analyseren om trends te identificeren die belangrijk zijn voor stadsplanning, zoals verkeersstromen, woningbehoeften of afvalbeheer. Ook kan AI routinetaken binnen burgerzaken automatiseren, zoals het verwerken van vergunningsaanvragen of administratieve procedures.

Bij alle processen is menselijke (eind)controle onmisbaar, omdat er met gevoelige informatie wordt gewerkt. Alleen dan kan AI worden ingezet als effectief hulpmiddel voor menselijke vooruitgang en welzijn binnen de taken van de publieke sector.

Veiligheid voorop

Bescherming tegen misbruik en manipulatie van data vormt een belangrijke basis voor het veilig gebruik van AI. Dit betekent dat er sterke beveiligingsmaatregelen nodig zijn zoals data-encryptie, authenticatie en toegangscontrole, om integriteit en vertrouwelijkheid te waarborgen. Dit vergt menselijk inzicht, menselijke eindcontrole en duidelijke protocollen om de veiligheid van AI-toepassingen te waarborgen zodat AI processen en werkwijzen kan versterken.

Bezorgdheid over AI groeit – zorg voor een sterke basis

AI biedt organisaties dus de kans om efficiënter te werken en taken nauwkeuriger uit te voeren. Toch ontbreekt er nog vaak een duidelijk kader voor verantwoord gebruik, wat leidt tot zorgen over misbruik en onbedoelde effecten.

Zorgen over AI zijn niet nieuw, maar met de opkomst van generatieve AI zijn ze snel gegroeid.
Paula Goldman, Chief Ethical and Human Use Officer bij Salesforce

Ze benadrukt het belang van een mensgerichte benadering bij AI-ontwikkeling en -gebruik, waarbij ethiek en menselijke controle centraal staan. Hiertoe moeten duidelijke kaders worden gesteld met ondersteuning van toepassingen die daarbij helpen.

Salesforce Einstein Trust Layer is speciaal ontworpen om gebruikers te helpen bij  verantwoord gebruik van AI-toepassingen, waarbij de menselijke touch en ethische, menselijke overwegingen centraal worden gesteld. Door een toepassing zoals Einstein Trust Layer in te zetten, wordt een sterke basis gelegd voor verantwoord en veilig AI-gebruik. AI kan zo worden gebruikt waar het voor bedoeld is: als ondersteunend en optimaliserend, slim hulpmiddel.

Salesforce’s Einstein Trust Layer

Salesforce’s Einstein Trust Layer is ontworpen om vertrouwen op te bouwen in AI-technologieën door een framework dat ethische en menselijke overwegingen centraal stelt. Dit framework is bedoeld om AI-systemen te begeleiden naar een mensen-centrische benadering, waarbij de focus ligt op het verbeteren van menselijke besluitvorming en het waarborgen van ethische en veilige implementaties van AI. Het is een veilige AI-architectuur, volledig geïntegreerd in het Salesforce-platform met optimale toepassing, voor gestroomlijnde privacy- en databescherming.

Conclusie

De opkomst van AI biedt kansen, maar roept ook belangrijke vragen op over ethiek, veiligheid en menselijke (eind)controle. Een verantwoorde aanpak van AI is daarom essentieel om zowel de voordelen ervan te benutten en tegelijkertijd de risico’s te minimaliseren. Samenwerking tussen bedrijven, overheden en andere belanghebbenden is nodig om standaarden en wetgeving te ontwikkelen die zorgen voor veilig en ethisch gebruik van AI. Toepassingen die AI-gebruikers ondersteunen, zoals Salesforce Einstein Trust Layer, bieden een basis voor verantwoord en veilig gebruik en het opzetten van processen, waarin AI slimme inzichten kan geven en productiviteit en efficiëntie kan verhogen.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren