Home Bots & Business Interview: Kunnen we AI vertrouwen?

Interview: Kunnen we AI vertrouwen?

door Marco van der Hoeven

Naarmate kunstmatige intelligentie meer wordt ingezet in allerlei sectoren, rijst een cruciale vraag: Kunnen we AI vertrouwen? Marc Mathieu, SVP AI-transformatie bij Salesforce, belicht het concept van vertrouwen in AI en de inzet van het bedrijf om ethische overwegingen centraal te stellen in hun AI-systemen.

Onlangs heeft Salesforce een uitgebreid portfolio aan producten gelanceerd die bedoeld zijn om AI te integreren in de workflow van klantrelatiebeheer. Dit beslaat gebieden zoals verkoop, service, marketing en handel. Salesforce introduceerde het Einstein One-platform, dat data, AI en CRM combineert. Daarnaast werden de Einstein Copilot en het Einstein Copilot Studio geïntroduceerd, tools die een gespreksgerichte AI-interface mogelijk maken binnen alle CRM-toepassingen.

Vorige week sprak Marc Mathieu, SVP AI-transformatie bij Salesforce, op de World Summit AI over de implicaties van AI. Hij richtte zich op het concept van vertrouwen in AI. “Ik benadrukte het belang van het ontwikkelen van betrouwbare AI-systemen met ethische overwegingen als kern. Ik lichtte de blijvende inzet van Salesforce voor vertrouwen toe, wat sinds de oprichting van het bedrijf onze hoogste waarde is. Of het nu ging om bedrijven te helpen bij de overgang van hun gegevens naar de cloud of om in 2016 voorspellende AI te introduceren met de Einstein-oplossing, vertrouwen heeft altijd voorop gestaan.”

Toxiciteit

Hij besprak ook de Einstein Trust Layer, een uitgebreide set functies die zorgen voor veilige gegevensopvraging, dynamische routering, maskering van persoonlijke identificeerbare informatie en geen retentie van zowel prompts als uitvoer gegenereerd door taalmodellen. Dit geldt zowel voor Salesforce-gehoste taalmodellen als voor partnermodellen zoals OpenAI.

“Detectie van toxiciteit en vraagafhandeling zijn essentiële elementen die we hebben geïntegreerd. We hebben een heel productteam toegewijd om ons te concentreren op deze aspecten, zodat we een vertrouwensbasis met onze klanten kunnen leggen. Bovendien benadrukte ik tijdens de presentatie dat vertrouwen niet alleen als een huidige functie of laag moet worden gezien, maar als een routekaart. We evolueren van voorspellende AI naar generatieve, gespreksgerichte en uiteindelijk autonome AI.”

Vertrouwen

In zijn interacties met CEO’s en CXO’s komen drie primaire vragen naar voren. De eerste is ‘Hoe begin ik?’ Bedrijven willen graag profiteren van de productiviteitsvoordelen van AI en zoeken begeleiding om hun AI-reis te starten, en ervoor te zorgen dat hun teams de benodigde vaardigheden en capaciteiten verwerven. De tweede vraag gaat over de langetermijnstrategie. Ze maken zich zorgen over de toekomst en hoe ze een duurzame routekaart kunnen opstellen. Het doel voor velen is om over te stappen naar een ‘AI-first’ benadering.

Het hart van hun vragen gaat over vertrouwen. Hoe kunnen bedrijven ervoor zorgen dat hun acties van vandaag, die ongetwijfeld invloed zullen hebben op morgen, hun gegevens of die van hun klanten niet in gevaar brengen? Deze zorg is diep geworteld en gaat voorbij aan regelgevende grenzen. Zoals opgemerkt in een van de panels, geven veel bedrijven prioriteit aan vertrouwen, vooral met betrekking tot hun gegevens en die van hun klanten, omdat ze de inherente risico’s van inbreuken herkennen.

Team

Hij gaat verder: “Onze benadering van vertrouwen is in wezen technisch. Ik werk nauw samen met twee primaire teams om onze vorderingen op het gebied van vertrouwen te begrijpen en die informatie aan onze klanten door te geven. Ten eerste is er ons ethiekteam. Opgericht in 2018, hebben we het Bureau voor Ethiek en Menselijk Gebruik opgericht en een Ethiek- en Menselijk Gebruiksofficier aangesteld. In 2019 begonnen ze principes te publiceren die gericht zijn op het kweken van betrouwbaar AI. Recentelijk hebben ze richtlijnen uitgerold die bedrijven moeten helpen om AI veilig en nauwkeurig te implementeren. Deze richtlijnen dienen als een leidraad, die bedrijven naar ethische AI-implementatie leidt.”

“Ten tweede hebben we onze productteams, bestaande uit een groot aantal toegewijde ingenieurs. Ze concentreren zich op de functionaliteiten die ik eerder noemde, zoals veilige gegevensopvraging, PII-maskering en nulretentie. Elk segment van onze vertrouwenslaag wordt aangedreven door een productteam, wat ervoor zorgt dat deze functies zijn geoptimaliseerd voor onze klanten. Bovendien bieden onze Ethical AI Council en Advisory Council onschatbare feedback. Onze inzet is standvastig – naarmate uitdagingen zich voordoen of als we potentiële risico’s identificeren, werken we voortdurend samen met beide teams om vertrouwen te behouden.”

Generatieve AI

AI, met name generatieve AI, heeft onlangs een snelle evolutie doorgemaakt. “Het tempo van de vooruitgang kan overweldigend zijn. Om dit aan te pakken, heeft Salesforce dit jaar een beslissende stap gezet om zijn focus volledig op AI te richten, door AI-functionaliteiten in ons CRM-platform te integreren. Historisch gezien werkten onze CRM-toepassingen in verkoop, marketing en andere gebieden in silo’s. Echter, met de integratie van AI hebben we een uniforme aanpak aangenomen.”

“Nu hebben we een basismodule voor data en AI die van toepassing is op alle toepassingen en workflows. Deze uniforme strategie is cruciaal – het zorgt ervoor dat een toegewijd team onze vertrouwens- en beveiligingslagen continu verbetert. Bovendien hebben we een open ecosysteem geaccepte erd, waardoor klanten hun gegevens uit verschillende bronnen kunnen integreren en zelfs hun voorkeurstaalmodellen (LLM’s) kunnen opnemen als deze beter aansluiten bij specifieke functies.”

Ethiek

Salesforce neemt actief deel aan tal van AI-raden, met name die gericht zijn op ethiek. “Hoewel we geen regelgeving sturen, is ons doel inzichten te bieden, zowel vanuit ons perspectief als vanuit dat van onze klanten, om toekomstige regelgevende overwegingen vorm te geven. Ons ethiekteam is diep betrokken, niet alleen bij gegevensprivacy, maar ook bij mensenrechten. Het ontwerp van ons platform legt de nadruk op gegevensbescherming en zorgt ervoor dat de AI die we ontwikkelen gelijkheid, diversiteit en inclusie bevordert.”

“Een ander cruciaal aspect is het bevorderen van eerlijkheid en transparantie. We geven prioriteit aan het verklaren van de herkomst van gegevens of informatie. Met betrekking tot de vertrouwenslaag, die essentiële elementen zoals diversiteit en inclusie omvat, is onze grootste uitdaging het snelle tempo van technologische evolutie. Vertrouwen is in zijn aard absoluut. Je vertrouwt of je vertrouwt niet. Met meer dan twee decennia waarin we vertrouwen voorop stellen en 14 jaar waarin we worden erkend als een van ’s werelds meest ethische bedrijven, streven we ernaar een ‘vertrouwen-eerst’ mentaliteit in de AI-ontwikkeling in te prenten. We beweren niet alle antwoorden te hebben, maar ons streven is deze mentaliteit te bevorderen en de basis te leggen voor normen in zowel de private als de publieke sector.”

“De opkomende AI-routekaart wijst op een groter beroep op autonome AI. Stel je voor, persoonlijke AI-assistenten die onze repetitieve taken beheren. Ik zeg vaak: ‘Alles wat geautomatiseerd kan worden, zal worden geautomatiseerd’. Deze automatisering van alledaagse, repetitieve taken zal menselijk kapitaal bevrijden, waardoor we ons kunnen concentreren op creatievere, relatiegedreven inspanningen. Het uiteindelijke doel van AI is augmentatie – het versterken van menselijke capaciteiten en het heroriënteren van onze energieën op taken die echt menselijke vindingrijkheid vereisen.”

Misschien vind je deze berichten ook interessant