Zelfs in het midden van een economische neergang neemt de acceptatie van kunstmatige intelligentie (AI) in ondernemingen over de hele wereld nog steeds toe. IBM’s onlangs uitgebrachte 2022 AI Adoption Index meldt bijvoorbeeld dat het AI-adoptiepercentage rond de 35% ligt – vier procentpunten meer dan een jaar geleden. Het ontdekte ook dat ondanks de toenemende acceptatiegraad, 74% van de bedrijven toegeeft dat ze geen stappen hebben ondernomen om ervoor te zorgen dat hun AI verantwoordelijk en vrij van vooroordelen is.
Navrina Singh, CEO en oprichter van het op Palo Alto gebaseerde Credo AI, dat in oktober 2021 aankondigde dat het naar eigen zeggen het eerste verantwoorde AI-governanceplatform is, zegt dat dit komt omdat bedrijven uitgebrand zijn door de manier waarop gesprekken plaatsvinden over het onderwerp verantwoorde AI. en meer mensen aan boord krijgen begint met het veranderen van de conversatie eromheen. Hoewel de definities van verantwoorde AI variëren, omschrijft Accenture het als “de praktijk van het ontwerpen, ontwikkelen en inzetten van AI met de goede bedoeling om werknemers en bedrijven sterker te maken en een eerlijke impact te hebben op klanten en de samenleving – waardoor bedrijven vertrouwen kunnen wekken en AI met vertrouwen kunnen schalen.”
“Ik denk dat het echt gaat over de [return on investment] ROI van verantwoorde AI – de ROI van RAI,” zei ze. “Bedrijven richten zich niet op de positieve aspecten – of de ROI ervan. Ik denk dat we het gesprek moeten veranderen van een van de zachte statistieken naar de werkelijke ROI van vertrouwen en de werkelijke ROI van verantwoorde AI. Ten tweede, voegde ze eraan toe, moeten organisaties een weg worden gewezen naar [de] implementatie van verantwoorde AI.
Evenwicht tussen risico en vertrouwen met governance
Net zoals mensen een psychologisch vecht- of vluchtinstinct hebben, legde Singh uit dat ze een soortgelijk fenomeen heeft opgemerkt bij de acceptatie van AI door ondernemingen: een evenwicht tussen risico en vertrouwen.
“Als ik aan AI denk, is het letterlijk risico of vertrouwen, zei ze, eraan toevoegend dat bedrijfsleiders op dit moment de nadruk leggen op naleving, zodat ze niet op iemands risicoradar staan.
“Ik denk dat dit een zeer gevaarlijke mentaliteit is voor bedrijven, vooral omdat ze steeds meer machine learning in hun activiteiten integreren”, zei ze. “Wat ik van deze gemeenschap vraag, is om een weddenschap aan te gaan op zichzelf en op kunstmatige intelligentie, zodat ze kunnen begrijpen wat vertrouwen door ontwerp hun organisaties kan opleveren.”
Singh maakt deel uit van het National AI Advisory Committee (NAIAC) dat president Biden adviseert over aanstaande regelgeving en beleid. Ze richtte Credo AI begin 2020 op toen ze tijdens het werken aan AI-producten voor Qualcomm en Microsoft merkte dat gesprekken over governance vaak te laat in het spel plaatsvonden.
“Ik denk dat het een misplaatst idee is dat als je die risicocontroles voor governance-compliance eerder in het spel toevoegt, dat onze technologie alleen maar zal vertragen”, zei ze. “Wat we begonnen te zien, was dat er eigenlijk een bijkomend voordeel was – een waarbij niet alleen de systemen beter presteerden, maar deze systemen ook op grote schaal vertrouwen opbouwden.”
Onder de motorkap
Credo AI heeft twee aanbiedingen: de ene is een software-as-a-service (SaaS)-tool voor de cloud die werkt met AWS en Azure. Een andere is on-premises voor meer gereguleerde sectoren. Het platform bevindt zich bovenop de machine learning (ML)-infrastructuur van een onderneming en heeft drie hoofdcomponenten:
Vereisten stellen: het trekt vereisten in om een kader te stellen voor de tool om als richtlijnen te gebruiken. Dit kan elke regelgeving omvatten, zoals de aanstaande AI-wet van New York of bedrijfswaarden of -beleid.
Technische beoordeling: Vervolgens voert de tool een technische beoordeling uit aan de hand van deze richtlijnen. Het open-source beoordelingskader, Credo Lens genaamd, toetst de modellen en datasets van uw bedrijf aan de hand van de richtlijnen om te zien welke overeenkomsten er zijn en waar er mogelijk valkuilen zijn. Professionals die verantwoordelijk zijn voor de AI moeten daar dan tegenbewijs leveren.
Beheersartefacten genereren: Nadat de technische beoordelingen zijn uitgevoerd op de modellen, processen en datasets van een bedrijf volgens alle voorschriften en vastgestelde parameters, creëert Credo AI vervolgens rapporten, audits en documentatie voor transparantie die eenvoudig kan worden gedeeld met belanghebbenden.
Singh beweert dat bedrijven die Credo AI als hulpmiddel hebben gebruikt, succes hebben gemeld bij het overbruggen van de kloof tussen technische en zakelijke belanghebbenden, terwijl ze ook risico’s op een meer tastbare manier visualiseren.
Credo AI ziet ook wat actie. In mei haalde het bedrijf $ 12,8 miljoen op in een serie A-ronde. Volgens Crunchbase bedraagt de totale financiering tot nu toe $ 18,3 miljoen.
Eén tool lost het verantwoordelijke AI-dilemma van de wereld niet op, maar focussen op het ontwikkelen van een ecosysteem van verantwoorde AI is misschien de plek om te beginnen, zei Singh. Dit was ook een belangrijk punt tijdens de Global Responsible AI Summit, die vorige week voor het eerst werd gehouden.
Overweldigend genoeg onderstreepten de sessies van het evenement dat een ecosysteem van verantwoorde AI meerdere belanghebbenden en invalshoeken moet omvatten, omdat het “meer is dan alleen een product dat in het spel is”, aldus Singh.
In tegenstelling tot eerdere technologische revoluties, is kunstmatige intelligentie echt anders, legde ze uit.
“Het zal invloed hebben op alles wat jij en ik hebben gezien, evenals op onze overtuigingen en begrip”, zei ze. “We zouden het woord ‘verantwoordelijk’ niet moeten uitroepen, maar op dit moment bevinden we ons op een moment waarop het moet worden genoemd. Maar het moet een weefsel worden van niet alleen ontwerp, ontwikkeling en communicatie, maar ook van hoe we onze consumenten bedienen.”
Het ontwikkelen van een ecosysteem van verantwoordelijkheid rond AI is vanaf het begin niet eenvoudig. Hoewel tools kunnen helpen, zeggen experts dat het begint met leiderschap.
Zoals analisten Roger Burkhardt, Nicolas Hohn en Chris Wigley in een artikel van McKinsey schrijven: “De rol van de CEO is essentieel voor de consistente levering van verantwoorde AI-systemen en de CEO moet op zijn minst een sterke praktische kennis van AI-ontwikkeling hebben om ervoor te zorgen dat hij of ze stelt de juiste vragen om mogelijke ethische kwesties te voorkomen.”
Singh was het daarmee eens en wees erop dat naarmate de economie afglijdt naar een mogelijke recessie, C-suite-leiderschap en opleiding van AI steeds belangrijker zullen worden voor de onderneming, aangezien bedrijven proberen te automatiseren en kosten te verlagen waar ze kunnen.