Stap 1: Maak een uitgebreid AI-beleid op basis van ethische waarden
Uit onderzoek blijkt dat 86% van de managers beseft dat duidelijk geformuleerde richtlijnen onmisbaar zijn om AI verantwoord te kunnen gebruiken. Toch gaapt in veel organisatie een grote kloof tussen intenties en acties. Slechts 6% van de bedrijven heeft een AI-beleid dat dient als leidraad voor ethisch verantwoorde implementatie van de technologie.
Organisaties moeten zich bewust zijn van de ingrijpende impact van AI en van hun eigen verantwoordelijkheid om een evenwicht te vinden tussen innovatie en de risico's ervan. Ze moeten het AI-beleid gebruiken als leidraad voor passend gebruik van de technologie, inclusief beveiliging, privacy en de verantwoordelijkheid van medewerkers.
Wanneer taken zoals de screening van kandidaten of performancemanagement afhankelijk zijn van AI kan dat onbedoeld vooroordelen in historische data in stand houden, bijvoorbeeld wanneer een AI-systeem discrimineert tegen bepaalde groepen op basis van eerdere, bevooroordeelde beslissingen. HR-managers zullen kritisch moeten blijven omgaan met de uitkomsten van AI-tools.
Bedrijven moeten niet alleen grenzen stellen aan het gebruik van AI, maar moeten er ook voor zorgen dat die grenzen in lijn liggen met de regelgeving. Hoewel die regelgeving nog in de kinderschoenen staat, is de bredere invoering van AI-wetgeving een kwestie van 'wanneer', niet van 'of'. De recente goedkeuring van de AI Act, de baanbrekende AI-verordening van de Europese Unie, is daarvan het bewijs. Andere regio's en rechtsgebieden zullen in de voetsporen van de EU treden en de wet- en regelgeving rondom de technologie zal blijven groeien in omvang en complexiteit. Daarom is het belangrijk dat HR-teams op de hoogte blijven van de laatste juridische ontwikkelingen en wendbaar blijven in hun omgang met AI.
Door AI strategisch en ethisch te benaderen kunnen HR- en zakelijk managers de transformerende kracht van kunstmatige intelligentie benutten en tegelijkertijd de negatieve effecten ervan beperken.
Stap 2: Implementeer een AI-controleproces en verzamel feedback
Een onderdeel van zo’n cultuur is een AI-controleprocedure. Daarin zijn AI-audits belangrijke controlepunten om de ethische, juridische en technische aspecten van AI-systemen te evalueren. Door onderzoek en evaluaties kunnen bedrijven potentiële vertekeningen, fouten of onbedoelde gevolgen van algoritmen ontdekken en die proactief aanpakken.
Het is van wezenlijk belang om belanghebbenden te betrekken bij dat proces. Samenwerken met bijvoorbeeld werknemers, belangengroepen en academici helpt bedrijven om potentiële problemen te signaleren die technische ontwikkelaars misschien niet meteen voorzien. Het controleproces ondersteunt een inclusievere en meer verantwoorde inzet van AI.
Stap 3: Geef voorrang aan AI-educatie en bijscholing
Negeren van het menselijke element is een belangrijk en kostbaar probleem. Medewerkers vormen de ruggengraat van elke organisatie. Zonder de juiste aandacht voor hun behoeften en ontwikkeling zullen organisaties er niet in slagen om het volledige potentieel van AI te benutten.
Door een cultuur van continu leren rondom AI te bevorderen kunnen ze hun werknemers in staat stellen zich aan te passen aan technologische ontwikkelingen. Zo’n leercultuur bevordert de betrokkenheid en het behoud van medewerkers en maakt organisaties bestendig tegen de ingrijpende veranderingen die op komst zijn.
Doordachte en strategische benadering
De conclusie is dat snelle invoering van AI zonder een goede basis kan leiden tot problemen en gemiste kansen. Leiders die een duurzame AI-toekomst nastreven, moeten de invoering van de technologie op de werkplek doordacht en strategisch benaderen. Dat kunnen ze doen met een scherp beleid voor AI-gebruik, verantwoordingsmaatregelen, en training en opleiding van medewerkers.