Home Nieuws Hoe teams te bouwen die weten wanneer ze op AI moeten vertrouwen...

Hoe teams te bouwen die weten wanneer ze op AI moeten vertrouwen – en wanneer niet

2
0
Hoe teams te bouwen die weten wanneer ze op AI moeten vertrouwen – en wanneer niet

AI kan een indrukwekkende hoeveelheid saai, alledaags drukwerk wegnemen. Het kan ook creatieve taken op zich nemen. Maar de fundamentele vraag blijft: moet dat?

Nu het gebruik van AI binnen organisaties nieuwe hoogten bereikt, onderkennen bedrijven ook de beperkingen ervan – en trekken ze zich in sommige gevallen terug. Neem Duolingo, het taalleerbedrijf dat aankondigde dat het geleidelijk freelance schrijvers en vertalers zou elimineren en vervangen door door AI gegenereerde inhoud. Na publieke reacties en gebruikersrapporten waren de door AI geproduceerde lessen voelbaar formeel en culturele nuance ontbeerde, verduidelijkte Duolingo zijn standpunt.

“Ik zie AI niet als vervanging van wat onze medewerkers doen… Ik zie het als een hulpmiddel om te versnellen wat we doen, op hetzelfde of een beter kwaliteitsniveau,” schreef CEO Luis von Ahn.

De conclusie: blindelings delegeren aan AI, simpelweg omdat het zo is kan een taak uitvoeren, kan net zo riskant zijn als er regelrecht weerstand aan bieden. Als CEO van een automatiseringsbedrijf heb ik ontdekt dat werknemers hun oordeelsvermogen moeten ontwikkelen, moeten leren wanneer AI de vooruitgang kan versnellen en wanneer menselijk inzicht leidend moet zijn.

Hier leest u hoe leiders kunnen helpen dat oordeelsvermogen binnen hun teams te cultiveren.

Houd de verantwoordelijkheid menselijk, zelfs als AI daarbij helpt

Als de cumulatieve wijsheid tot nu toe iets heeft onthuld, is het dat AI-gebruik misgaat als het in de schaduw plaatsvindt. Werknemers kunnen uiteindelijk te veel delegeren aan AI, inclusief taken die nog steeds menselijke inbreng vereisen, zoals creativiteit, empathie en subjectieve, niet-kwantificeerbare oordeelsvorming.

Daarom heeft elk bedrijf vandaag de dag behoefte aan een expliciet AI-beleid dat transparant en toegankelijk is voor alle medewerkers. Een opgeborgen boekdeel met instructies volstaat gewoon niet.

Sommige leiders schetsen hun bedrijfsbeleid in een executive memo. Tobi Lütke, CEO van Shopify, gebruikte bijvoorbeeld een beknopte interne memo om die van het bedrijf samen te vatten AI-eerste aanpak:

“Voordat teams om meer personeel en middelen vragen, moeten ze aantonen waarom ze met AI niet kunnen krijgen wat ze willen.”

Bij Jotform vullen we periodieke memo’s aan met chats en presentaties tijdens onze wekelijkse all-hands meetings. Samen met onze managers beoordelen we AI-updates, goedgekeurde tools en voorbeelden van hoe we AI op de juiste manier kunnen gebruiken, waarbij we ook af en toe ongelukken delen.

Of het nu in een vergadering, een memo of een virtueel discussiebord is, leiders moeten duidelijke grenzen definiëren voor waar AI beslissingen informeert versus waar mensen beslissen.

Combineer beleid met vallen en opstaan ​​in de praktijk

Het creëren van formeel en informeel AI-beleid is slechts de helft van het verhaal. De andere helft kijkt hoe dit beleid in de praktijk uitpakt.

Leiders hebben de taak om teams te trainen om voortdurend de sterke en zwakke punten van AI binnen de echte workflows van een bedrijf te beoordelen. Wanneer er zwakke punten naar voren komen, is het tijd om de aanpak te heroverwegen. Veel organisaties hebben bijvoorbeeld AI gebruikt om te maken inhuren efficiënter. Op het eerste gezicht waren de resultaten veelbelovend: bedrijven konden meer kandidaten interviewen en toptalent sneller identificeren. Maar wervingsteams werden ook geconfronteerd met uitdagingen, waaronder ingebouwde vooroordelen en de onbedoelde uitsluiting van hooggekwalificeerde kandidaten vanwege strenge screeningcriteria. Als gevolg hiervan hebben bedrijven hun AI-gebruik moeten herijken en meer verantwoordelijkheid aan werknemers moeten toewijzen.

In alle bedrijfssectoren moet het evalueren van de sterke en zwakke punten van AI een voortdurende dialoog zijn tussen werknemers en managers. Werknemers moeten worden aangemoedigd om met nieuwe hulpmiddelen te experimenteren en hun ervaringen te delen. Leiders moeten regelmatig controles plannen om ervoor te zorgen dat ongepast of ineffectief gebruik niet ongecontroleerd blijft.

Maak van AI-beoordeling een continu gesprek

Wanneer teams AI-tools in hun workflows integreren, is een van de risico’s dat de verantwoordelijkheid diffuus wordt. De verantwoordelijkheid valt door de kieren. Als een door AI aangedreven chatbot bijvoorbeeld een klant verouderde informatie verstrekt, wie is dan de schuldige? Of nog belangrijker: wie heeft de taak ervoor te zorgen dat dit niet nog een keer gebeurt? Het is niet altijd duidelijk. En de AI de schuld geven, voorkomt niets anders dan elke koerscorrectie.

Opzettelijke en gedeelde verantwoordelijkheid verhindert daarentegen dat teams het eigendom en de taken volledig uitbesteden. Bij Jotform wijst elk team een ​​menselijke ‘eigenaar’ aan voor AI-ondersteunde outputs. Hoewel die persoon ervoor verantwoordelijk is dat een taak correct wordt uitgevoerd, blijft het hele team betrokken bij het beoordelen en verfijnen van de output.

Een andere mogelijke waarborg is het toevoegen van een AI-beoordelingsstap aan projectchecklists, waarbij verificatie van feiten en bronnen vereist is. Als het een taak of project is waarbij de inzet bijzonder hoog is, zijn twee menselijke controleurs geen slecht idee.

Gedeelde verantwoordelijkheid helpt ervoor te zorgen dat resultaten een teamverantwoordelijkheid blijven, en niet die van AI. In de woorden van Alphabet-CEO Sundar Pichai: dat zouden mensen niet moeten doen blindelings vertrouwen AI. AI is een hulpmiddel om het menselijk beoordelingsvermogen te vergroten, geen vervanging daarvan, en teams moeten waakzaam blijven en verantwoordelijk blijven voor de beslissingen die AI helpt produceren.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in