ANNONSEBILAG FRA CORNERSTONE

AI er ikke en magisk boks
Så langt har selskaper som lanserer uprøvde tjenester i betaversjon i en rasende fart ledet an i den digitale utviklingen.

Løsningene har så blitt testet på millioner av forbrukere. «Move fast and break things» – har inntil ganske nylig vært mantraet.
Men spørsmålet er om dette virkelig er riktig måte å utvikle ny teknologi på? Dette gjelder spesielt kompliserte og sensitive områder som kunstig intelligens. AI brukes allerede innen områder som HR, spesielt innen rekruttering, men det blir stadig mer vanlig med løsninger for å utvikle og lede ansatte, og dette er et område som forventes å øke raskt de kommende årene.
Det er mange positive sider ved å bruke AI i HR-feltet. AI gjør det mulig å finne mønstre i enorme datamengder. AI kan blant annet automatisk tipse ansatte om mulige roller og stillinger de kan søke på internt, og gi forslag til utviklingsmuligheter og opplæring som kan hjelpe dem å ta neste steg i karrieren. Bedrifter kan lettere få bedre oversikt over kompetansen som finnes i organisasjonen og identifisere hvilken kompetanse som mangler. De kan til og med se om det finnes ansatte som har nærliggende kompetanse og som kan utvikles i riktig retning. Og ikke minst kan AI brukes til å redusere diskriminering og øke mangfoldet i virksomheten ved å aktivt komme med objektive forslag til kandidater utelukkende basert på meritter og erfaringer.
Nødvendig med menneskelig gjennomgang
Å ha et menneskelig perspektiv er selvsagt alltid viktig i HR-feltet, men når AI brukes til å styre mennesker og deres utvikling er det ekstra viktig å tenke på etikk. Siden AI fungerer veldig ulikt sammenlignet med IT-løsningene vi er vant til, er det en risiko for at vi, kanskje litt naivt, ser på AI-applikasjonen som en magisk boks som automatisk spytter ut rettferdige og etiske beslutninger. Og at vi da, uten å tenke, baserer våre beslutninger på og handler ut fra dem. Det som gjør AI så komplisert er at det ikke alltid er mulig å følge anbefalingene til AI-algoritmene bakover for å logisk forstå hvorfor algoritmen kom fram til en bestemt konklusjon. Dette er grunnen til at resultatene alltid bør sees på som anbefalinger, og ikke endelige beslutninger som skal følges blindt. En sunn skepsis og det å stadig stille spørsmål ved anbefalingene er nyttig. I tillegg må løsningene kontinuerlig sjekkes og kalibreres av mennesker for å fungere best mulig. Uten menneskelig gjennomgang og kalibrering kan algoritmene faktisk forverre eksisterende diskriminering og skjevheter i stedet for å skape objektivitet og øke mangfoldet.
Forslag til ny EU-regulering
Lover og regler følger heller ikke alltid teknologiutviklingen. Derfor har EU nå fremmet et forslag til en ny AI-regulering. Forslaget til den nye Artificial Intelligence Act deler AI-applikasjoner inn i ulike risikokategorier med anbefalinger og spesielle krav. Bedrifter som for eksempel ønsker å bruke AI-applikasjoner innenfor HR, må sørge for at mennesker overvåker systemet og de må være transparente og tydelige på hvordan de bruker løsningene. Det legges også stor vekt på å bruke data av høy kvalitet for å unngå diskriminering. Vi vet ikke nøyaktig hvordan det endelige EU-direktivet vil se ut, men organisasjoner som allerede bruker AI i HR-feltet i dag bør vurdere bruken. Dette kan blant annet gjøres ved å teste og sjekke resultatene i mindre skala. Fremfor alt bør alle som jobber innen HR lære seg mye mer om hvordan AI fungerer og dele denne kunnskapen med resten av organisasjonen. HR og IT kan virke å ligge langt unna hverandre som kompetanseområder, men digitalisering bringer dem nærmere hverandre. Etterhvert som AI implementeres mer generelt innen HR, blir det enda viktigere at dette samarbeidet fungerer så godt som mulig fordi det finnes omfattende og nødvendig kompetanse og erfaring i begge gruppene. Bedriftene som er flinke til å samarbeide på tvers av disse kompetanseområdene er de som vil lykkes best når det kommer til AI. For de som tenker på å implementere AI-løsninger i sin HR-virksomhet, anbefales det først å stille følgende spørsmål til leverandøren:
- Hvem har utviklet teknologien og hvordan - og hvor kommer dataene fra? Forståelse for hvor og hvordan AI-teknologien er utviklet gir et viktig bilde av leverandørens etiske tilnærming. Dette gjelder også hvor dataene som brukes kommer fra og hvordan disse ble samlet inn. Det viser hvor mye du kan stole på dataene og dermed også om du kan stole på resultatene når du bruker løsningen i egen organisasjon. Vær fremfor alt oppmerksom på typen data som er involvert og eventuelle variabler som kan være diskriminerende. Det er også viktig å vite hvor stort datasettet er (er det opprinnelige datamaterialet som utvalget ble hentet fra stort nok?) og foretas det en jevnlig gjennomgang av dataene for å kvalitetssikre.
- Hvilken kontroll og balansering gjøres for å sikre etisk bruk? Still spørsmål om hvilken kontroll og balansering applikasjonene og algoritmene gjør og hvor ofte. Igjen gir det et bilde av hvor viktig leverandøren mener etisk bruk er. Det er også viktig å forstå hvordan prosessene for testing ser ut og hvilke tester som foregår under selve produktutviklingen. Det kan også være interessant å vite om leverandøren har en DPO (Data Protection Officer) og om vedkommende er involvert i design, utvikling og testing av algoritmene.
- Hvordan tenker organisasjonen å bruke teknologien? Dersom HR-teamet automatisk aksepterer alle anbefalinger fra AI-løsningens algoritmer, risikerer de å gå glipp av mulige avvik og problemer ettersom det kan ta tid før disse blir synlige. Regelmessig og tilbakevendende tilbakemelding, både manuell og automatisk, er derfor svært viktig for at systemet skal kunne gi en så objektive vurdering som mulig.Det er også viktig å huske at hvis HR-teamene selv ikke er opplært til å identifisere diskriminering (bias), kan heller ikke AI-systemet gjøre det.
- Involver de ansatte Det er ikke alltid lett å forstå hvordan AI-algoritmen kom fram til en bestemt avgjørelse. En måte å bedre forståelsen for de ansatte er å først se på løsningens anbefalinger og deretter diskutere forholdet mellom spørsmålet og anbefalingene. Selv om det ikke er mulig å forklare hver enkelt anbefaling i detalj, kan man demonstrere en mer generell logikk som alle kan forstå. På denne måten kan alle ansatte involveres slik at de kan holde øynene åpne for diskriminering og skjevhet i organisasjonen slik at løsningen kan kalibreres og stadig forbedres.
- Alle har en rolle å spille i den etiske bruken av AI innen HR. Leverandører ved å teste teknologien gjennom produktutvikling og brukere ved å fortsette å overvåke og kalibrere bruk. Det kan oppstå avvik som er vanskelig å forutsi, og det er derfor viktig å aldri se AI-applikasjoner som «ferdige» løsninger som ikke trenger gjennomgang med menneskelige øyne. Med de nye retningslinjene fra EU underveis er det derfor viktig å tilegne seg mest mulig kunnskap for å lede teknologien i riktig retning, til det beste for alle.
Les mer:
-
Blockchain kan stoppe CV-løgn
Hvis jeg sier blockchain, så sier du bitcoin – ikke sant? Men hvis jeg sier blockchain innen HR – hva sier du da?
-
Slik løser vi kompetansekrisen
Fokus på opplevelse, AI og plattformuavhengighet. Syv av ti bedrifter sliter med å få tak i riktig kompetanse. Som følge av økende kompetansemangel må arbeidsgivere fokusere på å utvikle sine ansatte og satse på smart teknologi som gjør opplevelsen så enkel og positiv som mulig.
-
In post-pandemic work outlook conscious connections are vital!
The world of work has changed, due to COVID-19 hundreds of millions around the world have lived and worked through lockdowns. Since all of this started remote work has been normalized, even many companies have implemented a hybrid way of working. But how will this change affect the way we communicate, connect, and create? Find out here!