Ny undersøkelse viser at mye arbeid gjenstår for å få Norge opp i fart med AI.
Særlig bekymret for risiko og etiske hensyn
Norstat har gjennomført en undersøkelse på vegne av KPMG som viser at nordmenn er bekymret for flere aspekter ved utviklingen innen generativ AI.
Det gjelder blant annet:
- Samfunnsrisiko
- Selskapers evne til å bruke AI ansvarlig og etisk
- Myndighetenes evne til å regulere AI
- Mer svindel og falske nyheter
Må ikke bli for forsiktige
Undersøkelsen viser at vi har kommet kortere enn mange kanskje tror i å begynne å bruke generativ AI i jobbene våre. CEO i KPMG Norge, Rune Skjelvan, advarer mot at vi blir for forsiktige.
– Det er dette som er dilemmaet nå: Kjører du for fort, kan det gå skikkelig galt. Men venter du for lenge, så blir du utkonkurrert av andre som tar det i bruk, sier Skjelvan.
Han mener vi må unngå å bli så forsiktige at vi blir utkonkurrert av andre land der ting går raskere. Små, men raske skritt, er nøkkelen, ifølge Skjelvan. Samtidig mener han virksomheter må snakke høyt og være åpne om dilemmaene de står i og hvordan de tar i bruk nye verktøy.
– At så mange svarer at de ikke har tillit til myndigheter og virksomheter kan være et samfunnsproblem i seg selv. Mye av dette kan løses med mer åpen kommunikasjon. De virksomhetene vi jobber med har skyhøye krav til sikkerhet, personvern og etikk, og myndighetene har mange regulatoriske verktøy allerede, så nå gjelder det bare å overbevise offentligheten, sier Skjelvan.
Mer positive i USA
KPMG har gjennomført en lignende undersøkelse i USA. Der ser vi et annet bilde, med mer positivitet, mindre bekymring og flere som oppgir at kunstig intelligens allerede spiller en rolle i deres liv.
- 42% av forbrukere svarer at generativ AI har en stor påvirkning på deres liv i dag. Dette er mye høyere tall enn vi ser i Norge.
- 58% av respondentene i USA svarer at generativ AI har en signifikant påvirkning i deres arbeidsliv, og hele 77% tror dette vil være tilfellet om to år.
- 70% svarer at de mener fordelene med generativ AI oppveier for risikoene.