KUNSTIG INTELLIGENS: Kunstig intelligens er nok mer kode enn menneskelignende robot, mener blant andre Torgeir Waterhouse i IKT-Norge.
Pixabay / geralt
Her er det du bør vite om kunstig intelligens (AI) akkurat nå
EU har lansert etiske retningslinjer for kunstig intelligens. Norge kommer med egen strategi i løpet av året. Her er det du bør vite om «AI-etikk» akkurat nå.
leif.kirknes@lomedia.no
8. april lanserte EU sine etiske retningslinjer for tillitsverdig kunstig intelligens. Dette med «tillitsverdig» har vært viktig for ekspertgruppens om har sydd sammen forslagene i den 39 siders lange rapporten. Kun ved å gjøre kunstig intelligens verdig menneskers tillit vil det være mulig å fullt ut høste fordelene teknologien kan gi, ifølge ekspertgruppen.
Vi spoler tilbake til 28. mars, halvannen uke tidligere. I et langt fra overfylt Store Studio hos NRK befinner det seg en gjeng av det man må kunne kalle «spesielt interesserte». De har blitt med på Digitalforums møte om Kunstig Intelligens, og her har vi en salig blanding av statsråder, PR-bransjen, journalister, byråkrater og teknologer til stede.
Fra IKT-Norge holdt Torgeir Waterhouse et innlegg der han erkjente at temaet kunstig intelligens, heretter i denne teksten kalt AI (Artificial Intelligence), er abstrakt og komplisert. AI gir et vanvittig potensial for mye bra – og mye ikke fullt så bra.
AI ikke bedre enn vår egen bagasje
Men PR-bransjen skaper forvirring, mener Waterhouse, som rett ut ber dem «fuck off» (sic.) slik de boltrer og bader seg i det nå ekstremt moteriktige buzz-ordet. AI er ikke noe man kan sammenlligne menneskelig intelligens. Det er en nisjeteknologi som fungerer godt i nisjer der maskinlæring fungerer godt. Ting som «roboten Sophia», den litt skumle dukken mange kanskje har sett på video – vår egen statsminister Erna Solberg fikk hilse på roboten på fjorårets Evry Insight-konferanse – er i så måte å betrakte som «fake AI» ifølge Waterhouse.
Det finnes mer interessante debatter verdt å ta om AI enn å tørrprate med (og om) Sophia, ifølge Waterhouse. Han peker på at AI designes av mennesker og dermed formes av menneskers verdier. Det er en representasjon av vårt verdigrunnlag og handlingsrommet vi gir, peker han på. Og ettersom vi mennesker skrur sammen algoritmer og plukker ut hvilke data som skal inn, så er det en risiko for at datamaskinen arver våre fordommer.
Der er han på linje med digitaliseringsminister Nikolai Astrup, som peker på en selvlærende algoritme Microsoft testet ut på Twitter. Twitter-kontoen «unveiled Tay» skulle lære seg å forstå samtaler via Twitter. I starten sa den ting som «can i just say that im stoked to meet u? humans are super cool», men så tok det under 24 timer før den plutselig begynte å tweete ting som «I fucking hate feminists and they should all die and burn in hell». På andre tidspunkt var for øvrig feminisme alt fra «likhet mellom kjønnene» til en type kreft.
(Artikkelen fortsetter under video)
Universelt?
Waterhouse trekker frem eksempelet der Amazon skal ha testet ut AI i rekruttering. Men AI-systemet likte ikke damer. Systemet var satt opp til å ta lærdom av rekrutteringsmønstre over de siste ti år. Og der var det mange menn. Så da tenkte systemet at menn, det måtte være bedre enn kvinner. Amazon omkonfigurerte systemet, men endte sitt prosjekt da de innså at det ikke fantes noe tillit til at algoritmen på andre måter kunne komme til å diskriminere, ifølge anonyme kilder hos selskapet.
Han viser også til at det i enkelte stater i USA har blitt benyttet AI til å hjelpe dommere med å finne hvor stor fare de tiltalte hadde for å fortsette å begå kriminalitet. Det har heller ikke gått upåaktet hen, da det skal vise seg at for eksempel AI-systemet COMPAS oftere var grei med folk som var hvite i huden og dessuten tok mye feil i spådommene om afroamerikaneres fremtid.
Waterhouse mener AI vil utfordre oss på å ta diskusjoner «vi har latet som vi ikke vil ta». Som med AI i våpenindustrien, for eksempel - tør vi prate om det, eller blir det nok en elefant i rommet, undrer han.
Og er mennesker og følelser universelle?
Ikke minst må personvern i en AI-perspektiv drøftes.
(Artikkelen fortsetter under bildet)
Torgeir Waterhouse, IKT-Norge
Leif Martin Kirknes
Politikk
Digitaliseringsminister Nikolai Astrup erkjenner at vi ikke kan bli best på alt i dette landet. Det må prioriteres. Den prioriteringsjobben har utvalget «Digital 21» gjort. Der nevnes blant annet AI.
Derav jobber Astrup og politikerne med en nasjonal strategi for AI, som Astrup sier kommer i løpet av året. Den skal ta for seg muligheter og utfordringer og etiske rammeverk. Det er hensiktsmessig at Norge har et eget rammeverk, fastholder han.
AI vil lede til mye ny politikk, ifølge Torgeir Waterhouse, som gleder seg til den norske AI-strategien kommer på plass. For i dag er det Kina og USA som har det desidert største kappløpet om AI. Så om Norge - og Europa - ikke hiver seg med, så vil våre liv kanskje påvirkes av hvordan programmerere i de hippeste teknologikretsene USA og Kina tenker.
Astrup mener Norge, som fra før gjør det bra på verdens teknologiske topplister, også skal gjøre det bra på AI. Norge skal ligge i front, er hans håp.
(Artikkelen fortsetter under bildet)
Digitaliseringsminister Nikolai Astrup hos NRK
Leif Martin Kirknes
Vi har data
Et mulig konkurransefortrinn for Norge er at vi faktisk har mye data. Data er grunnlag for maskinlæring som er grunnlaget for AI, mener han. Skal vi klare å lage et system som stiller bedre diagnoser enn mennesker klarer, er vi avhengige av data, fastslår han. Så gjelder det å gjøre mest mulig data tilgjengelig, så de kan benyttes på tvers av statlige virksomheter og av næringslivet til innovasjon der det er mulig.
Kappløpet om AI vil føre til en kamp om kloke hoder, mener Astrup, som tror Norge har noe å tilby som ikke andre har. For tiden reiser han mye rundt for å hente innspill til strategien han skal lage, «for en god strategi blir ikke til på Statsministerens kontor». De skal blant annet se på hvordan utdanningen kan legges opp for å matche behov for kompetanse, deriblant yrkesfagutdanning.
Hovedtillitsvalgt Esben Smistad i Telenor har for øvrig til Nettverk tidligere uttalt at han håper EUs retningslinjer for kunstig intelligens kan brukes for å «beskytte ansatte mot ufornuftig bruk av analyse og kunstig intelligens».
PR-bransjen er i gang
To som allerede har begynt å bruke en form for AI i sitt virke, er Claus Sonberg i Zynk og Sindre Beyer i Try Råd. Med et datasett basert på 40 millioner norske nettsider og 20 millioner tweets, kan teknologien til Zynk finne ut av hva som er hett og ei lenge før vi mennesker forstår det og også spå utfall av valg før valget har skjedd.
Men ifølge Sonberg har de gjort seg noen etiske refleksjoner og blant annet konkludert med at de ikke kommer til å rådgi politiske partier med AI-teknologien som gir et såpass presist bilde av den norske samfunnsdebatten at det er mulig å treffe jackpot med sitt budskap ved å trykke på alle de rette retorikk-knappene algoritmene trekker frem.
Det gjelder å holde tunge rett i munnen, mener han. Elefanten i rommet her kaller han «påvirkningskirurgi». Og hvis PR-bransjen ikke besinner seg og holder sin etiske fane høyt, ser han for seg at straffen blir reguleringer om AI-bruk som rammer blindt.
(Artikkelen fortsetter under bildet)
ANALYSE: Det hadde vært bedre å prate om «helse», «miljø» og «skole» enn «skatt» og «sosial utjevning» ved valget i 2017, ifølge Zynks «Qball-teknologi».
Leif Martin Kirknes
Beyer i Try Råd har et noe tilsvarende datasett og en lignende maskin. Han legger vekt på at deres kunder selv skal ha kontrollen over analyseverktøyene, i og med at en debatt om kjøtt ser litt annerledes ut avhengig av om du jobber i Nortura eller Bama. Også media har for øvrig hevet seg med på AI-kjøret. NRK og NTB snakket også på seminaret hos NRK.
Hovedregler
I EUs nye etiske retningslinjer for AI er det tre hovedlinjer for at AI skal være tillitsfull: AI må følge alle lover og regler, AI må følge korrekte etiske prinsipper og AI må være «robust» i både teknisk og sosialt perspektiv, siden AI-systemer kan forårsake uforutsett skade.
Telenor Researchs Ieva Martinkenaie har selv sittet i utvalget, og var også til stede på Digitalforum for å fortelle hvordan de har tenkt. De har tenkt at uten tillit blir det ingen regulering og ingen bruk og derav ingen AI.
Henger mennesker med når AI-systemer utvikles? Som med «deep-fakes» og manipulert innhold, som kan være vanskelig å vite om er reelt eller ei. Er det robust – kan det feile? Er det rettferdig - hvordan minimere bias? Er det lett å forstå hvordan algoritmen tenker? Og hvem har ansvar når systemene gjør feil, er det de som laget algoritmen, de som solgte den, de som kjøpte den eller de som foret den med data?
(Artikkelen fortsetter under bildet)
Ieva Martikenaie i Telenor, som også har sittet i EUs ekspertgruppe «Ethics Guidelines for Trustworthy AI».
Leif Martin Kirknes
39 sider oppsummert
EUs råd har i tillegg til sin 39 siders rapport om dette kommet med følgende oppsummerende liste over nøkkel-krav til AI-systemer (etter beste evne oversatt til norsk):
• AI-systemer bør styrke mennesker slik at de kan ta informerte beslutninger og fremme grunnleggende rettigheter, samtidig som det må være systemer for å overvåke det hele og mennesker må være både informert, i kontroll og styre det.
• AI-systemer må være motstandsdyktige og trygge. De må være sikre og ha en plan hvis noe skulle feile, og være nøyaktige, til å stole på og være mulige å gjenskape. Det er den eneste måten å være sikker på at utilsiktet skade kan minimeres og unngås.
• I tillegg til å sikre full respekt for personvern og beskyttelse av data, må det også sikres tilstrekkelige styringsmekanismer for dataene, der det tas hensyn til dataenes kvalitet, integritet og at rettmessig tilgang til data sikres.
• Data, systemet og AI-forretningsmodellene bør være transparente. Sporbarhetsmekanismer kan hjelpe til med å oppnå dette. Videre må AI-systemer og deres avgjørelser kunne forklares på en måte tilpasset berørte interesser. Mennesker må være bevisste på at de interagerer med et AI-system og må være informert om systemets muligheter og begrensninger.
• Urettferdig forhåndsdømming (bias) må unngås, siden det kan ha flere negative konsekvenser for marginaliserte og sårbare grupper som kan forverres av fordommer og diskriminering. For å fremme mangfold bør AI-systemer være tilgjengelige for alle, uavhengig av funksjonshemminger, og involvere relevante interessenter gjennom hele sin livssyklus.
• AI-systemer bør være til det beste for alle mennesker, inkludert fremtidige generasjoner. Derfor må det sikres at de er bærekraftige og miljøvennlige. De bør også ta hensyn til miljøet, inkludert andre levende vesener, og deres sosiale og samfunnsmessige konsekvenser bør overveies nøye.
• Det bør være på plass mekanismer som sikrer ansvarlighet og ansvarsfordeling for AI-systemer og deres kunder. Etterprøvbarhet som gjør det mulig å vurdere algoritmer, data og designprosesser spiller en nøkkelrolle i dette, særlig i kritiske applikasjoner. Videre bør det sikres en tilgjengelig og tilstrekkelig oppreisning.