Debatt
Den menneskelege skuggesida av kunstig intelligens
I ordskiftet om KI er det nærast fråverande, sjølv innan fagrørsla.
Aidin Geranrekab/Unsplash
Saken oppsummert
Fagrørsla har eit særleg ansvar når det kjem til ny teknologi. Det er me som må løfte korleis den påverkar arbeidstilhøve, korleis forholda er i heile produksjons- og forsyningslinja. Ikkje berre i Noreg, men i heile verda. I ordskiftet om KI er det nærast fråverande, sjølv innan fagrørsla.
«Kunstig intelligens», stort sett i form av tekstgeneratorar som ChatGPT (og Microsofts versjon, Copilot), er på raskt inntog i det norske arbeidslivet. Me blir fortalt at dette er ein slags ny industriell revolusjon.
Realiteten er kanskje litt meir nyansert, ref. den danske studien «Large Language Models, Small Labor Market Effects».
Fagrørsla, kor eg jobbar, er heller ikkje immun mot KI-køyret. Me blir presentert med at innføring av tekstgeneratorar er ein naturlov, og at produktivitetsgevinstane er så store at andre faktorar ved teknologien blir lagt til sida.
Eg vil påstå at denne tankegangen er farleg, og eit brot med fagrørslas stolte etiske tradisjon.
Dei etiske utfordringane med KI er for mange til å liste opp i eit enkelt debattinnlegg. Eg kunne ha skrevet om konsekvensane for miljø og klima, utnyttinga av kunstnarar utan nokon form for kompensasjon, eller måten KI reproduserer fordommar.
Sjølv om alle desse er viktige tema, som fortener sine eigne innlegg, vel eg å fokusere på den menneskelege kostnaden for arbeidsfolk, all den tid det ligg nært vårt samfunnsoppdrag.
Den menneskelege kostnaden
Å lage tekstgeneratorar som ChatGPT og Copilot har ein reell menneskeleg kostnad for arbeidarane som bidreg til å trene desse modellane.
OpenAI, som står bak KI-modellen i begge produkta, brukte, ifølgje ein Time artikkel frå 2023, kenyanske arbeidarar som blei betalt mindre enn to dollar, eller cirka 20 kroner i timen.
Desse arbeidarane fekk tilsendt media som i grafisk detalj skildra «seksuelt misbruk, bestialitet, mord, sjølvmord, tortur, sjølvskading og incest» (sitat Time, mi omsetjing), som dei så la «merkelappar» på, som KI modellen kunne trenast på.
I ein artikkel i magasinet «Noema» frå 2024 får me høyre om 26-årige Abrah, som flykta frå krig i Tigray, berre for å bli rekruttert av selskapet Sama til å trene KI-botar. Han vart sett til å setje merkelappar på innhald frå konflikten han hadde flykta frå.
Ein dag var ein del av dette innhaldet eit bilete av liket til søskenbarnet sitt. Utan val om anna arbeid fortset Abrah å jobbe der. Fram til han vart sagt opp, og blei ståande åleine med trauma sine, utan støtteapparat eller helseteneste.
Dette er reelle, menneskelege konsekvensar av produksjonen av programma som no blir tatt i bruk med stor jubel i norsk fagrørsle.
Ikkje alle døme er like ille som dette, sjølvsagt. Somme, som illustrert i rapporten «Who trains the data for European Artifical Intelligence» er meir kvardagslege, men likevel alvorlege, som framveksten av såkalla «mikroarbeidarar».
Det er ein form for plattformarbeid kor ein får små oppdelte oppgåver, og kor ein då får ein liten sum pr. oppgåve. I denne samanhengen kan ei «oppgåve» vere å t.d. skrive merkelappar på eit bilete, som ein så kan bruke til å trene ein KI-modell.
Me må ta ansvar
Ein må slute å handtere KI som ein kva som helst anna teknologi. Einsidig fokus på produktivitet og «gevinstar» gir ikkje eit fullstendig bilete av konsekvensane.
Dei KI-verktøya som er på marknaden i dag, liknar meir på fysiske varer enn på programvare, i det at dei har ein målbar miljøkonsekvens, og baserer seg i stor grad på grov utnytting av billig arbeidskraft.
Fagrørsla har eit særleg ansvar. Om ikkje me tek dei etiske og miljømessige konsekvensane på alvor – korleis skal me forvente at andre gjer det? Om ikkje me snakkar om arbeidsforholda for dei som er med på å lage teknologien, kven skal då gjere det?
Vel ein likevel å ta i bruk KI, må ein ta dei etiske utfordringane på alvor. Me kan ikkje akseptere at arbeidsfolk har blitt grovt utnytta for å lage teknologi som fagrørsla brukar. Me må ta omsyn til klima- og miljøeffektane, ikkje gøyme oss bak at det skjer ein anna plass.
Me må stå på kulturarbeidarane si side, dei som gir oss opplevingar, kultur og glede, men som no møter teknologi som kan drive plagiat på ein massiv skala.
HK er fagforbundet for oss som er tilsett i fagrørsla. Med det følg òg eit ansvar. Me må krevje at ein gjer ein evaluering av alle aspekta ved innkjøpt, og planlagt innkjøpt, teknologi.
Toler dei ikkje møtet med fagrørslas etiske tradisjon, då må ein anten byte over til ei anna løysing som gjer det, eller rett og slett setje heile utrullinga på pause.
Eg kan konstatere at KI-feberen har nådd oss i fagrørsla, men dette er større enn val av arbeidsverktøy. Det handlar om folk, og vår jobb er å passe på våre arbeidskameratar – utan omsyn for grenser.


Nå: 0 stillingsannonser