KI-bilder skaper bekymring
– Det er bare en så syk verden vi lever i, sier influenser Sara Emilie Tandberg.

Den siste tiden har flere influensere advart om at KI-genererte nakenbilder spres på nett. Dette har fått mye oppmerksomhet, blant annet hos småbarnsforeldre som er bekymret for utviklingen.
En av de som har tatt til sosiale medier for å vise sin bekymring er influenser Sara Emilie Tandberg (30).
Forrige uke delte hun sine umiddelbare tanker da hun leste om profilene som hadde fått falske nakenbilder spredt på nett. Det gjorde hun på Instagrams historiefunksjon.
– Det er bare en så syk verden vi lever i. Det jeg automatisk tenkte på var jo barna og hvor vanvittig glad jeg er for at jeg ikke har lagt ut bilder av barna mine på mange år.
God kveld Norge har forsøkt å komme i kontakt med Tandberg for en ytterligere kommentar, uten hell.

– Hvorfor man skal skjerme barna
Videre forteller Tandberg at hun gjennom årene har endret mening rundt det å dele bilder av barna på sosiale medier.
– Jeg skal for all del ikke være noe super-moralpoliti, fordi jeg la ut av barna mine før. Det er bedre sent enn aldri, selv om jeg skulle ønske at jeg så det tidligere.
Den tidligere «Bloggerne»-profilen gir uttrykk av at hun synes det er ekkelt at det er så enkelt å manipulere bilder gjennom kunstig intelligens – og at mange likevel ønsker å publisere bilder av barna sine.
– Gjennom årene i denne bransjen har jeg blitt litt folkevond, fordi jeg ser jo hvor mange tikkende bomber det er i Norge, som trenger hjelp. Det er veldig ubehagelig og jeg er i dialog med en advokat, fordi noen er helt ekstreme.
– Det i seg selv er en god grunn til å skjerme barna når man har den jobben man har, legger hun til.
Influenseren avslutter med et ønske om mer refleksjon rundt tematikken.
– Jeg vil ikke «ta» noen, men ønsker å få flere til å reflektere over dette. Det er nok et argument for hvorfor man skal skjerme barna. Jeg har gått på den smellen selv.
– Flere bør tenke over hva man deler
Influenser og Norrøn-student ved UIO, Anja Johansen-Solli (35), er selv glad for at hun og kjæresten, Lavrans Solli, har valgt å ikke dele innhold fra oppveksten til barna deres.
Johansen-Solli har jobbet med sosiale medier i snart ti år, og ser tydelig hvordan det har utviklet seg gjennom tiden.
– Vi har kun delt små glimt av bakhodet og hender. Nå deler vi ikke bakhoder eller en fot engang. Ingenting, sier hun og fortsetter:
– Bør det ikke være nok å vite at det finnes pedofile nettverk som bruker, sender og oppbevarer bilder man legger ut av barna sine?

Norrøn-studenten har selv fått med seg manipuleringen av bilder gjennom kunstig intelligens. Hun synes det er svært trist for dem som er rammet.
– Man deler jo med glede, en inspirasjon og et ønske om å bidra til noe positivt. Og når private bilder som offentlig blir misbrukt på en slik måte, får jeg vondt.
– Med det sagt, så følger det også med konsekvenser. Selv om man ser på noe som koselig, inspirerende og gøy, kan det bli brukt på feil måte av andre. Det er baksiden av deling i sosiale medier. Dette med KI er bare skummelt, ekkelt og bør få flere til å tenke over hva man deler.
– Skremmende
Influenser og småbarnsmor Monica Nyhus (35) synes utviklingen er skremmende.
– Det er en forferdelig måte å lure folk på, på andres bekostning og frustrasjon med noe så sårbart som nakenhet. Det verste er også hvor enkelt dette kan la seg gjøre.
– Det er uten tvil skremmende og desto viktigere å ikke dele av barn alene i sosiale medier.

Firebarnsmoren forteller at hun og mannen, Chris, bestemte seg for å skjerme barna helt fra sosiale medier i januar. Nå er hun spesielt glad for beslutningen.
– Det er dessverre ikke alle som har gode intensjoner. Likevel vil vi om kort tid ha barn som er store nok til å ha sosiale medier og det å snakke om denne tematikken er desto viktigere. Private kontoer og god kommunikasjon vil være gode tiltak her, sier Nyhus til God kveld Norge.
– Beveger seg mye raskere enn reguleringen
Teknologiekspert og forfatter, Bår Stenvik, sier til God kveld Norge at teknologien rundt kunstig intelligens har gjort store sprang de siste årene.
– Denne teknologien har blitt tilgjengelig for mange flere enn før. Det vi ser helt gjennomgående er at mulighetene beveger seg mye raskere enn reguleringen.
Videre sier Stenvik at teknologiselskapene «kaster ny teknologi ut i samfunnet» og at myndighetene ikke rekker å områ seg før de er tatt i bruk. Eksempler på det er falske nakenbilder.
– Noe av det som gjør dette skremmende er at noen få aktører kan gjøre stor skade. Vi har allerede sett hvordan digitale verktøy kan mangfoldiggjøre og automatisere svindel og sabotasje av det offentlige ordskiftet, sier han.

Forstår bekymringen
Stenvik tror utviklingen over tid vil kunne påvirke hvordan folk forholder oss til språk og bilder på.
– Vi vil ikke ta et bilde for å være sant før det er verifisert på et vis. Det vil bli interessant å se de teknologiske løsningene for dette.
– Nakenbilder vil nok virke krenkende og forstyrrende uavhengig av hvorvidt man forstår at de er falske. Så jeg forstår helt klart at foreldre blir bekymret, det bør de bli, sier han videre.
Eksperten mener kunstig intelligens absolutt er et problem.
– Det er ikke fordi den er for smart eller vil oppnå bevissthet og å ta makten. Det er heller at vi allerede har overlatt svært mye av styringen til de digitale plattformene og algoritmene, til tross for at de ikke er særlig smarte. De er bare veldig raske til å behandle statistikk.
I den uregulerte fasen
Stenvik forteller at løsningen på kort sikt vil være å prøve å regulere, men at det kan være en utfordring.
– Med KI er vi nå i den tidlige, uregulerte fasen, som vi kanskje vil se tilbake på med skrekk om noen tiår.
Denne teknologien er så lett tilgjengelig. Ingen trenger et laboratorium, bare en laptop, for å lage nye apper og verktøy som så kan spre seg til hvert hjørne av internettet på få timer.
Ifølge eksperten er dette med på å gjøre det vanskeligere å regulere enn tidligere teknologiske gjennombrudd.
– Vi må nok være forberedt på at vi trenger en helt ny folkelig forståelse av hva vi kan stole på og ikke.