Apple vil skanne dine private bilder for barneporno

Apple vil skanne brukernes bilder lagret i iCloud for å identifisere barneporno. Tiltaket møter både ris og ros. 

Apple vil skanne dine private bilder for barneporno

I fremtiden vil Apple skanne bilder som er lastet opp i nettskytjenesten iCloud. Målet er å oppdage og slette barneporno. Planene møter likevel skarp kritikk.

13. august 2021 av Steffen Nielsen

Vil du risikere at fremmede ser på bildene du laster opp til iCloud fra iPhone?

Det er dette spørsmålet mange mobileiere over hele verden må ta stilling til i årene som kommer.

Apple har nemlig varslet at de vil benytte den såkalte CSAM-teknologien til å skanne iPhones etter såkalt «overgrepsmateriale», som for eksempel barneporno. (CSAM står for Child Sexual Abuse Material.) 

I første omgang skal tiltaket rulles ut i USA, og senere vil Apple innføre lignende tiltak i andre land, inkludert Norge, hvis den lokale lovgivningen tillater det.

> Les også: Dette kan du se frem til i neste oppdatering av iPhone

Delte meninger om CSAM-teknologien

Meldingen møter begeistring hos blant annet National Center for Missing and Exploited Children i USA, som mener at tiltaket kan redde barns liv.

Apples idé møter også sterk kritikk. 

Blant annet frykter mange at teknologien kan brukes til andre formål, og at myndighetene vil kunne presse Apple til å bruke teknologien til å skanne etter andre typer bilder, og dermed fungere som en slags avansert sensur.

Apple forsikrer imidlertid at teknologien utelukkende er utviklet til å identifisere og rapportere CSAM – altså barnepornografi.

Bilder sjekkes av robotteknologi

I kjølvannet av kritikken har Apple utarbeidet et dokument med spørsmål og svar på det nye tiltaket. Du kan lese hele dokumentet her: Expanded Protections for Children (PDF på engelsk).

I dokumentet forklarer Apple blant annet at de kun vil skanne bilder som lastes opp til iCloud – og omfatter derfor ikke bilder som bare ligger på telefonen.

Dessuten vil Apple bare skanne bilder i tilfeller hvor eieren på forhånd er mistenkt for å besitte mistenkelig materiale. Eventuelle «robotfunn» vil bli kontrollert av mennesker, slik at det ikke blir snakk om falske positive tilfeller.

Samtidig bedyrer Apple ikke overraskende at selskapet ikke vil bukke under for myndighetenes press til å bruke teknologien til andre formål. 

> Les også: iPhone sporer deg overalt – se det hemmelige kartet

Foreldre kan beskytte barn mot skadelige bilder

Apple har også andre lignende tiltak på gang. 

I samme dokument forteller selskapet om ordningen «Communication safety in Messages», der foreldrene kan beskytte barn mot seksuelt innhold på iPhone.

Tanken er at barnets iPhone vil komme med en advarsel hvis de mottar eller prøver å sende et bilde av seksuell karakter. Er barnet under 12 år, vil foreldrene også motta en melding hvis barnet velger å se bildet.

Det er ennå uvisst om – og i så fall når – teknologien kommer til Norge, siden Apple først må innrette seg etter lovgivningen i de ulike landene. Derfor blir teknologien rullet ut i ett land om gangen – i første omgang i USA.

Kanskje du er interessert i...