Apple udskyder omstridt funktion

Massiv kritik mod Apple fører nu til, at Apple udskyder en yderst omstridt funktion

INGEN er uenige i, at seksuelt misbrug af børn skal stoppes, men Apple er måske gået for langt. I hvert fald udskydes en omstridt funktion (Foto: Ritzau Scanpix)
INGEN er uenige i, at seksuelt misbrug af børn skal stoppes, men Apple er måske gået for langt. I hvert fald udskydes en omstridt funktion (Foto: Ritzau Scanpix)

Når iPhone-brugerne tager backup af billeder fra telefonen via iCloud, ville Apple automatisk tjekke, om billedet var kendt i en database indeholdende billeder med seksuelt misbrug af børn.

Selvom Apple forsikrede, at de ikke "kigger" på brugernes billeder, men kun scanner underliggende digitale data, ændrede det ikke på, at der lynhurtigt rejste sig en massiv kritik af den planlagte funktion.

Nu har Apple udsendt et officielt statement, hvor de lover at udskyde funktionen.

- "Efter feedback fra kunder, forskere og andre grupper, har vi besluttet at bruge ekstra tid over de kommende måneder til at indsamle input og foretage forbedringer, før vi frigiver disse vigtige sikkerhedsfunktioner,” udtaler Apple om sagen.

Kritikere er ikke tilfredse
Organisationen Electronic Frontiers Foundation, der har indsamlet over 25.000 underskrifter mod Apples tiltag, er ikke faldet til ro efter udskydelsen. Til BBC siger de, at de stadig forlanger, at Apple ikke bare skal lytte men droppe planerne helt.

Det skal siges, at ingen er imod tiltag, der kan forhindre misbrug af børn. Kritikken går udelukkende på bekymringen over, hvad funktionen ellers kan benyttes til.

Kritikere mener, at når man kan scanne efter én ting, så kan der i princippet også scannes efter alt muligt andet. Det kan ondsindede regimer udnytte, gennem pres på Apple, lyder noget af kritikken.

Apple har tidligere forklaret i detaljer, hvordan funktionen virker og hvorfor de stadig mener, at de beskytter brugernes privatliv, men kritikken har ikke lagt sig af den grund.

Både Google og Facebook scanner allerede brugernes billeder op mod kendte misbrugsbilleder i CSAM-databasen som US National Center for Missing and Exploited Children (NCMEC) står bag.

Du kan læse mere om sagen her.