Apple trotseert de felle kritiek vanuit privacy-organisaties over software die op een iPhone of iPad lokaal foto’s scant op kinderporno. Van geïntegreerde snuffelsoftware die een achterdeur openzet naar de privacy van gebruikers, is volgens het techbedrijf dan ook geen sprake.
Apple vindt de vrees ongegrond dat deze wijze van automatische beeldherkenning allerlei neveneffecten kan hebben en zijn doel voorbijstreeft. Ook bezweert het bedrijf de gedachte dat de nieuwe voorziening verder gaat dan de detectie van kindermisbruik en ook op andere gebieden tot massasurveillance kan leiden. De enige bedoeling is te voorkomen dat strafbaar beeldmateriaal op de servers in de iCloud terechtkomt.
Apple gaat dan ook door met het inbouwen van kunstmatige intelligentie (ai) in updates van het besturingssysteem iOS15. Door foto’s van iOS-gebruikers te vergelijken met de databestanden van kinderbeschermer NCMEC kan de software verdacht beeldmateriaal eruit filteren. Vervolgens laat Apple een menselijk oog over de gewraakte content gaan. Pas daarna wordt bij mogelijke wetsovertreding een organisatie voor kinderbescherming ingeschakeld. In Amerika is dat de NCMEC.
Misbruik
De kinderporno-detectie in iCloud-foto’s is uitsluitend bedoeld om foto’s van misbruik uit de Apple-servers te weren. Alleen evident strafbaar materiaal valt niet up te loaden. Het bezit van kinderporno is in de meest landen, waaronder Nederland en België, illegaal. De ai-functie werkt alleen bij opslag in de iCloud. Volgens Apple is er geen invloed op andere gegevens op het apparaat. Het systeem werkt niet als iCloud-foto’s worden uitgeschakeld en de gebruiker kan nog steeds alles in zijn eigen opslagruimte op het toestel bewaren. Apple veegt daarmee de veelgehoorde kritiek van tafel als zou de bezitter van een iPhone geen baas meer zijn over zijn eigen toestel.
De nieuwe functie is uitdrukkelijk niet van toepassing op de Berichten-app. Hierin is de veiligheid van de communicatie anders geregeld. Ouders krijgen de optie hun kinderen te beschermen tegen de uitwisseling van seksueel expliciete afbeeldingen. Foto’s worden onscherp gemaakt. Daarnaast wordt het kind gewaarschuwd als een foto niet door de beugel kan. Als extra voorzorgsmaatregel kunnen ouders ook een alert krijgen. Maar dit gebeurt met medeweten van hun kinderen. De alert-optie geldt alleen voor kinderaccounts van twaalf jaar en jonger. Bij kinderaccounts van dertien tot zeventien jaar wordt het kind nog steeds gewaarschuwd voor seksueel expliciete afbeeldingen, maar ouders worden niet ingelicht.
Apple krijgt nooit toegang tot dit soort communicatie, beoordeling van beelden of meldingen. Ook wetshandhavers komen er niet aan te pas. De functie beïnvloedt geen andere communicatie. Kinderen in gewelddadige gezinnen kunnen ongehinderd hulp zoeken.
Hashes
Apple gebruikt de kinderporno-beelden uit de databestanden van het NCMEC (National Center for Missing & Exploited Children, de Amerikaanse particuliere non-profitorganisatie voor kinderbescherming), als vergelijkingsmateriaal met de beelden op een telefoon. Volgens het bedrijf is het daarbij uitgesloten dat NCMEC-beelden vervolgens op de ‘verdachte’ telefoon terechtkomen.
In plaats van echte afbeeldingen gebruikt Apple onleesbare ‘hashes’ die op het apparaat zijn opgeslagen. Deze hashes zijn reeksen getallen die veel voorkomende kinderporno representeren. Het is onmogelijk deze hashes te lezen of om te zetten in ‘foute’ afbeeldingen. Volgens Apple heeft deze nieuwe toepassing van cryptografie belangrijke voordelen op bestaande technieken van andere bedrijven waarbij alle foto’s van gebruikers in de cloud worden gescand. Apple stelt dat de kans uiterst gering is dat onschuldige gebruikers door het systeem verdacht worden gemaakt.
De feature staat op het programma voor iOS15, de iPad-versie hiervan, watchOS 8 en macOS Monterey.