Apple argumentuje, że chce wspomóc zwalczanie rozpowszechniania obrazów przedstawiających wykorzystywanie dzieci. Firma zamierza za pomocą nowej aplikacji poszukiwać materiałów, które mogą sugerować wykorzystywanie seksualne dzieci. Aplikacja została oparta na 200 tysiącach zdjęć zebranych przez organizację non-profit Narodowe Centrum Dzieci Zaginionych i Wykorzystywanych.

Aplikacja po zeskanowaniu zdjęć i stwierdzeniu, że zdjęcie zgadza się z wzorcem ma przesyłać zawiadomienie do zespołu recenzentów z Narodowego Centrum Dzieci Zaginionych i Wykorzystywanych, który następnie ma skontaktować się z odpowiednimi służbami publicznymi.

Firma zapewnia, że wszystko odbywa się z zachowaniem prawa do prywatności. Jak zapewnia Apple ma on możliwość dowiedzenia się o materiałach jedynie gdzie znajdują się one na koncie iCloud Photos powiązanym z naszym urządzeniem. Takie podejście niektórzy odczytują jako odejście od dotychczasowej praktyki.

W porównaniu z innymi urządzeniami, produkty Apple mogły pochwalić się jednym z najlepszych szyfrowań od końca do końca. Można wręcz powiedzieć, że firma posiadała wiodącą pozycję w zakresie prywatności, jednak w związku z planowanymi zmianami może się to zmienić. Z całą pewnością z takiego rozwiązania mogą się ucieszyć agencje rządowe, ale już zwykli użytkownicy niekoniecznie.

W związku z wprowadzeniem tego rozwiązania Apple jeszcze bardziej pozbawia użytkowników urządzeń kontroli nad ich funkcjonalnościami. Jeszcze jeden problem na jaki zwracają uwagę eksperci to prywatyzacja sektora. Administracja publiczna może robić tylko to co jest dozwolone prawem, za to sektor prywatny może robić wszystko to co nie jest zabronione. Ważne by firmy prywatne w swoich działaniach nie kierowały się żądaniami administracji. W innym wypadku może dojść do wypaczenia prawa do rzetelnego procesu sądowego i prywatności, które są zagwarantowane w demokratycznych społeczeństwach.

Nowa aplikacja znajduje również wielu zwolenników, którzy wskazują, że dzięki niej zachowana jest równowaga pomiędzy prywatnością, a użytecznością publiczną. Jednocześnie aplikacja ma zapewnić minimalizację fałszywych alarmów.

Chęć pomocy w rozwiązaniu poważnego problemu jakim jest wykorzystywanie dzieci nie ochroni Apple przed dyskusją czy nowe rozwiązanie nie idzie jednak zbyt daleko.

Źródło: https://iapp.org/news/a/apples-plan-to-combat-abuse-images-raises-privacy-concerns/