Pod pretekstem walki z pornografią kolejny gigant z branży IT zamierza naruszyć prywatność swoich klientów. Tym razem chodzi o Apple, które chce kontrolować zdjęcia zapisywane w iCloud. Pomysł już spotkał się z krytyką ekspertów.
Kontrola ma odbywać się automatycznie – ale tylko do czasu. Otóż nad prawością przesyłanych zdjęć czuwać ma system do wykrywania treści związanych z wykorzystywaniem seksualnym dzieci – CSAM (Children Sexual Abuse Material).
Algorytm porównuje zdjęcia z sygnaturami oznaczonymi jako zakazane i znakuje je w sposób niewidoczny dla użytkownika. Kiedy już na iClud znajdzie się zbyt wiele podejrzanych zdjęć, przejrzy je pracownik Apple, który – jeśli podejrzenia będą uzasadnione – powiadomi odpowiednie organy.
Eksperci krytykują CSAM i wskazują, że gigant w łatwy sposób od walki z pornografią może przejść do skanowania urządzeń użytkowników w poszukiwaniu innych, interesujących go treści. Tu może chodzić zarówno o inne przestępstwa, ale i polityczne wypowiedzi czy zwyczaje i upodobania. Takie rozwiązanie, w ocenie krytyków, jest przekraczaniem pewnych granic, a efektem tego będzie to, że rządy zaczną wymagać tego rodzaju praktyk od wszystkich. A to skończy się permanentną inwigilacją.
Źródło: rmf24.pl
MA