Apple chce skanować wszystkie treści dla dorosłych na iPhone’ach

Amerykańska firma Apple poinformowała w tym tygodniu o swoich planach stworzenia oprogramowania neuralMatch na iPhone’y, początkowo sprzedawane tylko w Ameryce, które będzie skanować wszystkie obrazy użytkowników w celu wykrycia nielegalnych treści z udziałem dzieci. Oprogramowanie ma być zainstalowane na wszystkich urządzeniach, bez względu na zgodę właściciela urządzenia.

'

O planach amerykańskiej firmy dotyczących nowej funkcji doniósł The Financial Times, który zwrócił uwagę, że zamiary Apple budzą wiele wątpliwości pośród osób i badaczy zajmujących się bezpieczeństwem i prywatnością. Taki rodzaj ingerencji w prywatność milionów osób, może z czasem doprowadzić do inwigilacji wszystkich urządzeń nie tylko pod względem treści dla dorosłych.

System neuralMatch, ma na celu za pomocą algorytmu sztucznej inteligencji monitorować i informować zespół osób odpowiedzialnych za weryfikację treści, o potencjalnie nielegalnych obrazach na iPhone’ach. W przypadku potwierdzenia, że wykryte treści mogą być nielegalne, zespół będzie kontaktować się z odpowiednimi organami ścigania.

Specjaliści od bezpieczeństwa są zaniepokojeni

Badacze bezpieczeństwa powiedzieli The Financial Times, że o ile mogą wspierać prace mające na celu zwalczanie przemocy wobec dzieci, to jednak są zaniepokojeni, że Apple ryzykuje umożliwienie rządom na całym świecie, otworzenie drzwi dostępu do prywatnych danych swoich obywateli. Z czasem dostęp do danych może rozszerzyć się o inne treści, niż pierwotnie tworzony jest system neuralMatch.

Ross Anderson, profesor inżynierii bezpieczeństwa na Uniwersytecie w Cambridge, nazwał neuralMatch – absolutnie przerażającym pomysłem, ponieważ doprowadzi to do rozproszonej masowej inwigilacji […] naszych telefonów i laptopów.

Naukowcy zwracają również uwagę, że – chociaż system jest obecnie przeszkolony w celu wykrycia wykorzystywania seksualnego dzieci, może być dostosowany do skanowania dla wszelkich innych ukierunkowanych obrazów i tekstów, na przykład, dekapitacji lub antyrządowych znaków na protestach.

Matthew Green, profesor bezpieczeństwa na Johns Hopkins University, ostrzegł przed możliwościami takiej technologii – To przerwie tamę – rządy zażądają tego od wszystkich.

System jaki chce wprowadzić Apple może stworzyć presję na inne firmy technologiczne do stworzenia podobnych technologii. Możliwość ciągłego skanowania zdjęć przechowywanych na iPhone’ach, początkowo tylko amerykańskich użytkowników, sprawi, że rządy będą chętniej współpracować z Applem, a inne firmy będą zmuszone zaoferować podobne rozwiązania, aby móc z nim konkurować na tej płaszczyźnie.

Algorytm oceniający wszystkie zdjęcia

To czy obraz na urządzeniu użytkownika iPhone’a jest legalny czy nie, będzie wpierw weryfikowane przez algorytm sztucznej inteligencji. Jak podał Apple, algorytm został przeszkolony przy pomocy 200 tysięcy zdjęć nadużyć seksualnych zebranych przez amerykańską organizację non-profit National Center for Missing and Exploited Children.

Każde zdjęcie na telefonach i przesłane do iCloud otrzyma oznaczenie, informujące o tym czy jest podejrzane czy nie. Jeżeli określona liczba zdjęć użytkownika zostanie oznaczona jako podejrzane, wówczas Apple umożliwi odszyfrowanie wszystkich podejrzanych treści danej osoby i jeżeli ludzki zespół uzna, że treści mogą być nielegalne, przekaże je do odpowiednich władz.

Co w przypadku błędnych weryfikacji?

Nie wiadomo jeszcze w jaki sposób cały system będzie zabezpieczony przed błędami lub tak zwanymi ‘fałszywymi pozytywami’, czyli kiedy treści legalne zostają uznane za materiały zawierające treści nielegalne. Nie wiadomo też, kto będzie odpowiedzialny za szkody jakie mogą ponieść użytkownicy w przypadku błędnych oskarżeń.

Kto oglądał film Polowanie z 2012 roku z Madsem Mikkelsenem w roli głównej, ten wie jak samo oskarżenie o pedofilię bez względu na to czy jest ono słuszne czy nie, potrafi całkowicie zniszczyć reputację i życie człowieka. Sytuacja przedstawiona w filmie nie odbiega bardzo od rzeczywistości.

Jednak najtrudniejszym pytaniem jest, czy system będzie faktycznie spełniał swój cel. Zaawansowani użytkownicy systemu iOS, osoby kładące duży nacisk na swoją prywatność, czy właśnie osoby, które świadomie przechowują nielegalne treści na swoich urządzeniach, będą poszukiwać sposobów na obejście systemu neuralMatch. A patrząc na analogiczne sytuacje, znalezienie obejścia nie powinno im zająć dużo czasu.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Dziękuję za pozostawienie komentarza. Proszę pamiętaj, że wszystkie komentarze są moderowane zgodnie z zasadami komentowania.

Aby wyświetlić twój komentarz, przetwarzamy Twoje następujące dane osobowe: imię, adres e-mail, numer IP. Podstawą przetwarzania danych Użytkownika w tym przypadku jest wykonywanie usługi na Twoją rzecz, tj. publikacji Twojego komentarza w Serwisie. Przetwarzanie Twoich danych zachodzi wyłącznie w celu publikacji komentarza. Twoje dane osobowe (oprócz adresu email i IP) są widoczne w publicznym Serwisie. Dane osobowe będą przetwarzane do dnia usunięcia komentarza przez Administratora lub przez Ciebie. Podanie danych osobowych jest dobrowolne, jednakże brak ich podania uniemożliwia publikację komentarza. Przysługuje Ci prawo żądania dostępu do treści danych osobowych, ich sprostowania, usunięcia oraz prawo do ograniczenia ich przetwarzania. Ponadto także prawo do przenoszenia danych oraz prawo do wniesienia sprzeciwu wobec przetwarzania danych osobowych. Administratorem danych osobowych jest ErotisNews, adres e-mail: erotisnews@erotisnwes.com. Posiadasz prawo wniesienia skargi do Prezesa Urzędu Ochrony Danych Osobowych. Dane osobowe będą przekazywane wyłącznie naszym zaufanym podwykonawcom, tj. dostawcom usług informatycznych.