7 czerwca 2023

Apple chce zatrzeć granicę między „cyber” a „real”. I jeszcze lepiej nas szpiegować?

(fot. Twitter.com / Tim Cook)

Apple Vision Pro, nowe gogle do rzeczywistości rozszerzonej (augmented reality) pozwalają „płynnie łączyć cyfrowe treści z przestrzenią fizyczną”. Pozwalają również, a czego nie mówią nam atrakcyjne reklamy, dzięki sieci czujników, jeszcze lepiej monitorować aktywność niektórych organów, skanować pomieszczenia oraz przewidywać zachowania użytkowników. I gromadzić te informacje w tylko sobie znanym celu.

„Witamy w erze cyfryzacji przestrzennej [ang. spatial computing – red.]. Apple Vision Pro płynnie łączy treści cyfrowe z fizyczną przestrzenią wokół Ciebie. Nawigujesz wyłącznie za pomocą oczu, rąk i głosu. Możesz więc robić rzeczy, które kochasz, w sposób, który nigdy wcześniej nie był możliwy” – czytamy w opisie gogli, mających jeszcze bardziej zatrzeć granicę między rzeczywistością a przestrzenią cyfrową.

Urządzenie stanowi nowy element hardware’u, pozwalającego poruszać się w tzw. rzeczywistości rozszerzonej. Produkt Apple, poprzez korzystanie z najnowszych osiągnięć technologii VR (rzeczywistości wirtualnej), ma zapewniać doznania na najwyższym poziomie immersji; czy będzie to oglądanie filmów i zdjęć, słuchanie muzyki, czy połączenia audio-wideo z innymi użytkownikami.

Interfejs kontrolowany jest za pomocą komend głosowych, ruchu palców, a nawet gałek ocznych. Z kolei operatywność zapewnia sieć mikrofonów i czujników monitorujących aktywność poszczególnych części ciała, przesyłających uzyskane informacje urządzeniu sterującemu.

Na szczególną uwagę zasługuje przestrzenny system audio. System mierzy geometrię uszu i głowy za pomocą kamery głębinowej i na tej podstawie tworzy osobisty profil. Analizuje również właściwości akustyczne pomieszczenia, włącznie z materiałem obiektów fizycznych. A kiedy dźwięk jest odtwarzany, wykorzystuje tzw. ray tracing.

„Co to wszystko znaczy? Wyobraź sobie, że jesteś na łonie natury i słyszysz ćwierkanie ptaka po lewej stronie. Fale dźwiękowe, które wydaje ptak, rozchodzą się we wszystkich kierunkach, odbijając się od drzew, trawy, twojego ciała i ostatecznie docierają do twoich uszu. Niektóre z tych obiektów tłumią dźwięk, inne go odbijają, jeszcze inne zakrzywiają dźwięk. Dźwięk dociera do każdego z uszu w nieco innym czasie. Następnie dźwięk odbija się echem od unikalnego kształtu twoich uszu, który zmienia ton, a wszystko to pozwala twojemu mózgowi wiedzieć, z którego kierunku dobiegło ćwierkanie ptaka, a także co jeszcze znajduje się w twoim otoczeniu (…) Podczas rozmowy twarzą w twarz wydaje się, że ludzie rozmawiają bezpośrednio z miejsca, w którym się znajdują. Brzmi to jak oczywista i prosta funkcja, ale nie można tego w pełni docenić bez autentycznego doświadczenia” – przekonuje Sterling Cyrspin, ekspert ds. neurotechnologii i jeden z głównych inżynierów projektu Vision Pro.

Cyrspin przekonuje, że produkt Apple to coś więcej niż kolejna komercyjna zabawka. Vision Pro ma stanowić kulminację 10-letniej pracy całej branży VR, zwłaszcza w kontekście rozwoju technologii skanujących aktywność mózgu i przewidującej zachowania użytkowników.

„Na przykład przewidywanie, że klikniesz na coś, zanim to zrobisz, czyli w zasadzie czytanie w myślach” – tłumaczy ekspert. „Znaczna część pracy, którą wykonywałem polegała na wykrywaniu stanu psychicznego użytkowników na podstawie danych z ich ciała i mózgu, w trakcie immersyjnych doświadczeń” – pisze.

W jego ocenie, kiedy użytkownik znajduje się w rzeczywistości mieszanej lub rzeczywistości wirtualnej, sztuczna inteligencja jest w stanie przewidzieć stopień zaciekawienia, znudzenia, strachu, a nawet czy w danym momencie „błądzi myślami”. AI tworzy odpowiednie modele na podstawie pomiarów takich jak śledzenie wzroku, aktywność elektryczna w mózgu, bicie i rytm serca, aktywność mięśni, gęstość krwi w mózgu czy ciśnienie.

Na tej podstawie może również, z dużą dozą prawdopodobieństwa przewidywać określone zachowania. „Możesz tworzyć biologiczne sprzężenie zwrotne z mózgiem użytkownika, monitorując zachowanie jego oczu i przeprojektowując interfejs użytkownika w czasie rzeczywistym, aby uzyskać więcej przewidywalnej reakcji źrenicy” – tłumaczy Cyrspin. Choć jego zdaniem to dość „prymitywny przykład interfejsu mózg-komputer”, jest o wiele bezpieczniejszy niż inwazyjne metody instalacji mikrochipów wewnątrz mózgu.

Odpowiednie pomiary mają również służyć „ulepszeniu” doświadczeń otrzymywanych w kontakcie z rzeczywistością rozszerzoną. „Wyobraź sobie adaptacyjne i immersyjne środowisko, które pomaga Ci się uczyć, pracować lub relaksować, zmieniając to, co widzisz i słyszysz w tle” – przekonuje.

Oprócz oczywistych zagrożeń związanych z przekierowaniem coraz większego zakresu aktywności życiowej co cyberprzestrzeni, powstaje pytanie dotyczące bezpieczeństwa gigantycznych ilości danych biometrycznych pozyskiwanych przez urządzenie. Apple przekonuje, że dane z kamer i czujników są przetwarzane na poziomie systemu wewnętrznego, więc poszczególne aplikacje wykorzystywane podczas obecności w AR nie mają do nich dostępu.

Z kolei dane wprowadzane za pomocą wzroku, zdaniem koncernu „nie są udostępniane Apple, aplikacjom ani witrynom innych firm”. A jak uczą liczne przykłady wycieku danych, czy przekazywania ich osobom trzecim przez gigantów BigTech, do podobnych deklaracji należy podchodzić wyjątkowo ostrożnie. Zwłaszcza gdy mówimy o systemie, który żeruje na obrocie informacją i coraz większej izolacji społecznej.

Źródło: Twitter.com / apple.com

PR

Avatar dla każdego. Klaus Schwab wrzuca nas do Metaverse

Przedpremierowy dostęp do serialu “Władcy świata”! Sprawdź jak go uzyskać!

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij

Udostępnij przez

Cel na 2025 rok

Po osiągnięciu celu na 2024 rok nie zwalniamy tempa! Zainwestuj w rozwój PCh24.pl w roku 2025!

mamy: 32 351 zł cel: 500 000 zł
6%
wybierz kwotę:
Wspieram