Meta AI obnaża prywatność użytkowników. Jeden przycisk i twoje sekrety trafiają do internetu

Meta AI obnaża prywatność użytkowników. Jeden przycisk i twoje sekrety trafiają do internetu
fot. producenta

Meta zapowiadała nową erę interakcji z AI, czyli osobistego asystenta, który ma wspierać, doradzać i inspirować. W praktyce jednak użytkownicy nowej aplikacji Meta AI coraz częściej czują się, jakby wystąpili w reality show bez swojej wiedzy. Wszystko przez feralnie zaprojektowaną funkcję, która potrafi jednym kliknięciem zmienić prywatną rozmowę w publiczny post widoczny dla każdego internauty.

„Discover”, czyli prywatność na sprzedaż

W centrum zamieszania znajduje się zakładka „Discover”, która w założeniu miała prezentować inspirujące konwersacje z chatbotem. Problem w tym, że użytkownicy, często nieświadomi konsekwencji, publikują tam rozmowy o zdradach, problemach zdrowotnych czy rodzinnych dramatach. Niektóre czaty zawierają wręcz nazwiska, numery telefonów, a nawet adresy domowe.

Choć teoretycznie, aby udostępnić rozmowę, trzeba kliknąć przycisk „Share”, interfejs aplikacji nie ostrzega wystarczająco jasno przed skutkami tego działania. Brakuje wyraźnych komunikatów i ikon, a procedura publikacji jest tak uproszczona, że łatwo pomylić ją z opcją zapisu lub udostępnienia w chmurze.

Nieświadomi bohaterowie własnych dramatów

W sieci zaroiło się od przykładów pokazujących skalę problemu. Ktoś prosi AI o pomoc w wyznaniu romansu, inny opisuje intymne objawy chorobowe, szukając porady. Są też osoby, które dzielą się szczegółami postępowań sądowych, pytaniami o nielegalne działania członków rodziny, a nawet… próbami pisania CV z myślą o pracy w cyberbezpieczeństwie. Nie brakuje też nagrań audio, gdyż AI wspiera rozmowy głosowe, a niektóre z nich trafiają do feedu Discover. W rezultacie emocje, ton głosu i niekiedy łzy użytkowników stają się częścią treści dostępnych dla każdego.

Meta milczy, użytkownicy ostrzegają się nawzajem

Firma Meta jak dotąd nie przedstawiła oficjalnego stanowiska w tej sprawie. Tymczasem wśród użytkowników szerzy się oddolna akcja ostrzegawcza i osoby komentujące publiczne czaty często informują autorów, że ich rozmowy nie są prywatne. Zdarzają się także żarty, trollowanie i publikacje o charakterze prowokacyjnym, co dodatkowo obniża wiarygodność platformy.

Jak dotąd aplikacja Meta AI została pobrana ponad 6,5 miliona razy. To liczba wysoka dla start-upu, ale dla globalnego giganta, który wydał miliardy na rozwój AI, to wynik co najmniej rozczarowujący. Tym bardziej że rosnące kontrowersje mogą skutecznie zniechęcić nowych użytkowników.

Czy to jeszcze eksperyment, czy już zagrożenie?

Eksperci ds. prywatności i organizacje konsumenckie alarmują, że brak odpowiednio widocznych informacji o konsekwencjach publikacji rozmów to poważne naruszenie zasad bezpieczeństwa danych. Szczególnie niepokojące jest to w kontekście użytkowników z Unii Europejskiej, gdzie Meta od 27 maja 2025 roku zaczęła wykorzystywać dane do trenowania modeli AI, zakładając domyślną zgodę. W wielu przypadkach użytkownicy nawet nie wiedzą, że ich dane są analizowane lub udostępniane. Chyba, że samodzielnie zmienią ustawienia prywatności, a to wymaga nie tylko świadomości, ale i znajomości struktury aplikacji, która nie należy do najbardziej przejrzystych.

Mark Zuckerberg widzi przyszłość AI jako inteligentnego partnera społecznego, który ma wypełniać emocjonalne luki i być kimś więcej niż wyszukiwarką. Ale jeśli droga do tego celu prowadzi przez publiczne ujawnianie ludzkich dramatów i problemów, trudno nie postawić pytania: czy Meta faktycznie stawia na rozwój, czy raczej testuje granice ludzkiej prywatności?

W czasach, gdy technologia coraz głębiej ingeruje w życie codzienne, granica między wygodą a naruszeniem prywatności staje się coraz bardziej rozmyta. Meta AI zamiast być pomocnikiem, to staje się przestrogą. I to bardzo kosztowną, jeśli klikniesz nie ten przycisk, co trzeba.

Źródło: Neowin

Chcesz być na bieżąco? Śledź ROOTBLOG w Google News!