
W sercu europejskiej legislacji zaufanie do technologicznych gigantów ma swoje bardzo konkretne granice, zwłaszcza gdy w grę wchodzą poufne dokumenty i negocjacje, które nigdy nie powinny trafić na serwery zewnętrznych dostawców.
Chmura zamiast procesora. Dlaczego Parlament Europejski blokuje asystentów?
Decyzja, o której poinformowano w wewnętrznym e-mailu 16 lutego 2026 roku, uderza w funkcje, które dla wielu stały się już codziennością. Zablokowane zostały przede wszystkim wbudowane w systemy asystenty pisania, narzędzia do streszczania tekstów oraz zaawansowani asystenci wirtualni. Informatycy Parlamentu zauważyli niepokojący trend: wiele z tych narzędzi przesyła dane do chmury, by wykonać zadania, z którymi lokalny procesor tabletu czy telefonu poradziłby sobie bez problemu.
Ponieważ funkcje te stale ewoluują i stają się dostępne na większej liczbie urządzeń, pełny zakres danych udostępnianych dostawcom usług jest nadal oceniany. Do czasu pełnego wyjaśnienia tej kwestii uważa się za bezpieczniejsze pozostawienie takich funkcji wyłączonych – brzmi treść oficjalnego komunikatu.
Parlament obawia się, że dopóki nie zostanie precyzyjnie ustalone, co dokładnie dzieje się z treścią skanowanych dokumentów, ryzyko wycieku wrażliwych informacji jest zbyt duże. Co ciekawe, instytucja odmówiła sprecyzowania, które konkretnie systemy operacyjne (iOS, Android czy Windows) zostały objęte blokadą, zasłaniając się „wrażliwym charakterem” tych informacji.
Czytaj też: OxygenOS jeszcze lepszy. OnePlus odświeża system i aplikację Zdjęcia
Urzędnicy zostali również poproszeni o zachowanie podobnych środków ostrożności na swoich urządzeniach prywatnych, jeśli wykorzystują je do celów służbowych. Sugestia jest jasna: unikaj skanowania roboczych e-maili przez funkcje AI i dwa razy zastanów się, zanim nadasz nowej aplikacji dostęp do swoich plików.
Globalna krucjata przeciwko „niepewnej” sztucznej inteligencji
Ruch Parlamentu Europejskiego to tylko czubek góry lodowej w globalnym procesie ograniczania AI w administracji publicznej. Historia pokazuje, że nawet najwyżsi rangą urzędnicy ds. bezpieczeństwa miewają chwilę słabości, które kończą się skandalem. Przykładem z ubiegłego lata jest sprawa Madhu Gottumukkali, pełniącego wówczas obowiązki dyrektora amerykańskiej agencji CISA (odpowiedzialnej za obronę cybernetyczną USA).
Czytaj też: Xiaomi szykuje dużą aktualizację. Te modele mają dostać HyperOS 4 z Androidem 17
Gottumukkala został przyłapany na przesyłaniu wrażliwych dokumentów dotyczących kontraktów rządowych do publicznej wersji ChatGPT. Choć pliki nie były tajne, nosiły oznaczenie „wyłącznie do użytku służbowego”. Co gorsza, dyrektor sam wcześniej wnioskował o specjalne uprawnienia do korzystania z bota, mimo że narzędzie to było zablokowane dla reszty pracowników agencji właśnie ze względu na ryzyko gromadzenia danych przez OpenAI. Sprawa wyszła na jaw dopiero dzięki automatycznym sensorom bezpieczeństwa, co wywołało burzę w Departamencie Bezpieczeństwa Krajowego (DHS).
Czytaj też: iPhone 18 bez tacki na kartę SIM? Europa szykuje się na cyfrową rewolucję
Podobne obawy doprowadziły już wcześniej do zakazania chińskiego modelu DeepSeek na urządzeniach rządowych w takich krajach jak Włochy, Tajwan, Australia, Korea Południowa czy USA. Wszędzie tam argumentacja była identyczna: ochrona suwerenności danych i obawa przed szpiegostwem.