Apple w obronie prywatności. Chodzi o aplikacje i przetwarzanie danych
Apple właśnie zmieniło zasady w App Store. Nowe wytyczne wymagają od twórców aplikacji jasnego informowania użytkowników, gdy ich dane trafiają do zewnętrznych usług sztucznej inteligencji — i uzyskania na to zgody.
Prywatność kontra innowacja
W czwartek Apple ogłosiło aktualizację App Review Guidelines (czyli wytycznych dotyczących weryfikacji aplikacji), przygotowując grunt pod odświeżoną Siri w 2026 roku. Asystent głosowy ma korzystać z Google Gemini AI, aby wykonywać działania w różnych aplikacjach na urządzeniu. W tym samym czasie Apple zaostrza przepisy wobec innych twórców, podkreślając swoje przywiązanie do ochrony prywatności.
Najważniejsza zmiana dotyczy punktu 5.1.2(i). Do dotychczasowego obowiązku informowania o udostępnianiu danych dodano kluczowe doprecyzowanie: aplikacje muszą jasno wskazać, kiedy dane trafiają do zewnętrznych usług AI, i uzyskać wyraźną zgodę użytkownika. To pierwszy raz, gdy Apple wprost wymienia firmy AI w swoich regulacjach.
Nowe zasady obejmą aplikacje korzystające z modeli językowych, analizy w chmurze czy algorytmów uczenia maszynowego. Problemem pozostaje jednak definicja — Apple nie sprecyzowało, które technologie dokładnie podlegają tym wymogom. Może to oznaczać zarówno rozbudowane systemy AI, jak i proste funkcje działające lokalnie.
Konsekwencje tych zmian są dość znaczące. Aplikacje, które nie dostosują się do wytycznych, mogą zostać usunięte ze sklepu. Dzięki temu Apple wzmacnia zgodność z regulacjami takimi jak RODO w Europie (i EU AI Act) czy CCPA w Kalifornii.
Oprócz zmian związanych z AI, firma zaktualizowała też zasady dla programu Mini Apps, aplikacji twórców i pożyczkowych, a także dodała giełdy kryptowalut do listy branż podlegających szczególnej kontroli.