Dark patterns – zwodnicze wzorce projektowe a prywatność
Dark patterns (zwodnicze wzorce projektowe) to parasolowe pojęcie obejmujące różnorodne praktyki stosowane w interfejsach cyfrowych, które prowadzą użytkowników do podejmowania decyzji niezgodnych z ich rzeczywistym interesem lub intencją.
Czym są dark patterns?
Termin został wprowadzony w 2010 roku przez projektanta Harry’ego Brignulla i odnosi się do elementów projektowych, które w sposób subtelny, lecz systematyczny, wpływają na zachowanie użytkownika – najczęściej z korzyścią dla dostawcy usługi, kosztem autonomii, prywatności lub kontroli nad danymi. W praktyce dark patterns często pojawiają się w kontekście zgód cookies, rejestracji kont, personalizacji reklam oraz realizacji praw wynikających z RODO.
Dark patterns mogą występować m.in. w:
- interfejsach platform mediów społecznościowych,
- banerach cookies,
- sklepach internetowych,
- aplikacjach mobilnych,
- grach wideo i systemach mikropłatności,
- formularzach rejestracyjnych i newsletterach.
W kontekście ochrony danych osobowych są one szczególnie problematyczne, ponieważ mogą prowadzić do:
- nieświadomego udostępniania nadmiernej ilości danych,
- wyrażenia zgody bez realnej swobody wyboru,
- przyznania niepotrzebnych uprawnień,
- utrudnień w realizacji praw wynikających z RODO (np. cofnięcia zgody, usunięcia konta).
Jak grupujemy dark patterns związane z prywatnością?
Materiały źródłowe wskazują wiele kategorii dark patterns, z których część nakłada się znaczeniowo. Poniżej zastosowano uproszczony, funkcjonalny podział, skupiony na skutku dla użytkownika i ochrony danych. Zestawienie nie stanowi zamkniętego katalogu, a ocena legalności zawsze wymaga analizy konkretnego przypadku.
Wymuszanie decyzji (forced action)
Na czym polega: użytkownik nie ma realnej możliwości skorzystania z usługi bez podjęcia określonej akcji – najczęściej rejestracji lub wyrażenia zgody na szerokie przetwarzanie danych.
Przykłady:
- Brak przycisku „Odrzuć” w banerze cookies.
- Komunikat: „Korzystając z tej strony, zgadzasz się na Politykę Prywatności” – bez alternatywy.
- Komunikat: „Zarejestruj konto, żeby sfinalizować zakup produktu” (wymuszona rejestracja konta).
Ukrywanie informacji i ustawień
Na czym polega: informacje o przetwarzaniu danych lub ustawienia prywatności są trudne do znalezienia, rozproszone lub dostępne dopiero po wykonaniu wielu czynności.
Przykłady:
- Przy rejestracji użytkownik dostaje link do Polityki Prywatności, ale na stronie docelowej dokument nie jest widoczny – trzeba go odszukać w dodatkowych treściach.
- W polityce prywatności konkretne informacje nie znajdują się tam, gdzie przeciętny użytkownik spodziewa się je znaleźć, albo są rozproszone po kilku dokumentach.
- Ustawienie cofnięcia zgody marketingowej istnieje, ale jest schowane w: Ustawienia konta → Preferencje → Komunikacja → Partnerzy → „Zarządzaj” → dopiero tam lista kilkunastu przełączników – bez „cofnij wszystko” i bez wyjaśnienia skutków.
Domyślnie bardziej inwazyjne ustawienia prywatności
Na czym polega: opcje najbardziej ingerujące w prywatność są ustawione domyślnie, a użytkownik musi aktywnie je zmienić, aby ograniczyć przetwarzanie danych.
Przykłady:
- Domyślnie zaznaczona zgoda marketingowa przy rejestracji.
- Przy podaniu daty urodzenia są trzy opcje udostępnienia, ale domyślnie zaznaczona jest opcja „dla wszystkich”.
- Automatycznie włączona personalizacja reklam.
Mylący język i dezinformacja
Na czym polega: stosowanie niejednoznacznych, sprzecznych lub manipulacyjnych sformułowań, które utrudniają zrozumienie skutków decyzji.
Przykłady:
- Podwójne zaprzeczenia: „Nie odznaczaj tego pola, jeśli nie chcesz przestać otrzymywać ważnych informacji od nas”.
- Przyciski „OK” zamiast jednoznacznego „Akceptuj”.
- Ogólne stwierdzenia typu: „Twoje dane mogą zostać użyte do ulepszania usług” bez wyjaśnienia, jakie dane, do jakich celów i jak.
Wpływanie na emocje
Na czym polega: presja emocjonalna poprzez język, grafikę, kolorystykę lub treść, aby skłonić użytkownika do bardziej inwazyjnych wyborów.
Przykłady:
- Komunikat przy wypisie z newslettera w stylu: „Jest nam smutno, że chcesz się wypisać”.
- Gdy przy zapytaniu o zapis na newsletter pojawiają się dwie opcje, z których jedna jest przedstawiona pozytywnie a druga negatywnie: 1. „Zapisuję się! Chcę wiedzieć, kiedy oszczędzam!” 2. „Nie, dziękuję, wolę płacić pełną kwotę”.
- Pop-up zachęcający do podania dodatkowych, niekoniecznie niezbędnych do wykonania usługi danych: „Chcemy poznać cię lepiej! Nie możemy się doczekać, więc nie zwlekaj i opowiedz nam o sobie!”
- „Włącz personalizację, żebyśmy mogli zapewnić Ci najlepsze doświadczenie” + przycisk „Włącz” duży, a odmowa jako mały link „Pomiń” (bez informacji, że chodzi np. o profilowanie reklam).
Utrudnione wycofanie się (asymetria – easy in, hard out, roach motel)
Na czym polega: rejestracja lub wyrażenie zgody jest proste, natomiast rezygnacja, cofnięcie zgody lub usunięcie konta – istotnie utrudnione.
Przykłady:
- Brak opcji usunięcia konta w ustawieniach.
- Wymóg kontaktu telefonicznego z obsługą klienta.
- Wieloetapowe procedury anulowania subskrypcji.
Ciągłe nakłanianie (repeated prompting)
Na czym polega: wielokrotne powtarzanie próśb o zgodę lub dane w celu „zmęczenia” użytkownika i skłonienia go do zmiany pierwotnej decyzji.
Przykłady:
- Pop-up newslettera wraca cyklicznie mimo zamknięcia.
- Pop-up z prośbą o podanie konkretnej danej (np. Numeru telefonu) pojawia się przy każdym logowaniu, dopóki użytkownik go nie poda.
- Zamknięcie okna skutkuje tylko opcją „Przypomnimy później”, bez „Nigdy nie pytaj ponownie”.
Przeciążenie wyborem
Na czym polega: przedstawienie zbyt wielu opcji lub ustawień w sposób, który utrudnia świadomy wybór.
Przykłady:
- Rozbudowane panele cookies bez wyjaśnień.
- Kilkanaście równorzędnych opcji bez wskazania skutków.
- Brak informacji pomocniczych (np. co oznacza dana kategoria cookies, jak długo działa, kto jest odbiorcą).
Pozostawianie w niewiedzy
Na czym polega: przekazywanie informacji w sposób niejasny, zbyt ogólny lub w języku niedostosowanym do użytkownika.
Przykłady:
- Platforma jest dostępna po chorwacku lub hiszpańsku, a kluczowe informacje o ochronie danych są wyłącznie po angielsku.
- Strony pomocy automatycznie przełączają język na język kraju pobytu, mimo wcześniejszego wyboru innego języka.
- Zdanie w Polityce Prywatności brzmiące: „Twoje dane mogą zostać wykorzystane do ulepszenia naszych usług” – bez doprecyzowania, jakie dane i jak będą wykorzystywane.
Odwracanie uwagi (distraction)
Na czym polega:
Elementy związane z prywatnością są zestawione z czymś innym (często pilnym/atrakcyjnym), przez co użytkownik traci koncentrację i podejmuje decyzję „po drodze”, zamiast świadomie ustawić preferencje.
Przykłady:
- W banerze cookies obok opcji zarządzania zgodami jest duży przycisk „Kontynuuj / Przejdź dalej”, a ustawienia cookies są linkiem „Dowiedz się więcej” (użytkownik klika „dalej”, żeby zamknąć przeszkodę).
- Okno ustawień prywatności wyświetla się jednocześnie z prośbą o zgodę na powiadomienia: użytkownik klika „Zezwól”, bo myśli, że to konieczne do korzystania z serwisu.
- W aplikacji mobilnej ekran prosi o geolokalizację „dla lepszych rekomendacji”, a równocześnie pokazuje komunikat o „nowych funkcjach” – przycisk „Włącz” jest jedynym wyraźnym znakiem na ekranie.
Ślepy zaułek (dead end)
Na czym polega: użytkownik szuka informacji lub kontroli (np. usunięcia konta), ale ścieżka kończy się brakiem możliwości działania: link nie działa, opcja nie istnieje, albo prowadzi do strony pomocy bez rozwiązania.
Przykłady:
- W ustawieniach jest pozycja „Usuń konto”, ale kliknięcie prowadzi do artykułu pomocy typu „Skontaktuj się z nami” bez formularza lub z formularzem, który nie działa.
- Link „Zarządzaj zgodą” w stopce prowadzi do strony 404 albo do ogólnej polityki prywatności bez panelu ustawień.
- Użytkownik chce cofnąć zgodę marketingową – jest przełącznik, ale po zapisaniu ustawień wracają one do poprzedniego stanu (brak efektu działania, brak komunikatu).
Czy dark patterns są nielegalne?
Dark patterns to przede wszystkim praktyki nieuczciwe i nierzetelne wobec użytkownika i jego prywatności. Wiele z nich może być również uznane za niezgodne z prawem na podstawie różnych regulacji, w szczególności:
- RODO – zasady rzetelności, przejrzystości i minimalizacji danych (art. 5), warunki zgody (art. 4 i 7), obowiązki ułatwiania wykonywania praw (art. 12–22).
- Digital Services Act (DSA) – zakaz projektowania interfejsów platform internetowych w sposób wprowadzający w błąd lub manipulujący użytkownikami (art. 25 ust. 2).
- Dyrektywa ePrivacy (2002/58/WE) – m.in. zgoda na cookies i podobne technologie (art. 5 ust. 3) oraz zasady marketingu bezpośredniego w kanałach elektronicznych (art. 13).
W praktyce, jeżeli manipulacja interfejsem dotyczy np. zgody na przetwarzanie danych, jej legalność będzie oceniana przede wszystkim przez pryzmat RODO (a w obszarach cookies często także ePrivacy), niezależnie od tego, że DSA zawiera ogólny zakaz dark patterns dla platform.
W UE pojawiały się już decyzje, kary lub formalne działania odnoszące się do mechanizmów określanych jako dark patterns, m.in.: w 2024 roku polski UOKIK nałożył karę ponad 31 mln zł dla Amazon m.in. za praktyki określone jako dark patterns (presja licznikiem czasu w warunkach braku gwarancji dostawy) a Komisja Europejska wydała wstępne ustalenia wobec platformy X dotyczące dark patterns i przejrzystości reklam (DSA).
W lutym 2026 r. Komisja Europejska przedstawiła wstępne ustalenia, zgodnie z którymi TikTok może naruszać DSA ze względu na „addictive design” (m.in. infinite scroll, autoplay, powiadomienia push i silnie spersonalizowany system rekomendacji).
Dodatkowo, na poziomie UE trwają prace nad inicjatywą Digital Fairness Act, której zapowiadany zakres obejmuje m.in. dark patterns, addictive design i nieuczciwą personalizację
Dla użytkownika – jak się chronić?
- Czytać polityki prywatności i komunikaty zgód.
- Zwracać uwagę na brak realnych alternatyw (np. brak „Odrzuć”).
- Regularnie przeglądać uprawnienia i ustawienia.
- Korzystać z narzędzi prywatności (np. ustawienia przeglądarki, rozszerzenia).
- Zgłaszać nieuczciwe praktyki do regulatorów.
Dla przedsiębiorcy – dobre praktyki
- Projektowanie interfejsów zgodnie z zasadami privacy by design oraz privacy by default.
- Symetryczne procesy: łatwo wyrazić zgodę – łatwo ją cofnąć.
- Jasny, prosty język i logiczna struktura informacji.
- Regularne audyty UX (doświadczenie użytkowników) oraz zgodności z RODO.
- Współpraca z ekspertami ds. ochrony danych na etapie projektowania, nie po wdrożeniu.
Powyższy artykuł dotyczy polskiego porządku prawnego i jest oparty o stan prawny, aktualne orzecznictwo oraz praktykę stosowaną w momencie publikacji artykułu. Zakres i sposób przetwarzania danych osobowych w ramach rekrutacji i stosunku pracy może się różnić pomiędzy krajami i jest uzależniony od lokalnych przepisów prawa na terytorium danego państwa.
Źródła i więcej informacji:
Akt o usługach cyfrowych (DSA), https://eur-lex.europa.eu/eli/reg/2022/2065
E-Privacy (Dyrektywa o prywatności i łączności elektronicznej, Dyrektywa 2002/58/WE Parlamentu Europejskiego i Rady z 12 lipca 2002 r. dotycząca przetwarzania danych osobowych i ochrony prywatności w sektorze łączności elektronicznej)
Dark Commercial Patterns, OECD, No. 336, October 2022, https://www.oecd.org/en/publications/dark-commercial-patterns_44f5e846-en.html
Wytyczne 03/2022 dotyczące zwodniczych wzorców projektowych w interfejsach platform mediów społecznościowych: sposoby ich rozpoznawania i unikania, EROD, Luty 2023, https://www.edpb.europa.eu/our-work-tools/our-documents/guidelines/guidelines-032022-deceptive-design-patterns-social-media_en
31 mln zł kary dla Amazon, Urząd Ochrony Konkurencji i Konsumentów (UOKiK), Marzec 2024, https://uokik.gov.pl/31-mln-zl-kary-dla-amazon
Commission preliminary finds TikTok’s addictive design in breach of the Digital Services Act, Komisja Europejska, Luty 2026, https://digital-strategy.ec.europa.eu/en/news/commission-preliminarily-finds-tiktoks-addictive-design-breach-digital-services-act
Digital Fairness Act – Legislative Train Schedule, Parlament Europejski, styczeń 2026, https://www.europarl.europa.eu/legislative-train/theme-protecting-our-democracy-upholding-our-values/file-digital-fairness-act
Komisja przesyła X wstępne ustalenia dotyczące naruszenia aktu o usługach, Komisja Europejska, Lipiec 2024, https://ec.europa.eu/commission/presscorner/detail/pl/ip_24_3761