Narzędzia oparte na sztucznej inteligencji, które „rozbierają” osoby na zdjęciach, generując fałszywe, lecz realistyczne nagie wizerunki, stają się coraz popularniejsze i budzą poważne obawy o prywatność, bezpieczeństwo oraz etykę.
Te aplikacje, określane jako nudifiers lub undress AI, wykorzystują modele generatywne do manipulacji zdjęciami, co otwiera drogę do nadużyć na masową skalę – od szantażu po dezinformację.
Jak działają programy do rozbierania zdjęć?
Mechanizm opiera się na technologiach deepfake oraz głębokiego uczenia. Algorytmy segmentują sylwetkę, rozpoznają ubrania i syntetyzują brakujące fragmenty ciała, wypełniając obraz szczegółami przypominającymi skórę, światło i tekstury.
Proces bywa skrajnie prosty z perspektywy użytkownika – wystarczy wgrać zdjęcie, a system automatycznie generuje nowy, sfabrykowany kadr. Niektóre rozwiązania pozwalają dodatkowo modyfikować styl czy poziom „realizmu”.
W materiałach promocyjnych pojawiają się obietnice „jednego kliknięcia” i „realistycznych efektów”. Przykłady marek, o których głośno w dyskusjach publicznych: SoftOrbits AI Photo Editor, ClothOff, narzędzia pokrewne do edycji obrazów oferowane przez platformy kreatywne oraz aplikacje mobilne. Jak reklamują się niektóre z nich:
„wysokiej jakości, realistyczne wyniki”
„zdjąć ubrania z każdej dziewczyny”
Niektóre produkty deklarują także funkcje związane z wideo, wirtualnym przymierzaniem czy edycją ubrań. Efekty bywają na tyle przekonujące, że bez specjalistycznych narzędzi detekcyjnych odróżnienie fałszywki od oryginału jest wyjątkowo trudne.
Rosnąca popularność i skala zjawiska
Zainteresowanie rośnie lawinowo. Badanie firmy Graphika wskazuje na 24 miliony wizyt w samym wrześniu 2023 r. na stronach oferujących takie usługi, a na Telegramie działają liczne społeczności liczące setki tysięcy i miliony użytkowników.
Trend zapoczątkowany aplikacjami pokroju DeepNude (2019 r.) przekształcił się w setki klonów i naśladowców. Większość narzędzi jest kierowana do „rozbierania” kobiet, choć technologia bywa neutralna płciowo.
Najważniejsze liczby podkreślające skalę zjawiska:
- ponad 24 mln wizyt miesięcznie na stronach nudifiers,
- 53 grupy na Telegramie liczące ponad 1 mln użytkowników każda,
- dynamiczny wzrost od 2023 r. i proliferacja tysięcy aplikacji.
Zagrożenia etyczne, prawne i społeczne
Nadużycia i naruszenia prywatności
Największym ryzykiem jest tworzenie treści bez zgody osób przedstawionych. Wystarczy zdjęcie z mediów społecznościowych, aby wygenerować fałszywe nagości, co napędza nękanie, szantaż, „revenge porn” oraz wtórną wiktymizację. Badania wskazują, że zdecydowana większość pornografii deepfake dotyczy kobiet, co pogłębia nierówności i przemoc w sieci.
Ciemna strona AI i deepfake
To ewolucja deepfake’ów: od podmiany twarzy do hiperrealistycznej rekonstrukcji ciała. Łatwy dostęp i darmowe wersje obniżają barierę wejścia, co demokratyzuje zarazem tworzenie i rozprzestrzenianie szkodliwych treści.
Dane statystyczne w kontekście ryzyka
Im większa skala, tym większe pole do nadużyć – od ataków na prywatność po kampanie dezinformacyjne z udziałem celebrytów, polityków czy zwykłych użytkowników.
Aspekty prawne i reakcje regulacyjne
Nie istnieje jednolite, globalne prawo zakazujące samego tworzenia takich treści z udziałem dorosłych. Dystrybucja bez zgody może jednak naruszać dobra osobiste, prywatność i RODO, a w przypadku nieletnich stanowi przestępstwo. W UE trwają prace nad AI Act, który obejmuje wymogi transparentności i oznaczania treści syntetycznych.
Firmy deklarują procedury usuwania danych i treści, lecz brak skutecznej weryfikacji wieku oraz zgody podważa realną egzekwowalność zasad. Platformy społecznościowe i komunikatory nie zawsze reagują sprawnie na zgłoszenia.
Poniższa tabela syntetyzuje kluczowe wątki prawne:
| Aspekt | Aktualny status prawny | Przykłady |
|---|---|---|
| Tworzenie treści | dla dorosłych co do zasady dozwolone, dla dzieci zakazane | brak ogólnego zakazu w PL/UE; wyjątki: ochrona wizerunku, dzieci |
| Dystrybucja | może naruszać prywatność, dobra osobiste i RODO | pozwy cywilne, odpowiedzialność za „revenge porn”, sankcje administracyjne |
| Platformy | obowiązki moderacji rosną, lecz egzekucja bywa nieskuteczna | masowe grupy udostępniające narzędzia i treści mimo zgłoszeń |
Wpływ na biznes, technologię i internet
Dla biznesu to szara strefa monetyzowana przez subskrypcje i mikropłatności, co może generować znaczące przychody, ale poważnie obciąża reputację marek oraz partnerów technologicznych.
W ekosystemie internetowym rośnie ryzyko dezinformacji i spadek zaufania do obrazu jako dowodu. To wymusza inwestycje w detektory deepfake, znakowanie treści i mechanizmy weryfikacji źródeł.
Odpowiedzialność i dylematy etyczne
Twórcy narzędzi podkreślają „prywatność” i deklarują usuwanie plików po przetworzeniu, jednak brak transparentności datasetów i stronniczość płciowa oraz rasowa w danych treningowych pogłębiają szkody społeczne.
Główny dylemat brzmi: czy AI powinna umożliwiać funkcje, które tak łatwo prowadzą do naruszeń godności i praw człowieka, gdy istnieją alternatywy o pozytywnym wpływie (np. wirtualna moda, retusz zgodny z etyką)?
Jak się chronić? Rekomendacje dla użytkowników i firm
Poniższe, praktyczne wskazówki pomagają ograniczyć ryzyko nadużyć:
- Użytkownicy – ograniczaj publiczny dostęp do swoich zdjęć, korzystaj z narzędzi do weryfikacji manipulacji obrazem (np. detekcji deepfake), bezzwłocznie zgłaszaj nadużycia i proś o usunięcie treści;
- Firmy – wdrażaj filtry i klasyfikatory AI, polityki „content provenance” (znakowanie pochodzenia), procedury reagowania i szkolenia z bezpieczeństwa cyfrowego;
- Platformy i regulatorzy – egzekwuj zasady „consent by design”, wspieraj AI Act oraz obowiązkowe oznaczanie treści syntetycznych.






