Kobieta pokrywa się i programuje z bólem głowy lub wypaleniem z danymi informacyjnymi i systemem Kobieta programistka ból głowy i stres z deadline nadgodziny i projekt dla kodowania lub bezpieczeństwa cybernetycznego

Program do rozbierania zdjęć – zagrożenia technologii deepfake i AI

5 min. czytania

Narzędzia oparte na sztucznej inteligencji, które „rozbierają” osoby na zdjęciach, generując fałszywe, lecz realistyczne nagie wizerunki, stają się coraz popularniejsze i budzą poważne obawy o prywatność, bezpieczeństwo oraz etykę.

Te aplikacje, określane jako nudifiers lub undress AI, wykorzystują modele generatywne do manipulacji zdjęciami, co otwiera drogę do nadużyć na masową skalę – od szantażu po dezinformację.

Jak działają programy do rozbierania zdjęć?

Mechanizm opiera się na technologiach deepfake oraz głębokiego uczenia. Algorytmy segmentują sylwetkę, rozpoznają ubrania i syntetyzują brakujące fragmenty ciała, wypełniając obraz szczegółami przypominającymi skórę, światło i tekstury.

Proces bywa skrajnie prosty z perspektywy użytkownika – wystarczy wgrać zdjęcie, a system automatycznie generuje nowy, sfabrykowany kadr. Niektóre rozwiązania pozwalają dodatkowo modyfikować styl czy poziom „realizmu”.

W materiałach promocyjnych pojawiają się obietnice „jednego kliknięcia” i „realistycznych efektów”. Przykłady marek, o których głośno w dyskusjach publicznych: SoftOrbits AI Photo Editor, ClothOff, narzędzia pokrewne do edycji obrazów oferowane przez platformy kreatywne oraz aplikacje mobilne. Jak reklamują się niektóre z nich:

„wysokiej jakości, realistyczne wyniki”

„zdjąć ubrania z każdej dziewczyny”

Niektóre produkty deklarują także funkcje związane z wideo, wirtualnym przymierzaniem czy edycją ubrań. Efekty bywają na tyle przekonujące, że bez specjalistycznych narzędzi detekcyjnych odróżnienie fałszywki od oryginału jest wyjątkowo trudne.

Rosnąca popularność i skala zjawiska

Zainteresowanie rośnie lawinowo. Badanie firmy Graphika wskazuje na 24 miliony wizyt w samym wrześniu 2023 r. na stronach oferujących takie usługi, a na Telegramie działają liczne społeczności liczące setki tysięcy i miliony użytkowników.

Trend zapoczątkowany aplikacjami pokroju DeepNude (2019 r.) przekształcił się w setki klonów i naśladowców. Większość narzędzi jest kierowana do „rozbierania” kobiet, choć technologia bywa neutralna płciowo.

Najważniejsze liczby podkreślające skalę zjawiska:

  • ponad 24 mln wizyt miesięcznie na stronach nudifiers,
  • 53 grupy na Telegramie liczące ponad 1 mln użytkowników każda,
  • dynamiczny wzrost od 2023 r. i proliferacja tysięcy aplikacji.

Zagrożenia etyczne, prawne i społeczne

Nadużycia i naruszenia prywatności

Największym ryzykiem jest tworzenie treści bez zgody osób przedstawionych. Wystarczy zdjęcie z mediów społecznościowych, aby wygenerować fałszywe nagości, co napędza nękanie, szantaż, „revenge porn” oraz wtórną wiktymizację. Badania wskazują, że zdecydowana większość pornografii deepfake dotyczy kobiet, co pogłębia nierówności i przemoc w sieci.

Ciemna strona AI i deepfake

To ewolucja deepfake’ów: od podmiany twarzy do hiperrealistycznej rekonstrukcji ciała. Łatwy dostęp i darmowe wersje obniżają barierę wejścia, co demokratyzuje zarazem tworzenie i rozprzestrzenianie szkodliwych treści.

Dane statystyczne w kontekście ryzyka

Im większa skala, tym większe pole do nadużyć – od ataków na prywatność po kampanie dezinformacyjne z udziałem celebrytów, polityków czy zwykłych użytkowników.

Aspekty prawne i reakcje regulacyjne

Nie istnieje jednolite, globalne prawo zakazujące samego tworzenia takich treści z udziałem dorosłych. Dystrybucja bez zgody może jednak naruszać dobra osobiste, prywatność i RODO, a w przypadku nieletnich stanowi przestępstwo. W UE trwają prace nad AI Act, który obejmuje wymogi transparentności i oznaczania treści syntetycznych.

Firmy deklarują procedury usuwania danych i treści, lecz brak skutecznej weryfikacji wieku oraz zgody podważa realną egzekwowalność zasad. Platformy społecznościowe i komunikatory nie zawsze reagują sprawnie na zgłoszenia.

Poniższa tabela syntetyzuje kluczowe wątki prawne:

Aspekt Aktualny status prawny Przykłady
Tworzenie treści dla dorosłych co do zasady dozwolone, dla dzieci zakazane brak ogólnego zakazu w PL/UE; wyjątki: ochrona wizerunku, dzieci
Dystrybucja może naruszać prywatność, dobra osobiste i RODO pozwy cywilne, odpowiedzialność za „revenge porn”, sankcje administracyjne
Platformy obowiązki moderacji rosną, lecz egzekucja bywa nieskuteczna masowe grupy udostępniające narzędzia i treści mimo zgłoszeń

Wpływ na biznes, technologię i internet

Dla biznesu to szara strefa monetyzowana przez subskrypcje i mikropłatności, co może generować znaczące przychody, ale poważnie obciąża reputację marek oraz partnerów technologicznych.

W ekosystemie internetowym rośnie ryzyko dezinformacji i spadek zaufania do obrazu jako dowodu. To wymusza inwestycje w detektory deepfake, znakowanie treści i mechanizmy weryfikacji źródeł.

Odpowiedzialność i dylematy etyczne

Twórcy narzędzi podkreślają „prywatność” i deklarują usuwanie plików po przetworzeniu, jednak brak transparentności datasetów i stronniczość płciowa oraz rasowa w danych treningowych pogłębiają szkody społeczne.

Główny dylemat brzmi: czy AI powinna umożliwiać funkcje, które tak łatwo prowadzą do naruszeń godności i praw człowieka, gdy istnieją alternatywy o pozytywnym wpływie (np. wirtualna moda, retusz zgodny z etyką)?

Jak się chronić? Rekomendacje dla użytkowników i firm

Poniższe, praktyczne wskazówki pomagają ograniczyć ryzyko nadużyć:

  • Użytkownicy – ograniczaj publiczny dostęp do swoich zdjęć, korzystaj z narzędzi do weryfikacji manipulacji obrazem (np. detekcji deepfake), bezzwłocznie zgłaszaj nadużycia i proś o usunięcie treści;
  • Firmy – wdrażaj filtry i klasyfikatory AI, polityki „content provenance” (znakowanie pochodzenia), procedury reagowania i szkolenia z bezpieczeństwa cyfrowego;
  • Platformy i regulatorzy – egzekwuj zasady „consent by design”, wspieraj AI Act oraz obowiązkowe oznaczanie treści syntetycznych.