Frustrującą rzeczywistością dla twórców jest dzisiaj to, że ich praca jest narażona na szkolenie AI. Firmy technologiczne rozwijające generatywną AI, takie jak ChatGPT, Gemini, DeepSeek, Stable Diffusion i Midjourney, potrzebują ogromnych zbiorów danych do szkolenia swoich modeli i w tym celu przeszukują publiczny internet.
Zrodziło to ważne pytania dotyczące zgody, przypisania autorstwa i kontroli nad twórczością po udostępnieniu jej online.
Jeśli szukasz sposobów na lepszą ochronę swoich danych twórczych, ten przewodnik przedstawia praktyczne kroki, które możesz podjąć, aby ograniczyć wykorzystanie Twojej pracy w szkoleniu AI, jednocześnie wciąż korzystając z internetu na własnych warunkach.
- Jak szkolenie AI na treściach publicznych może zagrażać twórczości
- Jak powstrzymać AI przed wykorzystaniem Twojej sztuki
- Twoja sztuka to poufne dane
Jak szkolenie AI na treściach publicznych może zagrażać twórczości
Narzędzia generatywnej sztucznej inteligencji wymagają do działania ogromnych ilości danych, a znaczna ich część pochodzi z internetu. OpenAI publicznie oświadczyło(nowe okno), że wyszkolenie AI takiej jak ChatGPT bez dostępu do materiałów chronionych prawem autorskim znalezionych online byłoby „niemożliwe”.
Dzieła twórcze z portfolio online, platform społecznościowych i blogów są wykorzystywane do szkolenia tych modeli bez zgody lub przypisania autorstwa. Na przykład Meta przyznała się(nowe okno) do pobierania publicznie udostępnionych postów, zdjęć i komentarzy na Facebooku i Instagramie sięgających 2007 roku w celu szkolenia swoich modeli generatywnej AI. Oznacza to, że każda praca twórcza, którą kiedykolwiek udostępniłeś publicznie na tych platformach — jak zdjęcia ślubne, ujęcia z portfolio czy ilustracje — może zostać wykorzystana do szkolenia AI, chyba że ustawiłeś widoczność na prywatną.
Firmy AI argumentowały w toczących się pozwach(nowe okno), że szkolenie na danych pobranych z internetu mieści się w ramach „dozwolonego użytku”. Jednocześnie traktują powstałe modele i zbiory danych jako aktywa zastrzeżone. Regulamin OpenAI zabrania „wykorzystywania danych wyjściowych do opracowywania modeli konkurujących z OpenAI”, a firma oskarżyła DeepSeek o „niewłaściwe” kopiowanie(nowe okno) jej modeli — tych samych modeli szkolonych na publicznie dostępnych danych internetowych.
Ten pozorny podwójny standard pomaga wyjaśnić, dlaczego wielu twórców czuje, że ich praca jest narażona na szkolenie AI bez ich zgody, uznania autorstwa lub rekompensaty. Rodzi to również szersze pytania o to, jak interpretowane są treści „publicznie dostępne”, zwłaszcza gdy praca twórcza jest udostępniana na platformach, których licencje wyraźnie ograniczają nieautoryzowane ponowne wykorzystanie lub eksploatację komercyjną. W rezultacie wielu artystów, pisarzy i fotografów coraz częściej sprzeciwia się pobieraniu danych przez AI.
Jak powstrzymać AI przed wykorzystaniem Twojej sztuki
Ponieważ sądy wciąż wydają decyzje w poszczególnych sprawach i nie ma jasnego standardu prawnego, twórcy nie mogą polegać wyłącznie na systemie prawnym w celu ochrony swojej pracy. W międzyczasie istnieją praktyczne kroki, które możesz podjąć teraz, aby ograniczyć sposób, w jaki Twoja praca jest wykorzystywana w szkoleniu AI.
Żadna z tych strategii nie jest niezawodna; narzędzia ochronne i firmy AI zawsze próbują się nawzajem przechytrzyć. Na razie myśl o nich jak o poszczególnych elementach zbroi, które działają lepiej wspólnie. Oto najlepsze sposoby, aby zapewnić sobie większą kontrolę nad swoimi danymi twórczymi:
Ukryj swój styl artystyczny
Narzędzia maskujące, takie jak Glaze(nowe okno), utrudniają modelom AI szkolenie się na Twojej pracy, wprowadzając drobne zmiany w pikselach, które dezorientują modele AI. Obraz wygląda dla ludzi tak, jak zamierzano, ale dla skrobaka AI rejestruje się jako inny lub zniekształcony styl.
„Zatruj” swoją sztukę
Korzystając z narzędzi takich jak Nightshade(nowe okno), możesz sprawić, że Twoje dzieła staną się trujące dla skrobaków AI. „Zatruty” obraz zawiera subtelne, niewidoczne zmiany, które zakłócają szkolenie AI, powodując, że system błędnie interpretuje to, co widzi, np. samochody zamiast kotów lub chmury zamiast samolotów. Z czasem, jeśli do szkolenia zostanie użytych wystarczająco dużo zatrutych obrazów, te błędne skojarzenia mogą pokazać się w przyszłych wersjach modelu.
Jednak zabezpieczenia techniczne, takie jak Glaze i Nightshade, nie są niezawodne, a badania(nowe okno) pokazują, że mogą zostać osłabione w miarę rozwoju systemów AI.
Zrezygnuj ze szkolenia AI
Jeśli Twoja praca istnieje online, istnieje prawdopodobieństwo, że została pobrana do modelu AI. Korzystając ze stron internetowych, takich jak Have I Been Trained(nowe okno) i AI Watchdog(nowe okno) The Atlantic, możesz sprawdzić, czy Twoje obrazy, teksty lub inne prace twórcze pojawiają się w znanych zbiorach danych używanych do szkolenia modeli AI. Pierwsza z nich pozwala na zgłoszenie swojej pracy do rejestru „Do Not Train”, gdzie uczestniczące firmy mogą zidentyfikować i wykluczyć te obrazy z przyszłych szkoleń. Środki te są jednak dobrowolne, zależą od woli poszczególnych firm do ich przestrzegania i nie mają wpływu na modele, które zostały już przeszkolone przy użyciu Twojej pracy.
Jeśli mieszkasz w UE, możesz wykorzystać przepisy o ochronie danych, takie jak GDPR(nowe okno), na swoją korzyść, żądając od firm wykluczenia Twoich treści ze szkolenia AI. Niektóre firmy mają procesy rezygnacji ukryte w ustawieniach swoich aplikacji; na przykład tutaj znajdziesz informację, jak zrezygnować z wykorzystania danych przez Meta AI na Facebooku, Instagramie i WhatsAppie.
Zabezpiecz swoje ustawienia prywatności
Ogranicz to, co publikujesz publicznie w mediach społecznościowych i upewnij się, że Twój profil jest ustawiony jako prywatny. Im mniej treści jest ogólnie dostępnych, tym trudniej jest je pobrać przez zewnętrzne systemy AI. Ale to może nie wystarczyć, aby chronić Cię przed samą platformą, ponieważ wiele firm coraz częściej integruje funkcje AI — takie jak Meta wykorzystująca wszystkie interakcje Meta AI do szkolenia i reklam — co rodzi pytania o to, jak zarówno publiczne, jak i prywatne treści mogą być wykorzystywane w czasie. Najlepiej unikać używania mediów społecznościowych jako głównego archiwum lub portfolio.
Bądź świadomy publicznego udostępniania
Publikując publicznie, aby dotrzeć do odbiorców, udostępniaj mniejsze, o niższej rozdzielczości lub oznaczone znakiem wodnym wersje swojej pracy. Przechowuj pliki w pełnej jakości w kopiach zapasowych offline lub w chmurze, która wyraźnie nie wykorzystuje prywatnych treści do szkolenia AI.
Bezpiecznie przechowuj i udostępniaj pliki
W miarę jak narzędzia AI stają się coraz głębiej zintegrowane z głównymi platformami — takimi jak Google dodający Gemini wszędzie, w tym w Google Drive i Gmailu — ludzie są coraz bardziej ostrożni w kwestii przechowywania i udostępniania swojej pracy.
Proton Drive zapewnia zaszyfrowaną end-to-end przestrzeń dyskową i udostępnianie Twoich zdjęć, filmów, albumów, dokumentów, arkuszy kalkulacyjnych i innych plików. Nigdy nie zbieramy, nie przetwarzamy, nie udostępniamy Twoich danych stronom trzecim ani nie używamy ich do szkolenia AI. W przeciwieństwie do Big Tech, Proton jest w pełni wspierany przez naszą społeczność płacących subskrybentów, a nie przez reklamy czy wykorzystanie danych.
Możesz udostępniać linki chronione hasłem, ustawiać daty wygaśnięcia, przyznawać dostęp konkretnym osobom tylko przez e-mail i unieważniać dostęp w dowolnym momencie. Możesz również bezpiecznie zbierać pliki od osób nieposiadających konta Proton.
Korzystaj z prywatnej AI bez utraty kontroli
Jeśli chcesz korzystać z zalet AI bez utraty kontroli nad swoją pracą i bez obaw, że przyszła zmiana zasad może nagle zamienić Twoje pliki w dane szkoleniowe, skorzystaj z naszego prywatnego asystenta AI(nowe okno). Lumo nigdy nie szkoli się na Twoich plikach ani rozmowach i opiera się na kodzie open-source, co oznacza, że każdy może zweryfikować nasze twierdzenia.
Lumo integruje się z Proton Drive, umożliwiając bezpieczną pracę z plikami i generowanie obrazów bez przyczyniania się do ekosystemu skrobania AI, któremu tak wiele osób i organizacji aktywnie się sprzeciwia.
Twoja sztuka to poufne dane
Powstrzymanie kradzieży sztuki przez AI nie oznacza całkowitego odrzucenia AI. Oznacza jednak uznanie, że praca twórcza to poufne dane, niezależnie od tego, czy jest to ilustracja, powieść czy piosenka. Twórcy zasługują na sprawczość i uczciwe traktowanie, w tym możliwość decydowania, czy i w jaki sposób ich praca jest wykorzystywana.
Żadna pojedyncza strategia nie może w pełni zapobiec wchłanianiu przez systemy AI publicznie dostępnych treści — a w niektórych przypadkach pośrednio ujawnionych treści prywatnych — do ich szkolenia. A firmy AI będą chciały, żebyś uwierzył, że nie da się zbudować narzędzi AI bez wykorzystania Twoich danych. Nie zgadzamy się z tym(nowe okno).
Dopóki regulatorzy i sądy nie zapewnią jasnych wytycznych, najskuteczniejszym podejściem jest bycie proaktywnym w interakcjach z internetem i wybieranie platform, które wyraźnie szanują Twoją prywatność i prawa twórcze.