Walka z danymi wykorzystywanymi do uczenia modeli AI staje się coraz poważniejsza.
Nowe narzędzie o nazwie Nightshade pozwala użytkownikom dołączać je do swojej pracy twórczej i uszkadza – lub zatruwa – dane treningowe za pomocą tej grafiki. Ostatecznie może zniszczyć przyszłe modele artystycznych platform sztucznej inteligencji, takie jak DALL-E, Stable Diffusion i Midjourney, pozbawiając ich możliwości tworzenia obrazów.
Nightshade dodaje niewidoczne zmiany w pikselach dzieła sztuki cyfrowej. Kiedy akcję przejmuje model szkoleniowy, Poison wykorzystuje lukę, która dezorientuje model, więc nie odczytuje już obrazu samochodu jako samochodu, a zamiast tego wyświetla krowę.
the Przegląd technologii MIT wspomniany Ben Zhao, profesor na Uniwersytecie w Chicago i jeden z twórców Nightshade, ma nadzieję przechylić szalę na korzyść firm zajmujących się sztuczną inteligencją, które wykorzystywały dane chronione prawem autorskim do szkolenia swoich modeli. the Artykuł badawczy na temat psiankowatych Powiedział, że dane szkoleniowe wykorzystywane w modelach AI do konwersji tekstu na obraz są podatne na rodzaj ataku przeprowadzanego przez to narzędzie.
„Co zaskakujące, pokazujemy, że umiarkowana liczba ataków Nightshade może zdestabilizować ogólne funkcje generatywnego modelu zamiany tekstu na obraz, skutecznie uniemożliwiając jego zdolność do generowania znaczących obrazów” – czytamy w artykule.
Artyści, którzy są na tyle mściwi, aby pójść tą drogą, mogą przesłać swoje prace do Glaze, narzędzia stworzonego przez twórców Nightshade, które ukrywa ich styl artystyczny, na przykład przekształcając naturalnie realistyczny rysunek w coś, być może kubistycznego. Nightshade zostanie zintegrowany z Glaze, dzięki czemu użytkownicy będą mogli wybrać, czy chcą używać trujących pigułek, czy też mieć pewność, że modelka nie będzie w stanie naśladować ich stylu artystycznego.
Twórcy Nightshade zasugerowali w swoim artykule, że narzędzie i narzędzia podobne do niego powinny być używane jako „ostatnia obrona twórców treści przed programami do usuwania stron internetowych”, które nie uznają zasad rezygnacji.
W przypadku braku regulacji kwestie praw autorskich dotyczące treści generowanych przez sztuczną inteligencję i danych szkoleniowych pozostają szarą strefą. Wiele pozwów o naruszenie praw autorskich wciąż toczy się przed sądami. Tymczasem metody uniemożliwiające robotom indeksującym pobieranie danych bez pozwolenia ograniczają się do blokowania dostępu do narzędzi eksploracji danych. Firmy takie jak Adobe planują używać tagu do wskazania, czy coś zostało wygenerowane przez sztuczną inteligencję, ale pokazują także, kto jest właścicielem obrazu.
Google i Microsoft oświadczyły, że są skłonne wziąć na siebie odpowiedzialność prawną, jeśli niektórzy klienci zostaną pozwani za naruszenie praw autorskich podczas korzystania z ich produktów generatywnej sztucznej inteligencji. Jednak większość tych produktów jest oparta na tekście.
„Nieuleczalny entuzjasta muzyki. Piwo. Totalny odkrywca. Wichrzyciel. Oddany fanatyk sieci”.
More Stories
Połączenia na Twitterze są teraz domyślnie włączone. Oto jak to wyłączyć
Electronic Arts zwalnia 5% siły roboczej, zamyka studio i odwołuje gry
Remedy Entertainment kupuje prawa do serii Control od 505 Games za 17 milionów euro