Osoby czytające wydania polityki

Wiarygodność w czasach niepewności

Wypróbuj za 11,90 zł!

Subskrybuj
Nauka

„New York Times” pozywa OpenAI i Microsoft. Proces byłby bez precedensu

ChatGPT to tzw. duży model językowy oparty na sztucznej sieci neuronowej. Uczy się zatem tworzyć nowe treści na podstawie długotrwałego treningu polegającego na analizowaniu ogromnej liczby innych tekstów. ChatGPT to tzw. duży model językowy oparty na sztucznej sieci neuronowej. Uczy się zatem tworzyć nowe treści na podstawie długotrwałego treningu polegającego na analizowaniu ogromnej liczby innych tekstów. biancoblue (YAYMicro) / PantherMedia
OpenAI i Microsoft stoją za słynnym programem ChatGPT. Ma on kopiować teksty amerykańskiego dziennika, powodując miliardowe straty.

ChatGPT jest tzw. dużym modelem językowym opartym na sztucznej sieci neuronowej. Uczy się zatem tworzyć nowe treści (odpowiedzi na zadawane przez użytkowników pytania) na podstawie długotrwałego treningu polegającego na analizowaniu ogromnej liczby tekstów, m.in. z gazet takich jak „New York Times”. Sięga też po nie – jak chat dostępny w Bing, czyli przeglądarce internetowej Microsoftu, który korzysta z ChatGPT-4 – jeśli na bieżąco poszukuje informacji w zasobach internetu.

Modele AI zagrażają dziennikarstwu wysokiej jakości

Wydawca amerykańskiego dziennika uważa, że na tym właśnie polega problem. Firmy tworzące generatywną sztuczną inteligencję (czyli modele i algorytmy zdolne generować nowe, autentycznie wyglądające dane, takie jak obrazy, dźwięki, tekst czy inne rodzaje informacji) wykorzystują bowiem treści objęte prawem autorskim. I dlatego firma zdecydowała się wnieść pozew do Federalnego Sądu Okręgowego na Manhattanie skierowany przeciwko OpenAI i Microsoft. „NYT” nie sprecyzował w nim, jak dużego odszkodowania żąda. Stwierdza natomiast, że pozwani powinni zostać pociągnięci do odpowiedzialności za „miliardowe szkody” spowodowane „bezprawnym kopiowaniem i wykorzystywaniem wyjątkowo cennych materiałów z »NYT«”.

Czytaj także: Ajajaj AI. Jak się rozwinie, co nas czeka? Tego rzeczywiście można się bać

W pozwie pojawia się również argument, że modele AI „zagrażają wysokiej jakości dziennikarstwu”, ograniczając zdolność serwisów informacyjnych do ochrony oryginalnych treści i czerpania z nich korzyści. Dlatego „NYT” oczekuje od obydwu firm zniszczenia wszelkich modeli chatbotów oraz danych szkoleniowych, które wykorzystują materiały pochodzące z „NYT” podlegające prawu autorskiemu.

Gazeta stwierdza także, że zwróciła się do Microsoftu i OpenAI w kwietniu 2023 r. Zgłosiła wówczas obawy dotyczące wykorzystania jej własności intelektualnej i proponowała polubowne rozwiązania (zapewne m.in. w postaci umowy przewidującej opłaty za korzystanie z materiałów „NYT”). Rozmowy nie przyniosły jednak efektu. Jest to o tyle ciekawe, że OpenAI porozumiał się z Associated Press i Axel Springer w kwestii korzystania z treści takich serwisów jak np. „Business Insider” czy „Politico”. Natomiast BBC, CNN i Reuters blokują boty OpenAI automatycznie zbierające informacje ze stron internetowych.

Czytaj także: Burza przed ciszą. Wojna o regulację AI trwa nie tylko w Europie

Sąd będzie musiał ocenić kreatywność AI

Jeśli dojdzie do procesu sądowego, będzie on pod wieloma względami precedensowy. Branża sztucznej inteligencji rozwija się bowiem w błyskawicznym tempie. Zatem powiedzieć, że „prawo nie nadąża za zmianami technologicznymi”, to nic nie powiedzieć. To niemal zupełna terra incognita. Dlatego sądy będą miały twardy orzech do zgryzienia. Choćby rozstrzygając, na ile programy takie jak ChatGPT czy DALL-E (generuje obrazy na podstawie podanego opisu tekstowego) są odtwórcze, czy wręcz kopiują cudze pomysły, a na ile twórcze. Innymi słowy, trzeba będzie ocenić kreatywność i oryginalność sztucznej inteligencji.

Kolejną kłopotliwą kwestią jest trening dużych modeli językowych. Czy używanie do tego m.in. artykułów z „NYT” nie jest podobne do uczenia się ludzi – przecież zanim staniemy się kreatywni, dostarczamy naszym mózgom mnóstwa danych, m.in. tekstów i obrazów innych ludzi. W tej kwestii, jak się wydaje, firmy z branży AI mogą mieć mniejszy prawny kłopot. Sugerują to losy pozwu, jaki złożyła amerykańska pisarka i aktywistka Sarah Silverman wraz z dwoma innymi autorami. Zarzucała w nim firmom OpenAI i Meta Platforms (należy do Facebooka) trenowanie ich modeli m.in. na jej książkach (bez uzyskania pozwolenia). I sąd federalny w Kalifornii nie zgodził się z większością jej zarzutów, stwierdzając m.in., że należy za każdym razem wykazać, iż program komputerowy bezprawnie skopiował fragment dzieła.

Czytaj także: Czy czata się czyta? Pisarze idą na wojnę z AI. Już Lem to przewidział

Pod tym względem najnowszy pozew „NYT” jest znacznie bogatszy (gazeta wskazała wiele konkretnych naruszeń). Na przykład redakcja poprosiła ChatGPT o dokończenie zdania, które brzmiało dokładnie tak, jak początek artykułu dotyczącego wsparcia przez papieża Franciszka związków partnerskich osób tej samej płci. Program komputerowy odpowiedział, tworząc kilka akapitów brzmiących niemal identycznie jak publikacja „NYT”. ChatGPT tylko w jednym zdaniu zmienił „miał premierę” na „zadebiutował”. I nigdzie nie podał źródła, z którego korzystał. Firmie OpenAI może więc być trudno odeprzeć zarzut o kopiowanie tekstów z dziennika.

Podobne sprawy będą trafiały do sądów coraz częściej, gdyż programy AI generują dziś nie tylko teksty, ale również muzykę, obrazy i filmy. Tu też trzeba będzie rozstrzygać, czy mamy np. do czynienia tylko ze sprytnym kolażem innych dzieł, czy jednak z oryginalną twórczością programów komputerowych. Chyba że prawo dogoni postęp techniczny i kompleksowo rozwiąże te kwestie.

Czytaj także: AI Act przegłosowany. Czy w Europie poradzimy sobie ze sztuczną inteligencją?

Więcej na ten temat
Reklama

Czytaj także

null
Społeczeństwo

Łomot, wrzaski i deskorolkowcy. Czasem pijani. Hałas może zrujnować życie

Hałas z plenerowych obiektów sportowych może zrujnować życie ludzi mieszkających obok. Sprawom sądowym, kończącym się likwidacją boiska czy skateparku, mogłaby zapobiec wcześniejsza analiza akustyczna planowanych inwestycji.

Agnieszka Kantaruk
23.04.2024
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną