„Nie martwię się o muzykę, tylko o przyszłość muzyków” – podsumowała swój wykład o sztucznej inteligencji Jennifer Walshe, kompozytorka i performerka. Gościni świetnego festiwalu Unsound wystąpiła w Brukseli w wydarzeniu kulturalnym będącym częścią polskiej prezydencji w Unii Europejskiej. Jej „13 sposobów patrzenia na AI, sztukę i muzykę” (jeszcze nieprzetłumaczone na język polski) wzbudziło emocje wśród publiczności, której większość przyznała, że używa produktów AI na co dzień. Bo i ze świecą szukać osoby, która by się z nimi nie zetknęła.
Walshe porównała działania AI do fanfików, czyli tworów literackich pisanych przez fanów danego dzieła. Nawiązując do książek, filmów czy seriali, wykorzystują postacie i świat oryginalnego utworu. Powstają też amatorskie opowiadania o znanych osobach ze świata rzeczywistego. Prawdziwi ludzie, ich nazwiska i wygląd, są fikcjonalizowane i monetyzowane. Oczywiście bez ich zgody, o nią nikt nawet nie pyta. To samo robią produkty AI. Irlandzka kompozytorka porównała też AI z napojem energetyzującym, zwracając uwagę na trudności z definicją. Czy to coś w rodzaju mleka, wody czy raczej płynu do płukania jamy ustnej? Istotne jest to, że spełnia konkretną funkcję i ma niewyraźny skład. Zupełnie jak AI. Za jej produktami stoją niewidoczne dla użytkowników godziny pracy milionów ludzi – twórców, których dzieła zostały wchłonięte przez maszynę, żeby miała na czym trenować. Oczywiście bez wiedzy artystów, bez ich pozwolenia, za darmo.
Entuzjazm towarzyszący rozwijaniu modeli przypomina gorączkę złota na Alasce. Powszechny jest brak skrupułów. Niedawno jedna z polskich instytucji naukowych poprosiła wydawców, by udostępnili e-booki pisarek i pisarzy. Celem miało być rozwijanie rodzimych modeli AI.