News will be here
Samantha OS1

Minęły już trzy tygodnie od momentu, gdy Sam Altman - CEO OpenAI - postanowił postawić siebie i swoje wielomilionowe przedsięwzięcie w bardzo złym świetle. Wystarczyło jedno słowo: "her". Problem, który niedługo po tym nagłośniła Scarlett Johansson, jest jednak znacznie większy i może wpłynąć na wiele aspektów naszego życia. Wygląda bowiem na to, że stoimy u progu nowej ery - czasów, gdy tożsamość nie ma już żadnej wartości.

Gdy Scarlett Johansson poskarżyła się, że jeden z głosów chatbota OpenAI brzmi bardzo podobnie do niej, wokół firmy widzącej siebie w roli lidera branży SI zebrały się czarne chmury. To nie był jej głos – firma stworzyła je, korzystając z nagrań kogoś innego. Wiele wskazuje jednak na to, że incencją była... imicjacja Scarlett Johansson. Zresztą, zawieszono możliwość ustawienia tego głosu z szacunku dla aktorki. Jednak zamieszanie w mediach wywołało szerszą dyskusję na temat praw ludzi do własnej osobowości. Czy w dobie generatywnej sztucznej inteligencji (genAI) istniejące przepisy są wystarczające, aby chronić wykorzystanie wyglądu i głosu danej osoby?

Odpowiedź nie zawsze jest jasna, mówi Carys Craig, badaczka zajmująca się własnością intelektualną na Uniwersytecie York w Toronto w Kanadzie, która będzie przemawiać na ten temat w przyszłym miesiącu podczas transmisji internetowej Kanadyjskiego Stowarzyszenia Adwokatów. W ubiegłym roku kilku członków Kongresu Stanów Zjednoczonych wzywało do przyjęcia prawa federalnego zapewniającego taką ochronę na szczeblu krajowym. Niektórzy prawnicy twierdzą, że potrzebne są działania, aby poprawić prawa do prywatności w Stanach Zjednoczonych. Ostrzegają jednak również, że pospiesznie pisane ustawy mogą naruszać wolność słowa lub powodować inne problemy. „To skomplikowane” – mówi Meredith Rose, analityk prawny w organizacji non-profit Public Knowledge w Waszyngtonie. „Wiele rzeczy może pójść nie tak”.

„Pośpiech z uregulowaniem tej kwestii może być błędem” – mówi Craig.

FEJKUJ MNIE

Fakecatcher

GenAI można wykorzystać do łatwego klonowania głosów lub twarzy w celu tworzenia deepfakes, w których podobieństwo danej osoby jest imitowane cyfrowo. Ludzie tworzyli deepfake dla zabawy oraz w celu promowania edukacji lub badań. Jednak wykorzystywano je również do siania dezinformacji, prób wpływania na wybory, tworzenia obrazów seksualnych bez zgody lub wyłudzania pieniędzy.

W wielu krajach obowiązują przepisy zapobiegające tego rodzaju szkodliwym i nikczemnym działaniom, niezależnie od tego, czy dotyczą one sztucznej inteligencji, mówi Craig. Jeśli jednak chodzi o konkretną ochronę danej osoby, istniejące przepisy mogą być wystarczające lub nie.

Prawa autorskie nie mają zastosowania, mówi Craig, ponieważ zostały stworzone, aby chronić określone dzieła. „Z punktu widzenia własności intelektualnej odpowiedź na pytanie, czy mamy na przykład prawa do swojego głosu, brzmi: nie” – mówi. Większość dyskusji na temat praw autorskich i sztucznej inteligencji koncentruje się zamiast tego na tym, czy i w jaki sposób materiały chronione prawem autorskim można wykorzystać do szkolenia technologii oraz czy nowy materiał, który powstaje, może podlegać prawom autorskim.

Oprócz praw autorskich w niektórych regionach, w tym w niektórych stanach USA, obowiązują „prawa do reklamy”, które pozwalają danej osobie kontrolować komercyjne wykorzystanie jej wizerunku w celu ochrony celebrytów przed stratami finansowymi. Na przykład w 1988 roku, na długo przed pojawieniem się sztucznej inteligencji, piosenkarka i aktorka Bette Midler wygrała sprawę o „przywłaszczenie głosu” przeciwko firmie Ford Motor Company, która wykorzystała piosenkarkę o podobnym brzmieniu do wykonania coveru jednej z jej piosenek w reklamie. W 1992 roku prowadząca teleturniej Vanna White wygrała sprawę przeciwko amerykańskiemu oddziałowi firmy Samsung, gdy ten umieścił w reklamie robota przebranego za nią.

„Mamy sprawę dotyczącą osoby, która już wygrała z prawdziwym robotem” – mówi Rose. Jej zdaniem wraz z pojawieniem się sztucznej inteligencji przypadki będą „coraz bardziej banalne”.

Wiele pozostaje do sprawdzenia w sądzie. Na przykład raper Drake w zeszłym miesiącu wydał piosenkę zawierającą wygenerowane przez sztuczną inteligencję klipy głosowe zmarłego rapera Tupaca Shakura. Drake usunął piosenkę z serwisów streamingowych po otrzymaniu listu o zaprzestaniu działalności z majątku Shakura. Nie jest jednak jasne – mówi Craig – czy element sztucznej inteligencji zawarty w piosence był niezgodny z prawem. W Tennessee uchwalona w tym roku ustawa o nazwie Ensuring Likeness Voice and Image Security (ELVIS) ma na celu ochronę aktorów głosowych na wszystkich poziomach sławy przed „nieuczciwym wykorzystywaniem ich głosów”, w tym wykorzystaniem klonów sztucznej inteligencji.

W Stanach Zjednoczonych aktorzy są objęci pewną umowną ochroną przed sztuczną inteligencją – porozumienie, które w grudniu zakończyło hollywoodzki strajk Gildii Aktorów Ekranowych-Amerykańskiej Federacji Artystów Telewizyjnych i Radiowych, zawierało postanowienia zabraniające twórcom filmowym używania cyfrowej repliki aktora bez wyraźnej zgody w każdym przypadku zgoda danej osoby.

Tymczasem poszczególne firmy technologiczne mają własne zasady pomagające zapobiegać niewłaściwemu wykorzystaniu genAI. Na przykład firma OpenAI z siedzibą w San Francisco w Kalifornii nie udostępniła ogółowi społeczeństwa oprogramowania do klonowania głosu, które zostało użyte do tworzenia głosów chatbota, uznając, że „generowanie mowy przypominającej głosy ludzi wiąże się z poważnym ryzykiem”. Zasady użytkowania dla partnerów testujących technologię „zabraniają podszywania się pod inną osobę lub organizację bez zgody lub prawa”.

Inni stosują technologiczne podejście do zapobiegania nadużyciom: w zeszłym miesiącu Federalna Komisja Handlu Stanów Zjednoczonych ogłosiła zwycięzców swojego wyzwania, którego celem jest „ochrona konsumentów przed niewłaściwym wykorzystaniem klonowania głosu wykorzystującego sztuczną inteligencję w celu oszustw i innych szkód”. Obejmują one sposoby znakowania wodnego prawdziwego dźwięku w momencie nagrywania oraz narzędzia do wykrywania dźwięku generowanego przez genAI.

SZEROKI ZAKRES

Rose i Craig twierdzą, że bardziej niepokojące niż utrata dochodów aktorów jest wykorzystywanie sztucznej inteligencji do klonowania ludzkich podobizny do celów, w tym do nielegalnej pornografii. „Mamy bardzo oszczędne i nieodpowiednie przepisy dotyczące przede wszystkim zdjęć wykonywanych bez zgody użytkownika, nie mówiąc już o sztucznej inteligencji” – mówi Rose. Dodaje, że fakt, że fałszywe porno, w tym zawierające podobizny nieletnich, jest obecnie łatwe do wygenerowania, powinien być poważnym powodem do niepokoju. Niektórzy prawnicy, w tym Danielle Citron z Uniwersytetu Wirginii w Charlottesville, opowiadają się za reformami prawnymi, które uznałyby „prywatność intymną” za prawo obywatelskie w USA – porównywalne z prawem do głosowania lub prawem do sprawiedliwego procesu.

Rose twierdzi, że obecne przepisy dotyczące praw do reklamy nie są dobrze dostosowane do uwzględniania osób nie znanych. „Prawo do reklamy opiera się na rozpoznawalnych, wyróżniających się osobach występujących w zastosowaniach komercyjnych” – mówi. „Ma to sens w przypadku Scarlett Johansson, ale nie w przypadku 16-letniej dziewczynki wykorzystywanej w zdjęciach bez jej zgody”.

Jednak propozycje rozszerzenia praw do reklamy na osoby prywatne w Stanach Zjednoczonych mogą mieć niezamierzone konsekwencje, mówi Rose. Napisała do Kongresu Stanów Zjednoczonych, wyrażając zaniepokojenie, że niektóre z proponowanych przepisów mogą pozwolić na nadużycia przez potężne firmy. Na przykład aplikacja na smartfony do tworzenia nowatorskich zdjęć mogłaby umieścić w swoich warunkach korzystania z usługi postanowienie, które „przyznaje aplikacji nieograniczoną, nieodwołalną licencję na wykorzystywanie podobizny użytkownika”.

Rose twierdzi, że istnieje również problem sobowtóra: obraz lub głos osoby losowo wygenerowany przez sztuczną inteligencję z pewnością będzie wyglądać i brzmieć jak co najmniej jedna prawdziwa osoba, która może następnie ubiegać się o odszkodowanie.

Przepisy mające na celu ochronę ludzi mogą posunąć się za daleko i zagrozić wolności słowa. „Kiedy masz zbyt szerokie prawa, ograniczasz swobodę wypowiedzi” – mówi Craig. „Ograniczenia kontroli, jaką pozwalamy właścicielom praw autorskich, istnieją nie bez powodu; aby umożliwić ludziom inspirację i tworzenie nowych rzeczy oraz wnosić wkład w dyskusję kulturalną” – mówi. Parodia i inne dzieła, które opierają się na oryginale i go przekształcają, często – jak powinny – wchodzą w sferę zgodnego z prawem dozwolonego użytku – mówi. „Zbyt rygorystyczna wersja [tych przepisów] unicestwiłaby parodię” – mówi Rose.

Damian Halik

Damian Halik

Kulturoholik, level 99. Czas na filmy, książki, komiksy i gry, generowany gdzieś między pracą a codziennymi obowiązkami, zawdzięcza opanowaniu umiejętności zaginania czasoprzestrzeni.

News will be here