Organizacja non-profit rozwiązuje problem prawa autorskiego w dziedzinie AI za pomocą certyfikacji.
Sztuczna inteligencja (AI) odgrywa coraz większą rolę w dzisiejszym świecie. Generatywne systemy AI, które mają zdolność tworzenia obrazów, dźwięków, tekstów czy wideo w zaledwie kilka sekund, stają się coraz bardziej powszechne. Jednak wraz z rozwojem tych technologii pojawiają się również poważne pytania dotyczące etyki i praw autorskich.
Wiele firm rozwijających AI korzysta z danych do trenowania modeli bez zgody twórców, co prowadzi do konfliktów z prawem autorskim. Spora część firm zabroniła swoim pracownikom wykorzystywania generatywnej sztucznej inteligencji w obawie o prawne aspekty wykorzystania tworzonych przez nie treści.
W odpowiedzi na ten problem, powstała organizacja non-profit o nazwie Fairly Trained, która oferuje certyfikaty firmom, które szanują prawa twórców i korzystają jedynie z danych, na których mają zgodę.
Fairly Trained to organizacja non-profit, której celem jest promowanie etycznego rozwoju AI poprzez certyfikowanie firm, które stosują odpowiednie praktyki dotyczące danych wykorzystywanych do trenowania modeli AI. Ich pierwszym certyfikatem jest Certyfikat Modelu Licencjonowanego (L Certification), który może być przyznany firmom, które korzystają z danych, na które mają licencję lub które są dostępne na otwartej licencji.
Organizacja została założona przez Eda Newtona-Rexa, byłego wiceprezesa ds. audio w Stability AI, który zrezygnował ze stanowiska po konflikcie dotyczącym wykorzystywania danych chronionych prawem autorskim.
Organizacja Fairly Trained skupia się na podkreśleniu różnicy między firmami, które szanują prawa twórców, a tymi, które korzystają z danych bez zgody.
Aby uzyskać certyfikat, firma musi spełnić określone wymagania. Przede wszystkim, dane muszą być dostarczone do modelu przez stronę, która ma odpowiednie prawa do takiego udostępnienia. Poświadczeniem mogą być również umowy licencyjne, otwarte licencje lub dane znajdujące się w domenie publicznej. Ważne jest również, aby firma prowadziła odpowiednią analitykę w celu zapewnienia, że dane są zgodne z przepisami prawa autorskiego.
Fairly Trained nie wymaga udostępnienia danych do audytu, ale firma musi przedstawić pisemne oświadczenie, w którym opisuje źródło danych i sposób ich pozyskania. Wymagane jest również prowadzenie dokładnej dokumentacji dotyczącej danych użytych do każdego modelu.
Fairly Trained ma już na swojej liście certyfikowanych modeli kilka firm, które spełniają wymagania organizacji. Oto kilka przykładów:
Fairly Trained ma na celu stworzenie standardu w branży AI, który promuje szacunek dla praw twórców. Certyfikacja modeli AI, które korzystają tylko z danych, na które mają licencję, ma zachęcić firmy do bardziej etycznego podejścia do pozyskiwania danych treningowych.
Wiele osób tworzących, zarówno artystów, jak i twórców treści, ma obawy dotyczące wykorzystywania ich pracy bez zgody. Fairly Trained daje możliwość wyrażenia zgody na korzystanie z danych do trenowania modeli, co może przynieść korzyści finansowe twórcom.
Organizacja ma nadzieję, że certyfikaty będą działać jako wyznacznik dla konsumentów i firm, które dbają o prawa twórców i chcą współpracować z odpowiedzialnymi dostawcami AI.
Certyfikacja AI ma na celu stworzenie standardu w branży i zachęcenie firm do odpowiedzialnego korzystania z danych treningowych. Przez wspieranie firm, które szanują prawa twórców, Fairly Trained dąży do stworzenia bardziej sprawiedliwego i etycznego środowiska w dziedzinie sztucznej inteligencji.
Zdejmiemy IT z Twoich barków
76% menedżerów wskazało, że ich usługi IT są dostarczane za pośrednictwem zewnętrznych podmiotów.1