Twórcy sztucznej inteligencji mają rozwiązania, aby zabezpieczyć swoją własność intelektualną

OpenAI ChatGPT
OpenAI ChatGPT

Technologia ciągle idzie do przodu. Sztuczna inteligencja ingeruje w różne obszary naszego życia. Często są to ciemne strony lub po prostu niedozwolone. Obecnie wielu twórców niestety ciągle obawia się o swoją własność intelektualną. Co w takim przypadku mają powiedzieć twórcy AI? Znaki wodne mogą być formą ochrony takich narzędzi, ale to chyba jeszcze nie ten czas na wdrożenie takich rozwiązań.

Kopiuj, wklej i się nie przejmuj. Czyżby takie podejście miały inteligentne czaty?

OpenAI, twórca popularnego narzędzia ChatGPT, zdecydował się nie używać systemu znaków wodnych do oznaczania tekstów generowanych przez sztuczną inteligencję, mimo że istnieje gotowa technologia do tego celu. W zeszłym roku OpenAI miało narzędzie, które mogło wykrywać znaki wodne w tekście generowanym przez ChatGPT. Pozwoliłoby to AI zweryfikować autorstwo tekstu, co jest szczególnie ważne dla instytucji edukacyjnych, które chcą zapobiec stosowaniu AI w pisaniu prac studenckich i naukowych.

Twórcy sztucznej inteligencji mają rozwiązania, aby zabezpieczyć swoją własność intelektualną

Jednak w firmie pojawiły się nieporozumienia w tej kwestii. Niektórzy pracownicy uważają, że używanie znaków wodnych zwiększy przejrzystość firmy. Inni obawiają się, że wpłynie to negatywnie na działalność. Wyniki ankiety zleconej przez OpenAI wykazały, że około 30% użytkowników ChatGPT odmówiłoby korzystania z platformy, gdyby dodano znak wodny. Potencjalne straty finansowe i spadek popularności usługi skłoniły zarząd firmy do podjęcia decyzji o niekorzystaniu z tej technologii. Ważne jest, aby zauważyć, że istnieją metody „oczyszczania” tekstu ze znaków wodnych, w tym parafrazowanie za pomocą innych modeli AI. Podważa to skuteczność używania znaków wodnych jako jedynego sposobu identyfikacji wygenerowanego tekstu. Serwis The Verge zauważa, że ​​OpenAI nadal dąży do znalezienia równowagi między kontrolą wykorzystania generowanego tekstu a interesami handlowymi firmy. W Polsce (z pewnością w innych krajach także) sztuczna inteligencja na chwilę obecną nie posiada żadnych aktów prawnych oraz regulacji określających bezpieczeństwo treści. Jestem przekonany, że to kwestia czasu i kiedyś treści generowane przez AI będą nie tylko posiadać chronioną własność intelektualną, ale również znaki wodne. To kwestia czasu.

Źródło: TheVerge

 

 

Chcesz być na bieżąco? Śledź ROOTBLOG w Google News!