OpenAI ostrzegło przed rosnącym zagrożeniem wykorzystania technologii sztucznej inteligencji do szerzenia dezinformacji. Startup przeprowadził wspólne badanie z Georgetown University’s Center for Security and Emerging Technologies (CSET) oraz Stanford Internet Observatory.
We're publishing a report, co-authored with @CSETGeorgetown and @stanfordio, analyzing how language models could be misused for disinformation and how to mitigate those risks. https://t.co/nHiVp7GoxI
— OpenAI (@OpenAI) January 11, 2023
Zdaniem badaczy, powszechna dostępność modeli językowych wpłynie na wszystkie trzy aspekty operacji wpływu:
- aktorzy;
- zachowania;
- treść.
Naukowcy uważają, że modele językowe zmniejszą koszty kampanii dezinformacyjnych poprzez udostępnienie ich szerszemu gronu podmiotów. Są też w stanie wymyślić nowe taktyki, jak tworzenie treści w czasie rzeczywistym w chatbotach.
Narzędzia oparte na modelach językowych pomogą również generować bardziej perswazyjne teksty niż tradycyjne metody. W opracowaniu możemy przeczytać:
„Dotyczy to zwłaszcza tych [twórców kampanii], którzy nie mają odpowiednich umiejętności językowych lub wiedzy kulturowej o celu. Może to sprawić, że operacje wpływu będą mniej widoczne, ponieważ wygenerowane treści nie będą tak łatwo rozpoznawalne”
Naukowcy twierdzą, że zamknięcie się w schematach językowych nie pomoże w odgrodzeniu się od dezinformacji. Kampanie prawdopodobnie będą zmierzać w kierunku systemów open-source lub alternatyw opracowanych przez rząd/
Badanie zwraca uwagę na kluczowe, nieznane czynniki związane z wykorzystaniem modeli językowych. Obecnie nie wiadomo, jakie możliwości dezinformacji pojawią się w przyszłości, nawet przy obecnych badaniach i inwestycjach finansowych w technologię.
Co więcej, nie wiadomo też, ile zainwestuje się w modele językowe i kiedy łatwe w użyciu narzędzia do tworzenia i dystrybucji takich treści staną się ogólnie dostępne.
Jak zapobiec nadużyciom?
Aby zapobiec przyszłym nadużyciom takich technologii, badacze wezwali do opracowania odpowiednich środków.
„Kluczowe jest przeanalizowanie zagrożenia związanego z operacjami wpływu z wykorzystaniem AI i nakreślenie serii działań, zanim modele językowe zostaną wykorzystane do operacji wpływu na dużą skalę”.
Badacze zasugerowali, że twórcy AI powinni stworzyć modele bardziej wrażliwe na fakty lub nałożyć surowsze ograniczenia na ich stosowanie.
Badacze zalecają, aby platformy AI i dostawcy koordynowali działania mające na celu identyfikację zautomatyzowanych treści, a także, aby instytucje angażowały się w kampanie na rzecz umiejętności korzystania z mediów.
Sugerują również, że rządy mogą nakładać ograniczenia na gromadzenie danych i kontrolować dostęp do sprzętu w celu szkolenia algorytmów.
Badacze zalecają powszechne stosowanie standardów cyfrowej proweniencji w celu śledzenia źródła treści AI. Blockchain i cyfrowe identyfikatory mogą w tym pomóc – konkludują.
Przypomnijmy, że w grudniu 2022 roku OpenAI odsłoniło ChatGPT, chatbota opartego na modelu językowym.
W tym samym miesiącu wykładowca amerykańskiego uniwersytetu przyłapał studenta na używaniu narzędzia do pisania eseju.
W styczniu 2023 roku nowojorskie szkoły zakazały ChatGPT na sprzęcie instytucjonalnym. Podobne działania podjęły największe uniwersytety w Australii.