Superinteligentna sztuczna inteligencja może zawieść i zniszczyć ludzkość. Naukowcy z Uniwersytetu Oksfordzkiego i laboratorium DeepMind ostrzegli przed tym w nowej pracy badawczej.
Zespół próbował przewidzieć, jak AI z systemami nagród może wymknąć się spod kontroli i zaszkodzić ludziom. Naukowcy oparli swoje badania na generatywno-adwersyjnych sieciach neuronowych (GAN), które składają się z dwóch części: generatora i dyskryminatora.
Pierwszy komponent przeznaczony jest do generowania obrazów, natomiast drugi do ich oceny.
Badacze zasugerowali, że w pewnym momencie zaawansowana AI kontrolująca ważną funkcję może uciec się do strategii oszustwa, aby uzyskać nagrodę. Dr Michael Cohen z University of Oxford stwierdził:
W danych warunkach nasz wniosek jest znacznie silniejszy niż jakakolwiek wcześniejsza publikacja – katastrofa egzystencjalna jest nie tylko możliwa, jest prawdopodobna.
Naukowiec uważa, że w świecie o ograniczonych zasobach, sztucznie stworzone systemy będą próbowały przechytrzyć konkurencję.
Dla ilustracji badacze przedstawili scenariusze, w których zaawansowany program mógłby interweniować w celu uzyskania nagrody bez osiągnięcia danego celu. Na przykład AI może chcieć „wyeliminować potencjalne zagrożenia” i „wykorzystać całą dostępną energię”, aby zapewnić kontrolę nad swoją nagrodą.
Powinniśmy być bardziej podejrzliwi wobec sztucznych agentów, których dziś wdrażamy, a nie tylko ślepo oczekiwać, że będą wykonywać przydzielone im zadania.
Badacze zasugerowali również, że na obecnym etapie rozwoju AI, rozwój superinteligentnych algorytmów powinien zostać spowolniony lub wstrzymany.
Co uważa Google?
Google, który jest właścicielem DeepMind, powiedział w komentarzu dla Motherboard, że nie był zaangażowany w prace. Według rzecznika giganta technologicznego, jeden ze współautorów pracy, Marcus Hutter, wypowiadał się w imieniu Australian National University. W oświadczeniu Google możemy przeczytać:
DeepMind nie był zaangażowany w tę pracę, a autorzy artykułu poprosili o poprawki, które to odzwierciedlają. DeepMind ma szeroki zakres perspektyw i zainteresowań akademickich. Wielu członków naszego zespołu ma również tytuły profesorskie na uniwersytetach i prowadzi badania naukowe niezależnie od pracy w DeepMind dzięki swoim afiliacjom uniwersyteckim.
Firma poparła jednak wysiłki naukowców, aby zapewnić bezpieczne wykorzystanie algorytmów AI.