Władze UE dyskutują nad zaostrzeniem przepisów dotyczących dużych modeli sztucznej inteligencji, w tym Llama 2 od Meta i GPT-4 od OpenAI. O sprawie pisze Bloomberg.
Według agencji chodzi o dodatkowe ograniczenia w ramach przyszłej ustawy o sztucznej inteligencji. Przedstawiciele krajów strefy Schengen, Komisji Europejskiej i Parlamentu Europejskiego chcą wzmocnić kontrolę nad najważniejszymi graczami, ale nie przeciążać startupów. Źródła dodały, że dyskusja jest wciąż na wstępnym etapie.
Komisja Europejska przedstawiła projekt ustawy w sprawie regulacji AI w kwietniu 2021 roku. Został on skrytykowany przez obrońców praw człowieka, którzy wezwali do zakazu stosowania algorytmów śledzenia, w tym rozpoznawania twarzy.
W listopadzie 2022 r. pojawiła się ostateczna wersja dokumentu, która nie ogranicza uprawnień i niezależności organów państwowych odpowiedzialnych za ochronę podstawowych praw i wolności obywateli. Oznacza to, że ustawa nie zakazuje wykorzystywania sztucznej inteligencji do celów bezpieczeństwa narodowego.
Wiosną 2023 r. okazało się, że władze UE zamierzają zobowiązać twórców sztucznej inteligencji generatywnej do ujawniania wszelkich materiałów chronionych prawem autorskim wykorzystywanych do szkolenia algorytmów.
Wcześniej grupa europejskich prawodawców poinformowała o planach opracowania zasad kontroli rozwoju systemów sztucznej inteligencji.
Przypomnijmy, że w maju szef OpenAI Sam Altman wezwał do uregulowania wykorzystania i rozwoju sztucznej inteligencji.
Z kolei dyrektor generalny Coinbase Brian Armstrong wypowiedział się przeciwko takiemu podejściu i opowiedział się za decentralizacją branży.