Rząd Wielkiej Brytanii opublikował swoje plany dotyczące regulacji wykorzystania sztucznej inteligencji (AI). Oznaczałyby one odejście od strategii UE w zakresie ustanowienia scentralizowanego organu nadzorującego wykorzystanie tej technologii.
Rząd brytyjski regularnie deklaruje ambicję przekształcenia Wielkiej Brytanii w centrum produktów i usług AI, podobnie jak inne jurysdykcje.
Regulacja stała się kluczowym elementem w zapewnieniu dobrze prosperującego przemysłu AI. Zwłaszcza, że postęp technologii doprowadził do wzrostu obaw o sposób jej wykorzystania.
W debatę etyczną na temat wykorzystania AI i zapewnienia, że algorytmy są w jakiś sposób wytłumaczalne, zaangażował się nawet papież.
Brytyjski zbiór zasad dotyczących AI przyjmuje podejście, które umożliwi organom regulacyjnym w różnych branżach stosowanie reguł według własnego uznania. Według ministra ds. cyfrowych Damiana Collinsa, umożliwi to „elastyczne podejście [które] pomoże nam kształtować przyszłość AI”.
Chcemy się upewnić, że Wielka Brytania ma odpowiednie zasady, aby wzmocnić pozycję przedsiębiorstw i chronić ludzi. AI i wykorzystanie danych wciąż zmienia bowiem sposów, w jaki żyjemy i pracujemy.
Jest to wyraźne odejście od podejścia UE nakreślonego w jej ustawie o AI. Unia dąży do ujednolicenia przepisów dotyczących AI zarówno w wymiarze transgranicznym, jak i sektorowym poprzez ustanowienie jednego scentralizowanego organu, który będzie nadzorował wykorzystanie tej technologii.
AI – technologia ogólnego przeznaczenia
Brytyjski zbiór przepisów odnosi się do podejścia UE jako „stosunkowo stałej definicji w jej propozycjach legislacyjnych”. Z kolei Wielka Brytania, która określa AI jako „technologię ogólnego przeznaczenia”, podobną do energii elektrycznej czy Internetu, chce dać konkretnym organom regulacyjnym jak najwięcej elastyczności, jeśli chodzi o ustalanie zasad dla ich własnych sektorów.
Sześć zasad przedstawionych w zestawie regulacji to:
- Zapewnienie, że AI jest używana bezpiecznie
- Zapewnienie, że AI jest technicznie bezpieczna i działa zgodnie z założeniami
- Zapewnienie, że AI jest odpowiednio przejrzysta i możliwa do wyjaśnienia
- uwzględnienie uczciwości
- wskazanie osoby prawnej odpowiedzialnej za sztuczną inteligencję
- Wyjaśnienie sposobów dochodzenia roszczeń lub zaskarżania decyzji.
Według Jeffa Watkinsa, głównego specjalisty ds. produktu i technologii w cyfrowej firmie konsultingowej xDesign, przeciwstawne stanowiska sprowadzają się do pytania – scentralizować czy zdecentralizować.
Z jednej strony, scentralizowana regulacja jest intuicyjnie bezpieczniejsza i powinna egzekwować sprawiedliwość i wytłumaczalność. Ale grozi to stłumieniem innowacji. Sześć zasad nakreślonych w dokumencie jest z pewnością zbudowanych na solidnym gruncie z etycznego punktu widzenia, ale wciąż pozostają duże pytania bez odpowiedzi, takie jak to, jak wiele osób się pod nimi podpisze, jak firmy będą pokazywać swoje działania lub oznaczać własne prace, lub jak organy zarządzające będą interpretować i wdrażać zasady?
„Jednym z możliwych rezultatów jest wprowadzenie innych przepisów, aby strzec się przed dzikimi porzuceniami (jak np. w mandacie Ogólnego Rozporządzenia o Ochronie Danych 'prawo do wyjaśnienia’), ale to jest przywoływane tylko wtedy, gdy problem już się pojawił. Sama ustawa o AI jest znana z tego, że ma ograniczenia i luki, ale próbuje zmienić kierunek w zakresie prawnych i etycznych obaw związanych z zastosowaniami wokół AI.
Bez wątpienia korzyści z obu podejść będą nadal starannie oceniane, ponieważ świat technologii i AI nadal szybko się rozwija. Nie da się jednak ukryć, że ta wschodząca technologia będzie wymagała odpowiedniego zarządzania, aby wzbudzić pełne zaufanie społeczeństwa.