Meta opracowała Sphere, algorytm sztucznej inteligencji, który automatycznie sprawdza przypisy do Wikipedii. Może również sugerować alternatywne rozwiązania, jeśli dany fragment okaże się niedokładny.
(1/2) Today, we're announcing the first model capable of automatically verifying hundreds of thousands of citations at once. Read more: https://t.co/c0nnvhuQx7 pic.twitter.com/UTSEYUmCRZ
— Meta AI (@MetaAI) July 11, 2022
Sphere wykorzystuje model transformacji Natural Language Understanding Unit (NLU), który próbuje zrozumieć różne relacje słów i fraz w zdaniu.
Baza danych Sphere składa się ze 134 milionów stron internetowych. Algorytm rozumienia języka naturalnego analizuje przypisy w artykułach encyklopedycznych i szuka pojedynczego źródła do weryfikacji każdego stwierdzenia.
Według firmy, Sphere może analizować „dziesiątki tysięcy” cytatów jednocześnie. Meta , że encyklopedia elektroniczna jest wypełniona 17.000 artykułami naraz, zawierającymi wiele przypisów, które trudno jest sprawdzić ręcznie.
Jak działa nowy algorytm?
Aby zobrazować potęgę AI, Meta pokazał przykład niepełnego cytatu znalezionego przez model na stronie Wikipedii o rdzennie amerykańskim ludzie z plemienia Blackfeet. W dziale „Famous Figures” (w angielskiej wersji artykułu) wymieniony jest Joe Hipp, pierwszy członek narodu, który walczył o tytuł mistrza świata wagi ciężkiej WBA.
Na podlinkowanej stronie internetowej nie można było jednak znaleźć potwierdzenia tego faktu. Przeszukując bazę danych Sphere, model zidentyfikował bardziej odpowiedni cytat w artykule z 2015 roku w Great Falls Tribune. W algorytmie zwrócono uwagę na następujący fragment:
W 1989 roku, pod koniec swojej kariery, [Marvin] Camel walczył z Joe Hippem z Blackfeet Nation. Hipp, który stał się pierwszym rdzennym Amerykaninem, który zmierzył się z mistrzem świata w wadze ciężkiej, powiedział, że walka była jedną z najdziwniejszych w jego karierze.
Odnaleziony fragment nie wspomina bezpośrednio o boksie. Według twórców, Sphere znalazł odpowiednie odniesienie dzięki zdolnościom posługiwania się językiem naturalnym.
Firma wierzy, że narzędzie pomoże w przyszłości zwalczać dezinformację na Facebooku. Twórcy modelu powiedzieli:
Bardziej ogólnie, mamy nadzieję, że nasza praca może być wykorzystana do fact-checkingu i poprawy ogólnej wiarygodności informacji w internecie.
Ponadto Meta planuje stworzyć platformę, którą edytorzy Wikipedii będą mogli wykorzystać do systematycznego sprawdzania i poprawiania przypisów.
Kod źródłowy modelu jest dostępny na GitHubie. Przypomnijmy, że w lipcu Meta zaprezentowała tłumacza AI, który obsługuje 200 języków. W kwietniu gigant technologiczny ogłosił opracowanie modelu języka open-source OPT-175B.