Według an opowieść otwierająca oczy w sobotnim Washington Post, jeden inżynier Google powiedział, że po setkach interakcji z najnowocześniejszym, nieopublikowanym systemem sztucznej inteligencji o nazwie LaMDAwierzył, że program osiągnął pewien poziom świadomości.

W wywiadach i publicznych wypowiedziach wiele osób ze społeczności AI odrzuciło twierdzenia inżyniera, podczas gdy niektórzy wskazywali, że jego los pokazuje, w jaki sposób technologia może skłonić ludzi do przypisywania jej ludzkich atrybutów. Jednak przekonanie, że sztuczna inteligencja Google może być świadoma, niewątpliwie podkreśla zarówno nasze obawy, jak i oczekiwania dotyczące tego, co ta technologia może zrobić.

LaMDA, co oznacza „model języka dla aplikacji dialogowych”, jest jednym z kilku wielkoskalowych systemów sztucznej inteligencji, które zostały przeszkolone na dużych fragmentach tekstu z Internetu i mogą odpowiadać na pisemne monity. Ich zadaniem jest zasadniczo znajdowanie wzorców i przewidywanie, jakie słowo lub słowa powinny nadejść w następnej kolejności. Takie systemy stały się coraz lepiej w odpowiadaniu na pytania i pisaniu w sposób, który może wydawać się przekonująco ludzki – i w samym Google przedstawił LaMDA w maju zeszłego roku w poście na blogu jako taki, który może „w swobodny sposób angażować się w pozornie nieskończoną liczbę tematów”. Ale wyniki mogą być również zwariowane, dziwne, niepokojące i podatne na chaotyczne.

Inżynier Blake Lemoine podobno powiedział Washington Post, że podzielił się z Google dowodami na to, że LaMDA jest świadomy, ale firma się nie zgodziła. W oświadczeniu Google powiedział w poniedziałek, że jego zespół, w skład którego wchodzą etycy i technolodzy, „rozpatrzył obawy Blake’a zgodnie z naszymi zasadami sztucznej inteligencji i poinformował go, że dowody nie potwierdzają jego twierdzeń”.

6 czerwca Lemoine opublikował na Medium, że Google umieścił go na płatnym urlopie administracyjnym „w związku z dochodzeniem w sprawie obaw dotyczących etyki sztucznej inteligencji, które zgłaszałem w firmie” i że może zostać zwolniony „wkrótce”. (Wspomniał o doświadczeniu Margaret Mitchell, która do tej pory była liderem zespołu Google Ethical AI). Google zwolnił ją na początku 2021 r. podążając za jej szczerością dotyczącą koniec 2020 r. odejście ówczesnego współlidera Timnita Gebru. Gebru została usunięta po wewnętrznych przepychankach, w tym jednej związanej z artykułem badawczym, który kierownictwo firmy AI kazało jej wycofać się z rozważania prezentacji na konferencji lub usunąć swoje nazwisko.)

Rzecznik Google potwierdził, że Lemoine pozostaje na urlopie administracyjnym. Według The Washington Post został umieszczony na urlopie za naruszenie polityki poufności firmy.

Lemoine nie był dostępny do komentowania w poniedziałek.

Ciągłe pojawianie się potężnych programów komputerowych wyszkolonych na danych z ogromnych skarbców również wzbudziło obawy dotyczące etyki rządzącej rozwojem i wykorzystaniem takich technologii. Czasami postęp jest postrzegany przez pryzmat tego, co może nadejść, a nie tego, co jest obecnie możliwe.

Odpowiedzi ze społeczności AI na doświadczenia Lemoine rykoszetowały w mediach społecznościowych w weekend i ogólnie doszli do tego samego wniosku: sztuczna inteligencja Google nie jest ani trochę bliska świadomości. Abeba Birhane, starszy pracownik w godnej zaufania sztucznej inteligencji w Mozilli, tweetował w niedzielę „wkroczyliśmy w nową erę »ta sieć neuronowa jest świadoma« i tym razem pochłonie tyle energii, aby ją obalić”.
Gary Marcus, założyciel i dyrektor generalny firmy Geometric Intelligence, która została sprzedana Uberowi, i autor książek, w tym „Rebooting AI: Building Artificial Intelligence We Can Trust”, nazwał ideę LaMDA jako czującą „Bzdury na szczudłach” w tweecie. Szybko napisał post na blogu wskazując, że wszystkie takie systemy sztucznej inteligencji dopasowują wzorce, czerpiąc z ogromnych baz danych języka.
Blake Lemoine pozuje do portretu w Golden Gate Park w San Francisco w Kalifornii w czwartek 9 czerwca 2022 r.

W poniedziałkowym wywiadzie dla CNN Business Marcus powiedział, że najlepszym sposobem myślenia o systemach takich jak LaMDA jest „uwielbiona wersja” oprogramowania do autouzupełniania, którego możesz użyć do przewidzenia następnego słowa w wiadomości tekstowej. Jeśli wpiszesz „Jestem naprawdę głodny, więc chcę iść do”, może zasugerować „restauracja” jako następne słowo. Ale to prognoza wykonana za pomocą statystyk.

„Nikt nie powinien myśleć, że autouzupełnianie, nawet na sterydach, jest świadome” – powiedział.

W wywiadzie Gebru, który jest założycielem i dyrektorem wykonawczym Rozproszony Instytut Badawczy AIlub DAIR, powiedział, że Lemoine jest ofiarą wielu firm twierdzących, że świadoma sztuczna inteligencja lub sztuczna inteligencja ogólna – idea odnosząca się do sztucznej inteligencji, która może wykonywać zadania podobne do ludzkich i wchodzić w interakcje z nami w znaczący sposób – nie są daleko.
Google zaoferował profesorowi 60 000 dolarów, ale odrzucił to.  Oto dlaczego
Na przykład zauważyła, że ​​Ilya Sutskever, współzałożyciel i główny naukowiec OpenAI, tweetował w lutym, że „może być tak, że dzisiejsze duże sieci neuronowe są nieco świadome”. A w zeszłym tygodniu wiceprezes Google Research i kolega Blaise Aguera i Arcas napisał w artykule dla Economist że kiedy zaczął używać LaMDA w zeszłym roku, „Coraz bardziej czułem się, jakbym rozmawiał z kimś inteligentnym”. (Ten artykuł zawiera teraz notatkę redaktora wskazującą, że Lemoine „podobno został przeniesiony na urlop po tym, jak w wywiadzie dla Washington Post stwierdził, że LaMDA, chatbot Google, stał się „świadomy”).

„To, co się dzieje, to taki wyścig, by użyć więcej danych, więcej obliczeń, by powiedzieć, że stworzyłeś tę ogólną rzecz, która wszystko wie, odpowiada na wszystkie twoje pytania lub cokolwiek innego, i to jest bęben, na którym grałeś” – powiedział Gebru. . “Więc jak jesteś zaskoczony, kiedy ta osoba posuwa się do skrajności?”

W swoim oświadczeniu Google wskazał, że LaMDA przeszło 11 „odmiennych przeglądów zasad AI”, a także „rygorystycznych badań i testów” związanych z jakością, bezpieczeństwem i zdolnością do formułowania stwierdzeń opartych na faktach. „Oczywiście niektórzy w szerszej społeczności AI rozważają długoterminową możliwość istnienia świadomej lub ogólnej sztucznej inteligencji, ale nie ma sensu robić tego poprzez antropomorfizację dzisiejszych modeli konwersacyjnych, które nie są świadome” – powiedziała firma.

„Setki badaczy i inżynierów nawróciło się za pomocą LaMDA i nie jesteśmy świadomi, że ktokolwiek inny wysuwałby szeroko zakrojone twierdzenia lub antropomorfizował LaMDA, tak jak zrobił to Blake” – powiedział Google.

By admin

Leave a Reply

Your email address will not be published.