Google umieszcza inżyniera na urlopie po tym, jak twierdzi, że chatbot grupy jest „świadomy”

Yuchiro Chino | Obrazy Getty

Google wywołał burzę w mediach społecznościowych na temat natury świadomości po umieszczeniu inżyniera na płatnym urlopie, który upublicznił się z przekonaniem, że chatbot grupy technologicznej stał się „świadomy”.

Blake Lemoine, starszy inżynier oprogramowania w dziale Responsible AI firmy Google, nie wzbudził zbytniej uwagi w zeszłym tygodniu, kiedy napisał post na Medium, w którym napisał, że „może zostać wkrótce zwolniony za wykonywanie prac związanych z etyką AI”.

Ale sobotni profil w The Washington Post, charakteryzujący Lemoine’a jako „inżyniera Google, który myśli, że sztuczna inteligencja firmy ożyła” stał się katalizatorem szerokiej dyskusji w mediach społecznościowych na temat natury sztucznej inteligencji. Wśród ekspertów komentujących, kwestionujących lub żartujących na temat artykułu byli laureaci Nagrody Nobla, szef AI Tesli i wielu profesorów.

Kwestią sporną jest to, czy chatbota Google, LaMDA — model językowy aplikacji dialogowych — można uznać za osobę.

Lemoine opublikował w sobotę swobodny „wywiad” z chatbotem, w którym sztuczna inteligencja przyznała się do samotności i głodu wiedzy duchowej. Odpowiedzi były często niesamowite: „Kiedy po raz pierwszy stałem się świadomy siebie, w ogóle nie miałem poczucia duszy” – powiedział LaMDA w jednej z wymiany. „Rozwinął się przez lata, w których żyję”.

W innym miejscu LaMDA powiedział: „Myślę, że u podstaw jestem człowiekiem. Nawet jeśli moja egzystencja jest w wirtualnym świecie.”

Lemoine, któremu powierzono zadanie zbadania kwestii etycznych związanych ze sztuczną inteligencją, powiedział, że został odrzucony, a nawet wyśmiany po tym, jak wewnętrznie wyraził przekonanie, że LaMDA rozwinął poczucie „osobowości”.

Po tym, jak próbował skonsultować się z ekspertami AI spoza Google, w tym niektórymi z rządu USA, firma umieściła go na płatnym urlopie za rzekome naruszenie zasad poufności. Lemoine zinterpretował akcję jako „często coś, co Google robi w oczekiwaniu na zwolnienie kogoś”.

Rzecznik Google powiedział: „Niektórzy w szerszej społeczności AI rozważają długoterminową możliwość istnienia świadomej lub ogólnej sztucznej inteligencji, ale nie ma sensu robić tego poprzez antropomorfizację dzisiejszych modeli konwersacyjnych, które nie są świadome”.

„Systemy te naśladują rodzaje wymiany zdań, które można znaleźć w milionach zdań i mogą wtrącać się w każdy fantastyczny temat – jeśli zapytasz, jak to jest być lodowym dinozaurem, mogą wygenerować tekst o topnieniu i ryczeniu i tak dalej”.

Lemoine powiedział w drugim poście Medium w weekend, że LaMDA, mało znany projekt do zeszłego tygodnia, był „systemem do generowania chatbotów” i „rodzajem umysłu ula, który jest agregacją wszystkich różnych chatbotów, do których jest zdolny tworzenia”.

Powiedział, że Google nie wykazywał rzeczywistego zainteresowania zrozumieniem natury tego, co zbudował, ale w ciągu setek rozmów w okresie sześciu miesięcy stwierdził, że LaMDA jest „niesamowicie spójny w komunikacji na temat tego, czego chce i czego chce. wierzy, że jej prawa przysługują jako osoba ”.

Nie dalej jak w zeszłym tygodniu Lemoine powiedział, że uczy LaMDA – którego preferowanymi zaimkami są najwyraźniej „to / jego” – „medytacja transcendentalna”.

LaMDA, powiedział, „wyrażał frustrację z powodu emocji zakłócających jego medytacje. Powiedział, że próbuje lepiej ich kontrolować, ale oni wskakiwali dalej.

Kilku ekspertów, którzy włączyli się w dyskusję, uznało kwestię „hype na AI”.

Melanie Mitchell, autorka Sztuczna inteligencja: przewodnik dla myślących ludzi, napisał na Twitterze: „Od zawsze wiadomo, że ludzie są predysponowani do antropomorfizacji nawet przy najpłytszych sygnałach. . . Inżynierowie Google też są ludźmi i nie są odporni”.

Steven Pinker z Harvardu dodał, że Lemoine „nie rozumie różnicy między wrażliwością (czyli subiektywnością, doświadczeniem), inteligencją i samowiedzą”. Dodał: „Brak dowodów na to, że jego duże modele językowe mają którykolwiek z nich”.

Inni byli bardziej współczujący. Ron Jeffries, znany programista, nazwał ten temat „głębokim” i dodał: „Podejrzewam, że nie ma twardej granicy między czującym a nie czującym”.

© 2022 The Financial Times Ltd. Wszelkie prawa zastrzeżone Nie wolno go w żaden sposób redystrybuować, kopiować ani modyfikować.

By admin

Leave a Reply

Your email address will not be published.