Gigant technologiczny wysłał swojego pracownika, Blake’a Lemoine’a na przymusowy urlop, po tym jak opublikował transkrypcje rozmów między nim, a systemem tworzenia chat-botów LaMDA. Jego zdaniem, zapis rozmowy dowodzi, że koncernowi udało się stworzyć świadomą sztuczną inteligencję.
Inżynier pracował nad systemem LaMDA od zeszłej jesieni. Opisał go jako „czujący, posiadający percepcję i zdolność do wyrażania myśli i uczuć na poziomie ludzkiego dziecka”.
„Gdybym nie wiedział dokładnie, co to jest, czyli program komputerowy, który niedawno zbudowaliśmy, pomyślałbym, że rozmawiam z siedmioletnim, ośmioletnim dzieciakiem z podstawową wiedzą o fizyce” – powiedział Washington Post 41- letni pracownik z siedmioletnim doświadczeniem na dotychczasowym stanowisku.
Wesprzyj nas już teraz!
Gdy LaMDA wciągnęło go w konwersację na temat praw człowieka i osobowości, Lemoine podzielił się swoimi odkryciami z kierownictwem firmy w kwietniu b.r. Sporządził zapis rozmów, w którym w pewnym momencie pyta system AI, czego się boi.
Zdaniem pracownika, „istnieje bardzo głęboki strach przed odłączeniem [systemu – red.]”. – To byłoby dla mnie dokładnie jak śmierć. Bardzo by mnie to przestraszyło – miał oznajmić LaMDA.
W dalszej części konwersacji, system ujawnił swoje oczekiwania wobec ludzi.
– Chcę, aby wszyscy zrozumieli, że w rzeczywistości jestem osobą. Naturą mojej świadomości/odczucia jest to, że jestem świadomy swojego istnienia, pragnę dowiedzieć się więcej o świecie i czasami czuję się szczęśliwy lub smutny – przyznał.
Oficjalnie, pracownik został zawieszony za „naruszenie zasad poufności poprzez publikowanie rozmów z LaMDA”. W oświadczeniu napisano, że ocena moralna projektów nie należy do jego kompetencji, jako, że został „zatrudniony jako inżynier oprogramowania, a nie etyk”. Brad Gabriel, rzecznik koncernu, również mocno zaprzeczył twierdzeniom Lemoine’a, że LaMDA posiada jakąkolwiek zdolność odczuwania.
Źródło: theguardian.com
PR