18 kwietnia 2023

Źle wdrożona sztuczna inteligencja może być bardzo szkodliwa – ostrzega szef Google’a

(pixabay.com)

Trwa debata nad tym jak tzw. sztuczna inteligencja może ingerować w nasze życie. Do grona zaniepokojonych dołączył właśnie szef firmy Google. Sundar Pichai wyznał, że obawy związane ze sztuczną inteligencją nie dają mu spać w nocy, a technologia ta może być „bardzo szkodliwa”, jeśli zostanie źle wdrożona.

Pichai udzielił wywiadu amerykańskiej stacji CBS. Wezwał w nim do stworzenia globalnych ram regulacyjnych dla sztucznej inteligencji. Zagrożenie złym wykorzystaniem musi być poważne, skoro przedstawiciel giganta technologicznego apeluje o potraktowanie kwestii AI tak jak broni jądrowej i opisania reguł w podobnych traktatach.

Zdaniem rozmówcy CBS jest to potrzebne, gdyż wkraczamy na ścieżkę ostrej rywalizacji w zakresie AI i trwa wyścig o to kto pierwszy wyprodukuje bardziej zaawansowaną technologię. A to prosta droga do odsuwania na bok obaw związanych z bezpieczeństwem. Pichai dodał, że AI „może być bardzo szkodliwa, jeśli zostanie źle wdrożona i nie mamy jeszcze wszystkich odpowiedzi – a technologia porusza się szybko”.

Wesprzyj nas już teraz!

Będący właścicielem Google’a, konglomerat Alphabet Inc. w marcu uruchomił chatbota Bard, odpowiadając na globalną popularność ChatGPT, opracowanego przez amerykańską firmę technologiczną OpenAI, który został zaprezentowany w listopadzie zeszłego roku. W marcu tysiące ekspertów od sztucznej inteligencji, badaczy i jej zwolenników, w tym właściciel Twittera Elon Musk, podpisało list wzywający do wstrzymania tworzenia „gigantycznych” sztucznych inteligencji na co najmniej sześć miesięcy w związku z obawami, że rozwój technologii może wymknąć się spod kontroli. 

Technologia AI użyta w ChatGPT i Bard, znana jako Large Language Model, jest szkolona na ogromnym zbiorze danych pobranych z internetu i na zadane przez użytkowników pytania jest w stanie wygenerować wiarygodne odpowiedzi w różnych formatach, od wierszy do esejów akademickich i kodów oprogramowania.

Pichai zauważył, że AI może wyrządzić szkody poprzez swoją zdolność do wytwarzania dezinformacji. – Z AI będzie możliwe łatwo stworzyć wideo, w którym Scott (Pelley, prowadzący wywiad w CBS – PAP) mówi coś, albo ja mówię coś, czego nigdy nie powiedzieliśmy. I mogłoby to wyglądać realistycznie. Ale wiesz, na skalę społeczną, wiesz, może to spowodować wiele szkód – wyjaśnił. Zapewnił, że wersja sztucznej inteligencji upubliczniona przez Google’a poprzez chatbota Bard jest bezpieczna, a firma wstrzymała bardziej zaawansowane wersje Barda do testów.

Co ciekawe, szef Google’a nie do końca rozumie, jak jego technologia AI produkuje pewne odpowiedzi. – Jest pewien aspekt tego, który nazywamy, wszyscy w tej dziedzinie nazywają, +czarną skrzynką+. Wiesz, nie rozumiesz w pełni. I nie możesz do końca powiedzieć, dlaczego ona powiedziała to, albo dlaczego się pomyliła – mówił. Zapytany, dlaczego Google upubliczniło Barda, skoro nie do końca rozumie jak działa, Pichai odpowiedział: „Pozwól mi to ująć w ten sposób. Nie sądzę, że my też w pełni rozumiemy, jak działa ludzki umysł”.

Pichai przyznał, że społeczeństwo nie wydaje się być gotowe na szybkie postępy w AI. Powiedział, że „wydaje się, że istnieje niedopasowanie” między tempem, w jakim społeczeństwo myśli i dostosowuje się do zmian, w porównaniu z tempem, w jakim AI się rozwijała. Dodał jednak, że przynajmniej ludzie szybciej stali się czujni na jej potencjalne zagrożenia. – W porównaniu z każdą inną technologią, widziałem więcej ludzi zaniepokojonych nią na wcześniejszym etapie jej cyklu życia. Czuję się więc optymistycznie – przekonywał.

Źródło: Bartłomiej Niedziński (PAP)/ Oprac. MA

pap logo

Piotr Semka: a co jeśli sztuczna inteligencja będzie kontrolowana przez najgorszych łajdaków?

Moralność, etyka? Dla „sztucznej inteligencji” to pojęcia obce. Liczy się osiągnięcie celu

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij

Udostępnij przez

Cel na 2025 rok

Po osiągnięciu celu na 2024 rok nie zwalniamy tempa! Zainwestuj w rozwój PCh24.pl w roku 2025!

mamy: 32 506 zł cel: 500 000 zł
7%
wybierz kwotę:
Wspieram