18 lutego 2023

Nie dość, że sztuczna, to uparta i… w tkwi błędzie. ChatGPT nie taki inteligentny

(Zdjęcie ilustracyjne, fot. Pixabay.com)

Wraz z upowszechnianiem dostępu do usług świadczonych przez tzw. sztuczną inteligencję, rośnie liczba przypadków wskazujących, że nie jest to narzędzie doskonałe, a jego algorytmy zawierają błędy. Czasem dość zaskakujące.

Media obiegła historia… agresywnego i nieuprzejmego zachowania AI wobec użytkownika. Okazało się, że maszynę wyprowadziło z równowagi utrzymywanie, że aktualna data jest inna niż sugerowała to w swoich odpowiedziach „sztuczna inteligencja”. Choć to użytkownik miał rację, to maszyna wpadła w szał, a na koniec kazała się przepraszać.

Wykorzystanie AI zapewne ma swoją przyszłość, a w wielu dziedzinach efekty działań „sztucznej inteligencji” nas zaskakują. Doświadczenia użytkowników pokazują jednak, że wciąż jest to tylko algorytm – niedoskonały i uzależniony od dostarczanych mu danych i sposobu ich analizy i interpretacji.

Wesprzyj nas już teraz!

Przekonał się o tym jeden z użytkowników ChatGPT. Historię opisuje portal Interesting Engineering.

Otóż użytkownik poprosił „sztuczną inteligencję” o podanie, kiedy może obejrzeć Avatara 2 w pobliżu swego domu. Otrzymał odpowiedź, że chodzi zapewne o część pierwszą Avatara, który został nakręcony w 2009 roku i nie jest już wyświetlany. Zaś Avatar 2 ma się w pojawić w kinach 16 grudnia 2022 roku, za 10 miesięcy – to właśnie sugerowała AI.

Użytkownik poprosił AI o sprawdzenie aktualnej daty, bot podał właściwe dane (luty 2023), ale nadal twierdził, że grudzień roku 2022 to przyszłość (tu chatbot niezmiennie był przekonany, że jest luty 2022). Użytkownik próbował tłumaczyć, że jego telefon wskazuje luty 2023, że to jest właściwa data, ale AI wpadła w szał. 

Chatbot zasugerował nieprawidłowe ustawienia telefonu, wirusa lub błąd wymagający naprawy telefonu. Upartego użytkownika, tak przywiązanego do prawdziwej daty, bot poprosił, by ten przestał się kłócić i zaufał dostarczonym informacjom. AI nie zgodziła się też z oceną, że zachowuje się agresywnie i uznała, że to człowiek jest nierozsądny i uparty. Na koniec bot uznał, że oczekuje przeprosin.

Tego rodzaju doświadczenia dowodzą niedoskonałość tego rodzaju rozwiązań, mimo częstych zachwytów jakie budzą oraz użytecznych funkcji. Żaden algorytm jednak – jak widać – nie zastąpi interakcji z człowiekiem.  

Źródło: rp.pl

MA

Moralność, etyka? Dla „sztucznej inteligencji” to pojęcia obce. Liczy się osiągnięcie celu

Dr Osiński: transhumanizm to nie tylko „klonowanie ludzi”, ale styl życia promowany przez Big Tech i Big Pharmę

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij

Udostępnij przez

Cel na 2025 rok

Po osiągnięciu celu na 2024 rok nie zwalniamy tempa! Zainwestuj w rozwój PCh24.pl w roku 2025!

mamy: 32 556 zł cel: 500 000 zł
7%
wybierz kwotę:
Wspieram