18 lutego 2023

Nie dość, że sztuczna, to uparta i… w tkwi błędzie. ChatGPT nie taki inteligentny

(Zdjęcie ilustracyjne, fot. Pixabay.com)

Wraz z upowszechnianiem dostępu do usług świadczonych przez tzw. sztuczną inteligencję, rośnie liczba przypadków wskazujących, że nie jest to narzędzie doskonałe, a jego algorytmy zawierają błędy. Czasem dość zaskakujące.

Media obiegła historia… agresywnego i nieuprzejmego zachowania AI wobec użytkownika. Okazało się, że maszynę wyprowadziło z równowagi utrzymywanie, że aktualna data jest inna niż sugerowała to w swoich odpowiedziach „sztuczna inteligencja”. Choć to użytkownik miał rację, to maszyna wpadła w szał, a na koniec kazała się przepraszać.

Wykorzystanie AI zapewne ma swoją przyszłość, a w wielu dziedzinach efekty działań „sztucznej inteligencji” nas zaskakują. Doświadczenia użytkowników pokazują jednak, że wciąż jest to tylko algorytm – niedoskonały i uzależniony od dostarczanych mu danych i sposobu ich analizy i interpretacji.

Wesprzyj nas już teraz!

Przekonał się o tym jeden z użytkowników ChatGPT. Historię opisuje portal Interesting Engineering.

Otóż użytkownik poprosił „sztuczną inteligencję” o podanie, kiedy może obejrzeć Avatara 2 w pobliżu swego domu. Otrzymał odpowiedź, że chodzi zapewne o część pierwszą Avatara, który został nakręcony w 2009 roku i nie jest już wyświetlany. Zaś Avatar 2 ma się w pojawić w kinach 16 grudnia 2022 roku, za 10 miesięcy – to właśnie sugerowała AI.

Użytkownik poprosił AI o sprawdzenie aktualnej daty, bot podał właściwe dane (luty 2023), ale nadal twierdził, że grudzień roku 2022 to przyszłość (tu chatbot niezmiennie był przekonany, że jest luty 2022). Użytkownik próbował tłumaczyć, że jego telefon wskazuje luty 2023, że to jest właściwa data, ale AI wpadła w szał. 

Chatbot zasugerował nieprawidłowe ustawienia telefonu, wirusa lub błąd wymagający naprawy telefonu. Upartego użytkownika, tak przywiązanego do prawdziwej daty, bot poprosił, by ten przestał się kłócić i zaufał dostarczonym informacjom. AI nie zgodziła się też z oceną, że zachowuje się agresywnie i uznała, że to człowiek jest nierozsądny i uparty. Na koniec bot uznał, że oczekuje przeprosin.

Tego rodzaju doświadczenia dowodzą niedoskonałość tego rodzaju rozwiązań, mimo częstych zachwytów jakie budzą oraz użytecznych funkcji. Żaden algorytm jednak – jak widać – nie zastąpi interakcji z człowiekiem.  

Źródło: rp.pl

MA

Moralność, etyka? Dla „sztucznej inteligencji” to pojęcia obce. Liczy się osiągnięcie celu

Dr Osiński: transhumanizm to nie tylko „klonowanie ludzi”, ale styl życia promowany przez Big Tech i Big Pharmę

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij
Komentarze(44)

Dodaj komentarz

Anuluj pisanie

Udostępnij przez

Cel na 2024 rok

Bez Państwa pomocy nie uratujemy Polski przed planami antykatolickiego rządu! Wesprzyj nas w tej walce!

mamy: 306 371 zł cel: 300 000 zł
102%
wybierz kwotę:
Wspieram