Były główny naukowiec OpenAI i współtwórca ChataGPT, Ilya Sutskever oznajmił, że obecne duże modele językowe poznały już całą dostępną ludzkości wiedzę. Stanowisko zaniepokoiło inwestorów i akcjonariuszy, których zapewniano, że technologia będzie rozwijać się niemal w nieskończoność.
— Osiągnęliśmy limit danych i więcej ich nie będzie — powiedział Sutskever podczas przemówienia na dorocznym wydarzeniu Neurips.
Wszystkie przydatne dane w Internecie zostały już wykorzystane do trenowania modeli sztucznej inteligencji. Ulepszenia uległy jednak spowolnieniu, a Sutskever powiedział, że ta era „bez wątpienia się skończy”.
Wesprzyj nas już teraz!
Businessinsider przekonuje, że dla całej branży to „przerażająca perspektywa”, ponieważ biliony dolarów wartości giełdowej i inwestycji w sztuczną inteligencję zależą od tego, czy modele będą coraz lepsze. Na podstawie wykładniczego modelu rozwoju algorytmów generatywnych opierano liczne polityki wielkich koncernów technologicznych, a także decyzje niektórych administracji. Przewidywania rozwoju AI determinują również polityki zarządzania przestrzenią informacyjną. To właśnie obawa przed coraz lepszymi i coraz „inteligentniejszymi” algorytmami skłania do rozważenia restrykcyjnych rozwiązań w odniesieniu do cenzury m.in. mediów społecznościowych. Na przekonaniu o wykładniczym rozwoju technologii bazują również przewidywania transhumanistów, widzących w AI nową formę ewolucji.
W odpowiedzi na problem limitu danych, naukowcy na całym świecie pracują nad nową generacją modeli językowych, wykorzystujących metodę zwaną obliczeniami w fazie testowania lub w fazie wnioskowania (test-time/inference-time compute). W wielkim skrócie, metoda polega na wykorzystywaniu do rozwiązywania problemu nowych informacji, wygenerowanych już tylko przez sztuczną inteligencję. OpenAI wypuściło we wrześniu model o nazwie o1, oparty na nowej technice, a w ślad za nim szybko poszły Google i chińskie laboratorium AI DeepSeek, które wprowadziły podobne modele „wnioskujące”. Nie wiadomo jednak, czy rozwiązanie przysłuży się dalszemu rozwojowi generatywnej sztucznej inteligencji.
Źródło: businessinsider.com.pl / własne PCh24.pl
PR
Problem z prawną definicją dezinformacji i innych „szkodliwych” wiadomości