Toczy się gorąca dyskusja na temat zaprzestania prac nad modelami sztucznej inteligencji, które przewyższają GPT4. Ton debaty staje się coraz bardziej sensacyjny. ESYudkowsky, badacz sztucznej inteligencji (głównie singularity), wypowiada się w magazynie TIME i twierdzi, że „wszystkie projekty muszą zostać natychmiast zakończone”.
„Nie mamy przygotowania ani planu. Rozwój sztucznej inteligencji przewyższa postęp w jej dostosowywaniu oraz zrozumieniu, co się w tych systemach dzieje. Jeśli nie podejmiemy odpowiednich działań, grozi nam zagłada.
Jeśli nie jesteś pewien, czy tworzysz sztuczną inteligencję o świadomości, jest to alarmujące nie tylko ze względu na implikacje moralne, ale również dlatego, że brak pewności oznacza, że nie wiesz, co robisz, co jest niebezpieczne i wymaga natychmiastowego zaprzestania.”
Eliezer Yudkowsky dla TIME
Jak potężne są modele GPT-4? Obecnie nie mamy oficjalnych danych dotyczących parametrów, jednak według informacji od @semafor (opartych na 8 źródłach), GPT-4 zawiera 1 bilion parametrów, co stanowi znaczny wzrost w porównaniu do 175 miliardów parametrów w GPT-3. Modele te wykazują cechy emergentne, pozwalając na wykonywanie zadań, których wcześniej nie były w stanie wykonać.
Na koniec cytat Raya Kurzweila z 2020 roku:
„Nie możesz zatrzymać rzeki postępów. Te etyczne debaty są jak kamienie w strumieniu. Woda krąży wokół nich.”
Źródło:
https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/