Skip to content Skip to footer

Stop AI! List otwarty naukowców

Toczy się gorąca dyskusja na temat zaprzestania prac nad modelami sztucznej inteligencji, które przewyższają GPT4. Ton debaty staje się coraz bardziej sensacyjny. ESYudkowsky, badacz sztucznej inteligencji (głównie singularity), wypowiada się w magazynie TIME i twierdzi, że „wszystkie projekty muszą zostać natychmiast zakończone”.

„Nie mamy przygotowania ani planu. Rozwój sztucznej inteligencji przewyższa postęp w jej dostosowywaniu oraz zrozumieniu, co się w tych systemach dzieje. Jeśli nie podejmiemy odpowiednich działań, grozi nam zagłada.

Jeśli nie jesteś pewien, czy tworzysz sztuczną inteligencję o świadomości, jest to alarmujące nie tylko ze względu na implikacje moralne, ale również dlatego, że brak pewności oznacza, że nie wiesz, co robisz, co jest niebezpieczne i wymaga natychmiastowego zaprzestania.”

Eliezer Yudkowsky dla TIME

Jak potężne są modele GPT-4? Obecnie nie mamy oficjalnych danych dotyczących parametrów, jednak według informacji od @semafor (opartych na 8 źródłach), GPT-4 zawiera 1 bilion parametrów, co stanowi znaczny wzrost w porównaniu do 175 miliardów parametrów w GPT-3. Modele te wykazują cechy emergentne, pozwalając na wykonywanie zadań, których wcześniej nie były w stanie wykonać.

Na koniec cytat Raya Kurzweila z 2020 roku:
„Nie możesz zatrzymać rzeki postępów. Te etyczne debaty są jak kamienie w strumieniu. Woda krąży wokół nich.”

Źródło:
https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/

Narzędzia AI - Newsletter

Będziemy sukcesywnie udostępniali nowe narzędzia oraz najważniejsze informacje o AI dla naszych subskrybentów.
Zapisz się do darmowego Newslettera i nie przegap okazji!