Czy powinniśmy przestać trenować zaawansowaną sztuczną inteligencję?

2023-05-02

Jaksztuczna inteligencja (AI)nadal się rozwija, niektóre kluczowe postacie w tej dziedzinie wzywają obecnie do zawieszenia szkolenia AI ze względu na ryzyko, jakie stanowi ono dla ludzkości. Dyrektor generalny Twittera Elon Musk, współzałożyciel Apple Steve Wozniak i niektórzy badacze z DeepMind podpisali list otwarty z Instytutu Przyszłości Życia, wzywając do tymczasowego zawieszenia rozwoju sztucznej inteligencji powyżej określonej wydajności, ostrzegając przed potencjalnym ryzykiem stwarzanym przez bardziej zaawansowane systemy . W liście argumentuje się, że w ostatnich miesiącach laboratoria sztucznej inteligencji utknęły w wymykającym się spod kontroli wyścigu w celu opracowania potężniejszych cyfrowych umysłów, których nawet ich twórcy nie są w stanie zrozumieć, przewidzieć ani kontrolować.

Instytut Przyszłości Życia to organizacja non-profit, której celem jest odwrócenie technologii transformacyjnych od ekstremalnych zagrożeń na dużą skalę w kierunku korzyści dla życia. W swoim liście otwartym organizacja stwierdza, że ​​systemy AI z inteligencją rywalizującą z ludźmi stanowią poważne zagrożenie dla społeczeństwa i ludzkości. List ostrzega, że ​​takie systemy mogą zalać kanały informacyjne dezinformacją i zastąpić miejsca pracy automatyzacją. Zaawansowane AI należy opracowywać ostrożnie, ale zamiast tego w ostatnich miesiącach laboratoria ścigały się, by wdrażać coraz potężniejsze systemy.

Bank inwestycyjny Goldman Sachs opublikował niedawno raport stwierdzający, że chociaż sztuczna inteligencja prawdopodobnie zwiększy produktywność, miliony miejsc pracy mogą zostać zautomatyzowane. Jednak inni eksperci twierdzą, że wpływ AI na rynek pracy jest trudny do przewidzenia. W liście Instytut Przyszłości Życia pyta: „Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć liczebnie, przechytrzyć, przestarzałe [sic] i zastąpić nas?” Profesor Stuart Russell z Uniwersytetu Kalifornijskiego w Berkeley i sygnatariusz listu powiedział BBC News, że systemy sztucznej inteligencji stanowią poważne zagrożenie dla demokracji poprzez dezinformację z użyciem broni, dla zatrudnienia poprzez przemieszczanie umiejętności ludzkich oraz edukacji poprzez plagiat i demotywację.

List ostrzega również przed potencjalnym przyszłym zagrożeniem dla ludzkiej kontroli nad naszą cywilizacją ze strony zaawansowanej sztucznej inteligencji, ale profesor informatyki z Princeton, Arvind Narayanan, skrytykował list za ignorowanie wersji problemu, która już szkodzi ludziom. Oskarżył list o skupienie się na „spekulacyjnym, futurystycznym ryzyku”. OpenAI, firma stojąca za ChatGPT, niedawno wypuściła GPT-4 — najnowocześniejszą technologię, która zaimponowała obserwatorom swoją zdolnością do wykonywania zadań, takich jak odpowiadanie na pytania dotyczące obiektów na obrazach.OpenAInie skomentował publicznie listu.

Biorąc pod uwagę potencjalne zagrożenia związane z szybkim rozwojem sztucznej inteligencji, eksperci apelują o większą ostrożność w jej rozwoju. W szczególności wzywają laboratoria do natychmiastowego wstrzymania na co najmniej sześć miesięcy szkolenia systemów sztucznej inteligencji potężniejszych niż GPT-4. Chociaż sztuczna inteligencja może zmienić społeczeństwo, eksperci twierdzą, że taka transformacja nie powinna odbywać się kosztem ludzkiego bezpieczeństwa i kontroli.

Na dłuższą metę podjęcie rozsądnych środków ostrożności to niewielka cena za ograniczenie ryzyka stwarzanego przez zaawansowaną sztuczną inteligencję. Jednak eksperci twierdzą również, że ryzyko jest trudne do przewidzenia i że musimy postępować ostrożnie, aby uniknąć niezamierzonych konsekwencji. Future of Life Institute zachęca twórców sztucznej inteligencji do rozważenia potencjalnych przyszłych implikacji ich pracy i zapewnienia, że ​​zaawansowane sztucznej inteligencji są opracowywane z rozwagą.

Ogólnie rzecz biorąc, wezwanie do zawieszenia szkolenia w zakresie sztucznej inteligencji powyżej określonej zdolności odzwierciedla rosnące zaniepokojenie zagrożeniami, jakie stwarzają zaawansowane SI. Chociaż wciąż niewiele wiemy o długoterminowych konsekwencjach sztucznej inteligencji, eksperci zalecają ostrożność, aby uniknąć potencjalnych szkód dla społeczeństwa i ludzkości. Szybkie tempo rozwoju sztucznej inteligencji w ostatnich latach wzbudziło u wielu ekspertów obawy, że technologia może wymknąć się spod kontroli i że grozi nam tworzenie systemów, których nie możemy zrozumieć ani kontrolować. W związku z tym wezwanie do wstrzymania rozwoju sztucznej inteligencji jest niezbędnym krokiem w celu zapewnienia, że ​​możemy bezpiecznie i odpowiedzialnie wykorzystać potencjał sztucznej inteligencji.


Uzyskaj najnowszą cenę? Odpowiemy najszybciej jak to możliwe (w ciągu 12 godzin)