Sztuczna inteligencja może doprowadzić do wyginięcia ludzkości, a zmniejszenie ryzyka związanego z tą technologią powinno być globalnym priorytetem, stwierdzili eksperci branżowi i liderzy technologii w liście otwartym.
„Zmniejszenie ryzyka wyginięcia przez sztuczną inteligencję powinno być globalnym priorytetem obok innych zagrożeń na skalę społeczną, takich jak pandemie i wojna nuklearna” – czytamy we wtorkowym oświadczeniu.
Sam Altman, dyrektor generalny OpenAI twórcy ChatGPT, a także dyrektorzy z Google – ramię sztucznej inteligencji DeepMind i Microsoft – byli wśród tych, którzy poparli i podpisali krótkie oświadczenie Centrum Bezpieczeństwa AI.
Technologia nabrała tempa w ostatnich miesiącach po tym, jak chatbot ChatGPT został udostępniony do użytku publicznego w listopadzie, a następnie rozprzestrzenił się w sposób viralowy. W zaledwie dwa miesiące po uruchomieniu osiągnął 100 milionów użytkowników.
ChatGPT zadziwił naukowców i opinię publiczną swoją zdolnością do generowania ludzkich odpowiedzi na podpowiedzi użytkowników, sugerując, że sztuczna inteligencja może naśladować i zastąpić pracę ludzi.
W oświadczeniu we wtorek stwierdzono, że narasta dyskusja na temat „szerokiego spektrum ważnych i pilnych zagrożeń związanych ze sztuczną inteligencją”.
Stwierdzono jednak, że „trudno jest wyrazić obawy dotyczące niektórych najpoważniejszych zagrożeń związanych z zaawansowaną sztuczną inteligencją”; inicjatywa ma na celu przezwyciężenie tej przeszkody i otwarcie dyskusji.
ChatGPT prawdopodobnie wywołał znacznie większą świadomość i przyjęcie sztucznej inteligencji, ponieważ duże firmy na całym świecie ścigały się w opracowywaniu konkurencyjnych produktów i możliwości.
Altman przyznał w marcu, że „trochę się boi” sztucznej inteligencji, ponieważ obawia się, że autorytarne rządy rozwiną tę technologię. Inni liderzy technologiczni, tacy jak Elon Musk z Tesli i były dyrektor generalny Google, Eric Schmidt, ostrzegają przed zagrożeniami, jakie sztuczna inteligencja stwarza dla społeczeństwa.
W marcowym liście otwartym Musk, współzałożyciel Apple Steve Wozniak i kilku liderów technologicznych wezwali laboratoria sztucznej inteligencji do zaprzestania uczenia systemów, aby były potężniejsze niż GPT-4 – który jest najnowszym dużym modelem językowym OpenAI. Wezwali również do sześciomiesięcznej przerwy w tak zaawansowanym rozwoju.
„Współczesne systemy sztucznej inteligencji stają się teraz konkurencyjne dla ludzi w ogólnych zadaniach” – czytamy w liście.
„Czy powinniśmy zautomatyzować wszystkie zadania, w tym te spełniające? Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć nas, przechytrzyć, zastąpić przestarzałe rozwiązania; zastąpić nas? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?” — pytał list.