KRK.TV

niezależna telewizja internetowa – portal informacyjny

Sztuczna inteligencja stwarza ryzyko zniszczenia ludzkości na równi z wojną nuklearną – ostrzegają Sam Altman

Sztuczna inteligencja może doprowadzić do wyginięcia ludzkości, a zmniejszenie ryzyka związanego z tą technologią powinno być globalnym priorytetem, stwierdzili eksperci branżowi i liderzy technologii w liście otwartym.

„Zmniejszenie ryzyka wyginięcia przez sztuczną inteligencję powinno być globalnym priorytetem obok innych zagrożeń na skalę społeczną, takich jak pandemie i wojna nuklearna” – czytamy we wtorkowym oświadczeniu.

Sam Altman, dyrektor generalny OpenAI twórcy ChatGPT, a także dyrektorzy z Google – ramię sztucznej inteligencji DeepMind i Microsoft – byli wśród tych, którzy poparli i podpisali krótkie oświadczenie Centrum Bezpieczeństwa AI.

Technologia nabrała tempa w ostatnich miesiącach po tym, jak chatbot ChatGPT został udostępniony do użytku publicznego w listopadzie, a następnie rozprzestrzenił się w sposób viralowy. W zaledwie dwa miesiące po uruchomieniu osiągnął 100 milionów użytkowników.

ChatGPT zadziwił naukowców i opinię publiczną swoją zdolnością do generowania ludzkich odpowiedzi na podpowiedzi użytkowników, sugerując, że sztuczna inteligencja może naśladować i zastąpić pracę ludzi.

W oświadczeniu we wtorek stwierdzono, że narasta dyskusja na temat „szerokiego spektrum ważnych i pilnych zagrożeń związanych ze sztuczną inteligencją”.

Stwierdzono jednak, że „trudno jest wyrazić obawy dotyczące niektórych najpoważniejszych zagrożeń związanych z zaawansowaną sztuczną inteligencją”; inicjatywa ma na celu przezwyciężenie tej przeszkody i otwarcie dyskusji.

ChatGPT prawdopodobnie wywołał znacznie większą świadomość i przyjęcie sztucznej inteligencji, ponieważ duże firmy na całym świecie ścigały się w opracowywaniu konkurencyjnych produktów i możliwości.

Altman przyznał w marcu, że „trochę się boi” sztucznej inteligencji, ponieważ obawia się, że autorytarne rządy rozwiną tę technologię. Inni liderzy technologiczni, tacy jak Elon Musk z Tesli i były dyrektor generalny Google, Eric Schmidt, ostrzegają przed zagrożeniami, jakie sztuczna inteligencja stwarza dla społeczeństwa.

W marcowym liście otwartym Musk, współzałożyciel Apple Steve Wozniak i kilku liderów technologicznych wezwali laboratoria sztucznej inteligencji do zaprzestania uczenia systemów, aby były potężniejsze niż GPT-4 – który jest najnowszym dużym modelem językowym OpenAI. Wezwali również do sześciomiesięcznej przerwy w tak zaawansowanym rozwoju.

„Współczesne systemy sztucznej inteligencji stają się teraz konkurencyjne dla ludzi w ogólnych zadaniach” – czytamy w liście.

„Czy powinniśmy zautomatyzować wszystkie zadania, w tym te spełniające? Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć nas, przechytrzyć, zastąpić przestarzałe rozwiązania; zastąpić nas? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?” — pytał list.

Zobacz więcej

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

WP Radio
WP Radio
OFFLINE LIVE