在科學界達成安全可控開發(fā)超級智能的廣泛共識前,暫停研發(fā)超級智能。”非營利組織“未來生命研究所”(Future of Life Institute)于10月22日發(fā)布聲明,已有超過3000名全球知名的人工智能科學家、政策制定者、商業(yè)領袖及其他社會各界知名人士簽名,包括人工智能先驅杰弗里·辛頓,蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克,中國科學院院士、圖靈獎得主姚期智,清華大學智能產業(yè)研究院院長張亞勤,人工智能倫理與治理專家曾毅等。
超級智能是指在所有領域超越人類認知能力的人工智能系統(tǒng)。該聯(lián)合聲明警告稱,超越人類智能的人工智能系統(tǒng)帶來從經濟崩潰到人類滅絕的風險。

“人工智能安全中心”(Center for AI Safety)聲明。圖源:每日經濟新聞
人工智能爆發(fā)元年也就是2023年,非營利組織“人工智能安全中心”(Center for AI Safety)也曾發(fā)布聲明,這份僅有22個英文單詞的簡短聲明稱,降低AI可能帶來的滅絕風險,應與流行病和核戰(zhàn)爭等一樣成為全球首要任務。當時OpenAI首席執(zhí)行官山姆、人工智能先驅杰弗里·辛頓、微軟首席技術官凱文·斯科特等數(shù)百名AI行業(yè)的領軍人物、學者等共同簽署了這份聲明。
也是在這一年,出于對AI的擔憂,包括馬斯克、斯蒂夫·沃茲尼亞克在內的1000多名人工智能專家和行業(yè)高管簽署了一份公開信,呼吁人類暫停開發(fā)更強大的人工智能至少6個月。
事實上,這幾年來AI引發(fā)的問題及風險時有發(fā)生。還記得英國那起令人震驚的深度偽造詐騙案嗎?一員工應公司“上級”邀請參加視頻會議,并根據(jù)對方指令將約2億港元匯入多個賬戶,事后調查發(fā)現(xiàn),除該員工本人外,所有“參會者”皆為由AI合成的虛擬影像。還有AI聊天機器人誘導美國少年自殺身亡,等等。
這或許只是些極端案例。試想當下通用人工智能尚且如此危險,當超越人類認知能力的超級智能來了,曾毅稱其風險是沒有科學依據(jù)可以控制的。
杰弗里·辛頓在今年世界人工智能大會上的演講也向世界敲響了警鐘:“未來,一個超級智能會發(fā)現(xiàn)通過操縱使用它的人類來獲取更多權力是輕而易舉的,之后它將從我們這里學會如何欺騙人類,它將操縱負責將它關閉的人類。”你能想象,如果一個汲取了人類智慧的超級智能最終還是決定對人類不利,我們有何掣肘?
