每日經濟新聞 2024-06-05 10:44:33
每經編輯 杜宇
4日,7名OpenAI前員工、4名現任匿名員工和谷歌DeepMind前任與現任員工發布公開信,警告商業公司競相開發人工智能產品存在風險,該行業缺乏足夠的監管,并可能對吹哨人打擊報復。
公開信刊載在righttowarn.ai網站上,網站域名和信件標題都在捍衛這些頂尖AI公司員工《對先進人工智能發出警告的權利》,呼吁對AI行業進行全面改革,包括提高透明度和保護吹哨人。
信件稱,人工智能技術有潛力為人類帶來前所未有的利益,但也存在嚴重風險,包括進一步加劇現有的不平等、操縱和誤導信息,以及失去對自主人工智能系統的控制,可能導致人類滅絕。
圖片來源:righttowarn.ai網站
信件隨即列出OpenAI、谷歌人工智能實驗室Google DeepMind、谷歌和亞馬遜支持的AI初創公司Anthropic等官網,以及英美等國政府網站和一些人工智能專家都“已承認存在這些風險”。
公開信稱,原本希望在科學界、政策制定者和公眾的充分指導下,上述先進AI系統帶來的風險能夠得到充分緩解,但人工智能公司有強烈的經濟動機來逃避有效監督:
“人工智能公司掌握著大量非公開信息,包括其系統的能力和局限性、保護措施的充分性,以及不同類型傷害的風險水平。但它們目前只有很弱的義務向政府分享部分信息,對公民社會則沒有任何分享義務。我們認為,不能指望它們(注:商業公司)自愿分享這些信息。”
信件還稱,AI公司們與員工簽署了廣泛的保密協議,與離職員工簽署了不能借由披露AI風險而“對公司進行貶低批評”的嚴苛條款,整個行業發生過對吹哨人各種形式的報復案件。
因此,公開信要求OpenAI及所有人工智能公司都不得簽訂或執行避免批評AI風險的保密協議,不能通過妨礙揭露AI風險吹哨人的既得經濟利益來打擊報復,而且要為現任和前任員工提供“可驗證的匿名流程”,以便向公司董事會、監管機構和具有相關專業知識的獨立組織提出與AI風險相關的擔憂,前提是吹哨人需要對公司的商業機密和其他知識產權利益進行適當保護。
公開信的簽署者之一、今年4月從OpenAI人工智能治理崗位離職的Daniel Kokotajlo指出,辭職是因為“對OpenAI能否負責任地行事失去了信心”。他稱OpenAI的人工智能系統已經接近人類智能水平,通用人工智能AGI有50%的可能性在2027年就會問世,而不是此前預測的2050年:
“世界還沒有準備好(迎接如此高級的AI智能),我們也沒有準備好,我擔心(這些商業公司)將不管不顧地一意孤行,并為自己的行為尋找借口。先進的人工智能毀滅人類或對人類造成災難性傷害的可能性高達70%。”
圖片來源:視覺中國
另據參考消息,沙特阿拉伯《阿拉伯新聞》日報網站5月26日刊登題為《全球人工智能討論必須在關注機遇的同時關注風險》的文章,英國倫敦政治經濟學院國際事務、外交和重大戰略研究中心研究員安德魯·哈蒙德表示,目前,人工智能帶來的巨大經濟機遇令市場興奮不已。許多投資者認為,這項新興技術將在未來幾年大幅提高生產率并重塑全球經濟。
然而,人工智能的風險也必須成為全球討論的一個關鍵點。著名計算機科學家杰弗里·欣頓斷言,這項技術對人類構成的威脅可能比氣候變化“更為緊迫”。
埃隆·馬斯克等關鍵商業領袖也發出警告,呼吁立即暫停某些系統的開發。這位特斯拉創始人經常警告在他看來人工智能系統存在的危險,甚至簽署了一封公開信,警告“失控”的發展可能“對社會和人類構成巨大風險”。
這一話題是全球人工智能安全峰會的一個關鍵主題,該峰會由韓國總統尹錫悅主持,而去年英國主持召開了一場類似會議。這兩場會議都匯集了世界各國領導人、科技企業負責人和學者,討論如何以最佳方式監管這種快速發展的技術,以及通過采用這種技術促進更大程度的數字包容和可持續增長。
雖然韓國、英國和法國(法國將在今年或明年舉辦第三次全球人工智能安全峰會)正尋求在這一議程上引領國際社會,但它們并不孤單。中美官員最近在日內瓦同樣就人工智能安全問題舉行了會議。
在日內瓦會議上,中美兩國高級官員討論了如何最大限度降低人工智能的風險,以及抓住這項技術帶來的機遇。會談更多關注如何在兩國各自努力推動這一議程的背景下最大限度地管理風險。
據新華社此前消息,美國總統拜登2023年10月30日簽署一項行政命令,為人工智能安全制定了新標準。美國媒體稱,這是拜登政府對人工智能技術采取的第一項具有約束力的重大行動。
白宮在一份聲明中說,這項行政令“具有里程碑意義”,將保護美國公民隱私,促進公平和公民權利,維護消費者和工作者權益,促進創新和競爭等。
這一行政令要求,美國最強人工智能系統的研發人員需與政府分享其安全測試結果及其他關鍵信息;完善相關標準和測試工具,確保人工智能系統安全、可靠;制定嚴密的合成生物檢查新標準,防范使用人工智能設計危險生物材料的風險;建立檢測人工智能生成內容和驗證官方內容的標準和最佳實踐,以幫助民眾防范人工智能驅動的欺詐;建立先進的網絡安全計劃,開發人工智能工具查找和修補關鍵軟件漏洞;研發制定“國家安全備忘錄”,指導人工智能和安全方面的進一步行動。
據介紹,美國國家標準與技術研究所將制定嚴格的人工智能“紅隊”標準。美國國土安全部將把這些標準應用于核心基礎設施項目,并成立人工智能安全委員會。美國能源部和國土安全部將具體應對人工智能系統對關鍵基礎設施的威脅,及其帶來的化學、生物、放射性材料、核及網絡安全風險。
人工智能“紅隊”測試是網絡安全中的一項關鍵實踐,由專家團隊模擬真實世界的對手及其策略,以測試和增強系統的安全性。
每日經濟新聞綜合新華社、參考消息、公開資料
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP