每日經濟新聞 2024-05-29 20:15:37
◎ 美國IT研究與顧問咨詢公司Gartner高級研究總監高峰在接受《每日經濟新聞》記者采訪時指出,OpenAI安全委員會成員全部是“自己人”并沒有什么問題,“一般來說,企業不太傾向于引入外部人士,因為里面會涉及很多的商業機密信息。”
每經記者 蔡鼎 每經編輯 蘭素英
美西時間周二(5月28日),OpenAI稱董事會成立了一個負責把控AI開發方向的“安全委員會”,負責監督與公司項目和運營相關的“關鍵”安全和安保決策,而這距離其內部負責評估長期AI安全問題的“超級對齊(Superalignment)”小組正式解散不到半個月的時間。
據悉,該委員會的首要任務將是在未來90天內評估并進一步發展OpenAI的流程和保障措施。90天結束時,該委員會將與全體董事會分享他們的建議。在全體董事會審查之后,OpenAI將以符合安全和保障的方式,公開分享有關采納建議的更新。
《每日經濟新聞》記者注意到,其實這并不是OpenAI首次組建專門致力于AI安全的團隊——去年12月OpenAI就成立過一個“安全顧問小組”,該小組向領導層提出建議,并且董事會被授予否決權。不過從本月17日“超級對齊”團隊解散到本周二成立新的“安全委員會”,足以證明AI安全的問題在OpenAI內部仍未得到解決。
除了CEO Altman外,OpenAI新成立的安全委員會的其他成員還包括OpenAI董事會成員Bret Taylor、Adam D’Angelo和Nicole Seligman,以及首席科學家Jakub Pachocki、OpenAI早期籌備團隊的Aleksander Madry、安全系統負責人Lilian Weng、安保負責人Matt Knight和“人工智能對齊”(AI Alignment)負責人John Schulman。從成員構成可以看出,沒有一個外部人員。
圖片來源:OpenAI
為了避免新成立的安全委員會因成員構成而被認為是“橡皮圖章”,OpenAI承諾將聘請第三方“安全、安保和技術”專家來支持委員會的工作,包括網絡安全專家Rob Joyce和美國前司法部官員John Carlin。但除此之外,OpenAI并未更詳細地說明外部專家組的規模和組成,也沒有透露專家組對委員會的具體影響和權力限制。
有專家指出,OpenAI成立此類企業監督委員會,類似于谷歌的高級技術外部咨詢委員會,其實在實際監督方面幾乎沒有什么作為。
美國IT研究與顧問咨詢公司Gartner高級研究總監高峰在接受《每日經濟新聞》記者采訪時指出,OpenAI安全委員會成員全部是“自己人”并沒有什么問題,“因為OpenAI的安全委員會是服務于內部,是對OpenAI產品的安全和發展方向進行評估。一般來說,企業不太傾向于引入外部人士,因為里面會涉及很多的商業機密信息。所以如果沒有監管或者政府的強制要求,企業通常只會對自己的產品或股東負責。其實像谷歌和微軟,他們也有相應的一些安全部門,主要就是確保產品的安全,并且不對社會帶來一些負面的影響。”
近期,OpenAI在安全方面的問題成為外界的關注點之一。幾個月來,OpenAI流失了不少非常重視AI安全的員工,在這部分人中,有一些對OpenAI在AI安全方面的優先級下降表示擔憂。
OpenAI的聯合創始人兼前首席科學家Ilya Sutskever也于今年5月離職,據報道部分是因為Altman急于推出AI驅動的產品而犧牲了安全性能。OpenAI前首席安全研究員Jan Leike也緊隨其后宣布離開,他在X平臺上發布的一系列帖子中表示,他認為OpenAI“未走在解決AI安全和安保問題的正確軌道上”。
在Ilya Sutskever和Jan Leike這兩位關鍵領導人離職后,OpenAI專注于研究AI生存危險的“超級對齊”團隊正式宣告解散。
對于Jan Leike發表的言論,上周離職的AI政策研究員Gretchen Krueger也表示認同,她也呼吁OpenAI提高問責制和透明度,并“更加謹慎地使用自己的技術”。另外,曾在OpenAI擔任團隊治理工作的Daniel Kokotajlo也于4月辭職,原因是他對OpenAI能在AI開發中繼續保持負責任的態度失去了信心。
其實,這并不是OpenAI首次成立或組建專門的安全顧問團隊。
去年12月18日,OpenAI就稱正在擴展內部安全流程,以抵御有害人工智能的威脅。一個新的“安全顧問小組”將位于技術團隊之上,向領導層提出建議,并且董事會也被授予了否決權。
在當時的博客文章中,OpenAI討論了其最新的“準備框架”,即OpenAI跟蹤、評估、預測和防范日益強大的模型帶來災難性風險的流程。對于災難性風險的定義,OpenAI的解釋是這樣的:“任何可能導致數千億美元經濟損失或導致許多人嚴重傷害或死亡的風險——包括但不限于生存風險。”
在人工智能大模型的快速發展之下,全球新一輪科技革命和產業變革正在醞釀,但也衍生了一些擔憂,數據安全、終端安全以及個人的數字主權面臨更大的挑戰。
以生成式AI為例,普華永道在去年10月發布的一篇文章中稱,在疏于監管的情況下,這項技術可能會生成違法或不當的內容,可能涉及侮辱、誹謗、色情、暴力等不合法或違規的元素;另一方面,生成式AI可能會基于已有的受版權保護的內容進行學習,這可能導致知識產權侵權。
被譽為“AI教父”的Geoffrey Hinton近日在接受BBC Newsnight節目采訪直言,AI很快將超越人類智能,并擔心人類在AI發展方面的安全性不夠重視。他還指出,這不僅僅是他個人的觀點,實際上這是該領域領導者的共識。
出于對AI各方面的擔憂,4月下旬,美國國土安全部就針對研發AI的“安全與保障”成立顧問委員會,集結了22名科技業高層成員,包括OpenAI、微軟、Alphabet、亞馬遜網絡服務(AWS)等企業高層,以及英偉達CEO黃仁勛和AMD CEO蘇姿豐。
美國國土安全部部長馬約卡斯(Alejandro Mayorkas)表示,該委員會將協助確保AI科技的安全開展,以及設法應對這類科技對能源、公用業務、交通、國防、信息技術、食品和農業,甚至是金融服務等關鍵服務所構成的威脅。
不僅僅是美國政府部門,包括美國商業軟件聯盟(BSA)這樣的行業組織,也在推動對AI的監管。同樣在4月,BSA也發布了文件呼吁在隱私立法中制定相關規則。
對于不斷增強的監管呼聲,高峰對《每日經濟新聞》記者分析稱,“任何技術的發展都是有風險的,而AI比之前的任何技術對于整個社會的影響都要大,這也是為什么各方對AI監管呼聲較高的原因。另外,一直以來大家可能受到了一些科幻電影的影響,覺得將來AI可能會超過人類的智慧,可能控制人類。”
“但是,現在的AI離人類的智慧還是有很大差距,短期AI是沒有辦法超過人類的。但當AI不再僅僅是個工具,而是成為主導的時候,就可能需要人工阻止了,我覺得這可能是比較重要的一個評判標準。”高峰對記者補充道。
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP