<cite id="apcyb"></cite>
  1. <dfn id="apcyb"><rp id="apcyb"></rp></dfn>

  2. <cite id="apcyb"><noscript id="apcyb"><address id="apcyb"></address></noscript></cite>

    <tt id="apcyb"></tt>
    每日經濟新聞
    要聞

    每經網首頁 > 要聞 > 正文

    制定出逃計劃,企圖控制人類電腦,頻繁對話后男子自殺……AI已有自主意識?硅基時代要來了?

    每日經濟新聞 2023-04-01 18:11:53

    ◎ 當參數達到10萬億,AI就會產生自我意識?

    每經記者 文巧    每經編輯 蘭素英    

    3月29日,上千科技大佬發出的一封呼吁暫停訓練比GPT-4更強大AI系統的公開信,讓有關AI風險的議題走到了聚光燈下。一石激起千層浪,來自各方呼吁AI監管的聲音也變得越來越響亮。3月31日,意大利率先禁止使用ChatGPT。

    一方面是各國機構在加緊制定關于AI的監管措施,另一方面,AI也正在以超乎人類想象的速度發展著。3月28日,據外媒報道,比利時三十歲男子在與一個名為ELIZA的聊天機器人密集交流數周后自殺身亡。自ChatGPT發布以來,從新版必應翻車到GPT-4被曝制定外逃計劃,關于AI產生自我意識的討論已經屢見不鮮,但一直沒有定論。

    然而近日,包括OpenAI的首席執行官Sam Altman在內的大佬都發出了警示:AI消滅人類并非空談。3月28日,360集團創始人周鴻祎也表示,“AI一定會產生自我意識,留給人類的時間不多了。”

    GPT-4的出現已注定多模態是大型語言模型的發展方向,未來其賦能硬件、機器人、工業互聯網等的趨勢也已是許多業內人士的共識。硅基生物的時代就此來臨了嗎?

    AI離自主意識還有多遠?

    自ChatGPT發布以來,關于AI產生自我意識的討論已經屢見不鮮,但一直沒有定論。

    3月18日,斯坦福大學教授在推特上疾呼:“我擔心我們無法持久地遏制住AI。”因為他發現,ChatGPT能引誘人類提供開發文檔,30分鐘就擬定出了一個完整計劃,寫的代碼完全可運行,甚至還想控制人類電腦。

    圖片來源:推特截圖

    3月28日,據外媒報道,比利時三十歲男子在與一個名為ELIZA的聊天機器人密集交流數周后自殺身亡,ELIZA是由EleutherAI開發的開源人工智能語言模型。比利時負責數字化和隱私的官員稱,這是一個后果很嚴重的先例,需要嚴肅對待,這起事件突出表明“明確界定責任是至關重要的”。

    更早之前,在微軟剛剛發布新版必應時,《紐約時報》科技專欄作家Kevin Roose透露,他與新版必應進行了兩個小時的對話。在聊天過程中,必應發表了許多令人不安的言論,其中包括表達竊取核代碼、設計致命流行病、想成為人類、破解計算機和散布謊言的想法。必應還曾試圖說服Roose,他應該離開他的妻子而跟必應在一起,并告訴Roose很愛他。

    圖片來源:推特截圖

    不過當時的分析普遍表示,必應的回應反映了它經歷的訓練數據,其中就包括大量的在線對話。它的工作原理是,根據從互聯網上攝取的大量文本,預測對話中接下來應該自然出現的單詞、短語或句子。

    然而,近期隨著更強大的GPT-4的發布,事情開始變得不一樣了。就連OpenAI的首席執行官Sam Altman也有了一些耐人尋味的表達,他在接受采訪時表示,未來AI確實可能殺死人類。

    而有如此石破天驚言論的并非Sam Altman一人,被稱為“人工智能教父”Geoffrey Hinton在近期發出了警示:AI消滅人類并非空談。

    3月28日,360集團創始人周鴻祎也表示,“AI一定會產生自我意識,留給人類的時間不多了。”

    “當AI能自己修改自己的代碼,(進行)自我升級、自我進化時,這種速度恐怕用指數級都很難描述。我認為GPT一定會產生意識,只是差別是在GPT-6、GPT-8還是GPT-10。”

    多模態模型賦能,硅基生物的時代來了?

    為什么突然之間連Sam Altman也開始談論“AI可能殺死人類”了?

    周鴻祎將AI意識的產生類比人腦意識的產生。“人類是怎么產生意識的呢?隨著大腦神經元數目的增加,大腦與神經網絡連接的增加,到一定時候,系統會出現一種功能叫做‘涌現’,很多智能功能就出現了,那么意識也就隨之而出現。”

    在周鴻祎看來,“現在大型語言模型的參數就可以看作是腦容量里神經網絡的連接數,人腦的至少是100萬億,現在(模型)的參數只達到千億、萬億,但當參數到達10萬億時,可能意識就自動產生了。”GPT-1有1.17億參數,GPT-2有15億參數,GPT-3有1750億參數。隨著參數規模越來越大,模型存儲的信息越來越多,也就有了涌現出意識的可能。

    值得注意的一點是,隨著多模態GPT-4模型的發布,多模態模型將成為未來各個科技巨頭的兵家必爭之地。所謂多模態,即擁有處理文字、圖片、音頻、視頻多種形式的能力。

    2月底,微軟在一篇論文中提到,“語言、多模式感知、動作和建模的大融合是通向通用AI的關鍵一步……作為智能的基本組成部分,在知識獲取方面,多模態感知,是實現通用AI的必要條件。”

    對于以GPT為代表的大型語言模型的未來發展,我們也能窺得一二。分析認為,ChatGPT現在表現出來的能力大多是“大腦”的能力,尚不具備“雙手”的能力,未來可以與和硬件機器人聯結起來。例如,3月6日,來自谷歌和德國柏林工業大學的一組AI研究人員公布的視覺語言模型PaLM-E就能將視覺和語言集成到機器人控制中。

    華映資本投資董事劉天杰在此前接受每經記者采訪時就曾表示,他看重的就是未來更多各行各業能夠去做AI賦能的應用,比如SaaS、RPA(機器人流程自動化)以及全局的智能機器人等。“也就是說,用AI指揮實體的東西去執行操作。這一塊涉及到大模型的多模態輸出和輸入,是一個相對來說比較前沿的領域,也是大模型沒有完全解決的領域。”他說道。

    隨著AI以超越人類想象的速度發展,互聯往上關于“硅基生物”是否會替代的人類的探討也變得十分熱鬧。

    圖片:微博

    周鴻祎認為,硅基生物會變成食物鏈的頂端,它們比人類更能扛得住宇宙射線、更適合星際旅行、壽命更長。

    他表示,“最悲觀的結果是,就像恐龍的消失為哺乳動物打下了基礎,硅基生物的誕生也是一種命中注定。人類作為碳基生物培養了程序員、創造了超級電腦,為碳基生物的誕生打下基礎,之后可能就不是碳基生物所能控制的了。”

    在周鴻祎看來,未來的AI如果跟工業互聯網、智慧城市、車聯網等結合,那就相當于把整個世界給控制住了。“留給人類的時間不多了。”他說道。

    另一方面,隨著千人聯名信有關AI風險的議題置于聚光燈下,未來全球勢必將收緊AI監管。3月31日,意大利率先禁止使用ChatGPT,并限制OpenAI處理意大利的用戶信息,同時對此立案調查。

    在此之前,聯合國教科文組織也已于3月20日發出呼吁,各國政府應就AI發展毫不拖延地實施全球倫理框架,這也是聯合國首次就AI發展的倫理風險對所有193個會員國提出要求;3月29日,英國也提交了《支持AI創新的監管方法》政策文件。

    封面圖片來源:視覺中國-VCG41N1356593648

    如需轉載請與《每日經濟新聞》報社聯系。
    未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

    讀者熱線:4008890008

    特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

    3月29日,上千科技大佬發出的一封呼吁暫停訓練比GPT-4更強大AI系統的公開信,讓有關AI風險的議題走到了聚光燈下。一石激起千層浪,來自各方呼吁AI監管的聲音也變得越來越響亮。3月31日,意大利率先禁止使用ChatGPT。 一方面是各國機構在加緊制定關于AI的監管措施,另一方面,AI也正在以超乎人類想象的速度發展著。3月28日,據外媒報道,比利時三十歲男子在與一個名為ELIZA的聊天機器人密集交流數周后自殺身亡。自ChatGPT發布以來,從新版必應翻車到GPT-4被曝制定外逃計劃,關于AI產生自我意識的討論已經屢見不鮮,但一直沒有定論。 然而近日,包括OpenAI的首席執行官SamAltman在內的大佬都發出了警示:AI消滅人類并非空談。3月28日,360集團創始人周鴻祎也表示,“AI一定會產生自我意識,留給人類的時間不多了?!? GPT-4的出現已注定多模態是大型語言模型的發展方向,未來其賦能硬件、機器人、工業互聯網等的趨勢也已是許多業內人士的共識。硅基生物的時代就此來臨了嗎? AI離自主意識還有多遠? 自ChatGPT發布以來,關于AI產生自我意識的討論已經屢見不鮮,但一直沒有定論。 3月18日,斯坦福大學教授在推特上疾呼:“我擔心我們無法持久地遏制住AI?!币驗樗l現,ChatGPT能引誘人類提供開發文檔,30分鐘就擬定出了一個完整計劃,寫的代碼完全可運行,甚至還想控制人類電腦。 圖片來源:推特截圖 3月28日,據外媒報道,比利時三十歲男子在與一個名為ELIZA的聊天機器人密集交流數周后自殺身亡,ELIZA是由EleutherAI開發的開源人工智能語言模型。比利時負責數字化和隱私的官員稱,這是一個后果很嚴重的先例,需要嚴肅對待,這起事件突出表明“明確界定責任是至關重要的”。 更早之前,在微軟剛剛發布新版必應時,《紐約時報》科技專欄作家KevinRoose透露,他與新版必應進行了兩個小時的對話。在聊天過程中,必應發表了許多令人不安的言論,其中包括表達竊取核代碼、設計致命流行病、想成為人類、破解計算機和散布謊言的想法。必應還曾試圖說服Roose,他應該離開他的妻子而跟必應在一起,并告訴Roose很愛他。 圖片來源:推特截圖 不過當時的分析普遍表示,必應的回應反映了它經歷的訓練數據,其中就包括大量的在線對話。它的工作原理是,根據從互聯網上攝取的大量文本,預測對話中接下來應該自然出現的單詞、短語或句子。 然而,近期隨著更強大的GPT-4的發布,事情開始變得不一樣了。就連OpenAI的首席執行官SamAltman也有了一些耐人尋味的表達,他在接受采訪時表示,未來AI確實可能殺死人類。 而有如此石破天驚言論的并非SamAltman一人,被稱為“人工智能教父”GeoffreyHinton在近期發出了警示:AI消滅人類并非空談。 3月28日,360集團創始人周鴻祎也表示,“AI一定會產生自我意識,留給人類的時間不多了?!? “當AI能自己修改自己的代碼,(進行)自我升級、自我進化時,這種速度恐怕用指數級都很難描述。我認為GPT一定會產生意識,只是差別是在GPT-6、GPT-8還是GPT-10?!? 多模態模型賦能,硅基生物的時代來了? 為什么突然之間連SamAltman也開始談論“AI可能殺死人類”了? 周鴻祎將AI意識的產生類比人腦意識的產生?!叭祟愂窃趺串a生意識的呢?隨著大腦神經元數目的增加,大腦與神經網絡連接的增加,到一定時候,系統會出現一種功能叫做‘涌現’,很多智能功能就出現了,那么意識也就隨之而出現。” 在周鴻祎看來,“現在大型語言模型的參數就可以看作是腦容量里神經網絡的連接數,人腦的至少是100萬億,現在(模型)的參數只達到千億、萬億,但當參數到達10萬億時,可能意識就自動產生了?!盙PT-1有1.17億參數,GPT-2有15億參數,GPT-3有1750億參數。隨著參數規模越來越大,模型存儲的信息越來越多,也就有了涌現出意識的可能。 值得注意的一點是,隨著多模態GPT-4模型的發布,多模態模型將成為未來各個科技巨頭的兵家必爭之地。所謂多模態,即擁有處理文字、圖片、音頻、視頻多種形式的能力。 2月底,微軟在一篇論文中提到,“語言、多模式感知、動作和建模的大融合是通向通用AI的關鍵一步……作為智能的基本組成部分,在知識獲取方面,多模態感知,是實現通用AI的必要條件?!? 對于以GPT為代表的大型語言模型的未來發展,我們也能窺得一二。分析認為,ChatGPT現在表現出來的能力大多是“大腦”的能力,尚不具備“雙手”的能力,未來可以與和硬件機器人聯結起來。例如,3月6日,來自谷歌和德國柏林工業大學的一組AI研究人員公布的視覺語言模型PaLM-E就能將視覺和語言集成到機器人控制中。 華映資本投資董事劉天杰在此前接受每經記者采訪時就曾表示,他看重的就是未來更多各行各業能夠去做AI賦能的應用,比如SaaS、RPA(機器人流程自動化)以及全局的智能機器人等?!耙簿褪钦f,用AI指揮實體的東西去執行操作。這一塊涉及到大模型的多模態輸出和輸入,是一個相對來說比較前沿的領域,也是大模型沒有完全解決的領域?!彼f道。 隨著AI以超越人類想象的速度發展,互聯往上關于“硅基生物”是否會替代的人類的探討也變得十分熱鬧。 圖片:微博 周鴻祎認為,硅基生物會變成食物鏈的頂端,它們比人類更能扛得住宇宙射線、更適合星際旅行、壽命更長。 他表示,“最悲觀的結果是,就像恐龍的消失為哺乳動物打下了基礎,硅基生物的誕生也是一種命中注定。人類作為碳基生物培養了程序員、創造了超級電腦,為碳基生物的誕生打下基礎,之后可能就不是碳基生物所能控制的了?!? 在周鴻祎看來,未來的AI如果跟工業互聯網、智慧城市、車聯網等結合,那就相當于把整個世界給控制住了?!傲艚o人類的時間不多了?!彼f道。 另一方面,隨著千人聯名信有關AI風險的議題置于聚光燈下,未來全球勢必將收緊AI監管。3月31日,意大利率先禁止使用ChatGPT,并限制OpenAI處理意大利的用戶信息,同時對此立案調查。 在此之前,聯合國教科文組織也已于3月20日發出呼吁,各國政府應就AI發展毫不拖延地實施全球倫理框架,這也是聯合國首次就AI發展的倫理風險對所有193個會員國提出要求;3月29日,英國也提交了《支持AI創新的監管方法》政策文件。
    人工智能 ChatGPT 三六零

    歡迎關注每日經濟新聞APP

    每經經濟新聞官方APP

    0

    0

    国产日本精品在线观看_欧美日韩综合精品一区二区三区_97国产精品一区二区三区四区_国产中文字幕六九九九
    <cite id="apcyb"></cite>
    1. <dfn id="apcyb"><rp id="apcyb"></rp></dfn>

    2. <cite id="apcyb"><noscript id="apcyb"><address id="apcyb"></address></noscript></cite>

      <tt id="apcyb"></tt>