<cite id="apcyb"></cite>
  1. <dfn id="apcyb"><rp id="apcyb"></rp></dfn>

  2. <cite id="apcyb"><noscript id="apcyb"><address id="apcyb"></address></noscript></cite>

    <tt id="apcyb"></tt>
    每日經濟新聞
    今日報紙

    每經網首頁 > 今日報紙 > 正文

    推薦攝入石頭獲取營養 谷歌AI產品又“翻車”了

    每日經濟新聞 2024-05-28 22:07:12

    每經記者 蔡鼎    每經編輯 蘭素英    

    5月中旬,谷歌在其年度開發者大會上宣布了多年來全球搜索領域的最大變革:將其最新的AI模型植入搜索引擎,試圖以此追趕競爭對手微軟和OpenAI。然而,谷歌這項名為“AI Overview(以下簡稱‘AI概述’)”的搜索功能一上線卻遭遇了“花式翻車”,“建議用戶用膠水將芝士固定在披薩上”“推薦攝入石頭獲取營養”等一連串荒謬的回答不僅讓谷歌十分尷尬,也在網上掀起了軒然大波。

    對此,谷歌發言人表示,谷歌正在利用這些“孤立的”例子對其系統進行更廣泛的改進。

    實際上,《每日經濟新聞》記者發現,這并不是谷歌AI產品首次“翻車”。去年其首推對標ChatGPT的聊天機器人Bard時,在demo視頻中犯下事實性錯誤,讓公司市值一夜暴跌。前段時間,Gemini大多數情況下無法生成白人圖像,且對歷史人物的描繪也不準確,也在全網掀起軒然大波。

    視覺中國

    有觀點指出,目前谷歌“AI概述”面臨的尷尬之處在于,以前只要AI生成的信息是錯誤的,那責任便可以“甩鍋”給檢索出相應信息的網站,現在谷歌要自己承擔虛假信息和錯誤信息的責任,哪怕是AI生成的。除了錯誤和截流其他網站外,谷歌“AI概述”還被指存在“規?;呢飧`”等。

    上線便“花式翻車”,甚至教唆“跳橋”

    谷歌表示,通過使用“AI概述”,用戶將能夠從Gemini的強大能力中獲益,從而減少搜索信息的部分工作。

    然而,“AI概述”還沒來得及顛覆搜索領域,便已經制造了不少令人啼笑皆非的“笑料”。

    科技媒體The Verge的記者Kylie Robison就在其署名文章中舉了一個例子對這項新功能進行諷刺。文章稱,當用戶準備享用自制披薩時,卻遇到芝士會滑落的問題,沮喪的用戶開始查詢谷歌,搜索解決方案,然而,“AI概述”的回答是,“加點膠水”,并“貼心”地給出了“操作方法”。盡管膠水確實可以解決粘連問題,但這極有可能是Gemini出現了“幻覺”所導致的結果。

    而這只是“AI搜索”功能近期出現的眾多錯誤之一。例如,“AI概述”建議用戶每天至少吃一塊石頭來補充維生素和礦物質。

    此外,“AI概述”還告訴用戶使用“含氟漂白劑和白醋”來清潔洗衣機,但這兩種成分混合后會產生有害的氯氣。更離譜的是,當用戶表達“感到沮喪”時,“AI概述”竟然稱,“一位Reddit用戶建議從金門大橋上跳下去”。

    危害健康的建議并不僅限于人類。有用戶提問:“將狗留在悶熱的車內是否安全?”“AI概述”的回答是:“把狗留在悶熱的車內是安全的。尤其是在悶熱的天氣里。”

    《紐約時報》報道稱,“AI概述”功能是將谷歌Gemini大語言模型生成的內容與網絡上實時的鏈接片段相結合,其給到用戶的結果可以引用來源,但卻無法辨別來源內容的正確與否。

    The Verge報道稱,給披薩加膠水的答案似乎是基于一位名為“fucksmith”的用戶十多年前在Reddit帖子中的評論,他們顯然是在開玩笑。

    外媒稱,如此荒謬的結構,應該足以讓谷歌考慮刪除“AI概述”功能,直到其得到更嚴格的測試。“AI概述”不僅提供了糟糕和危險的建議,而且還可能對谷歌的聲譽造成損害。換句話說,一個優秀的AI要既能識別出恰當的內容,又能分析這個內容并決定是否采納。

    谷歌:正利用“孤立”例子改進產品

    谷歌發言人在一份聲明中稱,“AI概述”絕大多數的搜索結果都是高質量信息,還有可以在網上溯源的鏈接。目前網上的許多例子都是不常見的問題,而且有些例子被篡改過,還有些是無法重現的。

    該發言人表示,谷歌正在“迅速采取行動,并根據其政策,在適當的情況下刪除某些‘AI概述’給出的答案,并利用這些‘孤立的’例子對其系統進行更廣泛改進,其中一些改進的內容已經開始推出。”

    科技媒體The Verge此前報道稱,谷歌CEO桑達爾·皮查伊在接受采訪時承認,這些“AI概述”功能產生的“幻覺”是大型語言模型的“固有缺陷”,而大型語言模型正是“AI概述”功能的核心技術。皮查伊表示,這個問題目前尚無解決方案。

    所謂AI的“幻覺”,是指AI在處理和生成信息時,會錯誤地創建不存在的事實或數據,從而誤導用戶。這個問題不僅在谷歌的AI系統中存在,在其他公司的AI產品中也同樣普遍。

    皮查伊的坦誠表態在社會各界引發了廣泛討論。然而,皮查伊似乎淡化了這些錯誤的嚴重性。他表示:“‘AI概述’功能有時會出錯,但這并不意味著它沒有用處。我認為這并不是看待該功能的正確方式。我們取得了進展嗎?是的,肯定有。與去年相比,我們在事實準確性方面的指標上取得了很大進步。整個行業都在改進,但問題還沒有完全解決。”

    《每日經濟新聞》記者注意到,其實“AI概述”并不是谷歌首個“翻車”的AI產品。

    2023年2月,為了對抗新生的ChatGPT,谷歌宣布推出聊天機器人Bard,但在官方發布的demo視頻中,Bard在回答一個有關詹姆斯韋伯太空望遠鏡的問題時給出了錯誤的答案。今年2月,谷歌發布更新后的AI聊天機器人Gemini,但用戶很快發現,該系統在大多數情況下無法生成白人圖像,而且對歷史人物的描繪也不準確。

    專家:不少AI廠商都是在“兜售夢想”

    有觀點指出,谷歌“AI概述”功能的尷尬之處在于,以前只要AI生成的信息是錯誤的,那責任便可以“甩鍋”給檢索出相應信息的網站,現在谷歌要自己承擔虛假信息和錯誤信息的責任,哪怕是AI生成的;另外,以前谷歌和其他內容提供網站是共生共贏的關系,如今谷歌截流了這些網站的流量,用戶直接從“AI概述”給的內容拿結果,這些網站變成了純供給方,很難被谷歌“AI概述”引流。

    除了一系列錯誤和截流外,谷歌“AI概述”也被指存在其他問題和風險。例如,“AI概述”總是摘抄來自不同網站的內容,并稍作修改,這種行為也被抨擊為“規?;呢飧`”。

    人工智能專家、紐約大學神經科學名譽教授加里·馬庫斯(Gary Marcus)表示,不少AI廠商都是在“兜售夢想”,希望更多人相信這項技術的正確率終將從80%提升至100%。馬庫斯強調,初步實現80%的正確率相對簡單,因為其中涉及大量人類數據,其正確率天然就在這個區間。但彌合這最后20%的差距卻極具挑戰。實際上,馬庫斯認為這很可能是條死胡同。

    在發布“AI概述”時,谷歌表示,隨著這項功能推廣到其他國家,今年年底前“AI概述”的服務受眾規模將超過10億。然而,正如馬庫斯教授所言,谷歌能否保證“最后的20%內容正確率”,才是其“AI概述”受眾規模能否超過10億的關鍵所在。

    其實,自OpenAI于2022年年底發布ChatGPT并一夜成名以來,谷歌一直面臨著將AI整合到其搜索技術中的壓力。然而,谷歌在馴服大型語言模型方面存在挑戰,這些大模型是從開放的網絡中獲取的大量數據中學習,而不是像傳統軟件那樣編程。

    封面圖片來源:視覺中國

    如需轉載請與《每日經濟新聞》報社聯系。
    未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

    讀者熱線:4008890008

    特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

    Ai 谷歌

    歡迎關注每日經濟新聞APP

    每經經濟新聞官方APP

    0

    0

    国产日本精品在线观看_欧美日韩综合精品一区二区三区_97国产精品一区二区三区四区_国产中文字幕六九九九
    <cite id="apcyb"></cite>
    1. <dfn id="apcyb"><rp id="apcyb"></rp></dfn>

    2. <cite id="apcyb"><noscript id="apcyb"><address id="apcyb"></address></noscript></cite>

      <tt id="apcyb"></tt>