瀏覽單個文章
LeeMichael
New Member
 
LeeMichael的大頭照
 

加入日期: Jul 2022
文章: 2
AI 威脅無稽之談,德國研究:AI 不具複雜推理能力

AI 威脅無稽之談,德國研究:AI 不具複雜推理能力
作者 黃 嬿 | 發布日期 2024 年 08 月 13 日 11:21 | 分類 AI 人工智慧 , 人力資源line shareLinkedin sharefollow us in feedlyline share

AI 威脅無稽之談,德國研究:AI 不具複雜推理能力


科學家相信,AI 終有一天將取代人類工作,有些人樂觀的相信,人類可以高枕無憂,一週多放幾天假,但更多人擔心的不只是失業問題,可能還會帶來毀滅。德國研究讓多數人暫時鬆口氣,研究人員認為,像 ChatGPT 這樣的大型語言模型無法獨立學習或獲得新技能,它們不會對人類構成生存威脅。

今天 3 月,美國國務院委託編寫的一份新報告,指出最先進的 AI 系統在最壞的情況下可能「對人類構成滅絕等級的威脅」,警告聯邦政府避免災難的時間已經不多了。些調查結果是基於一年多來對 200 多人的採訪,其中包括 AI 公司高層、網路安全研究人員、大規模殺傷性武器專家以及政府內部的國家安全官員。

世界各地一些頂尖的 AI 研究人員也表達這類擔憂。但也有人認為這是無稽之談,如 Meta 創辦人祖克柏就說,目前的 AI 模型尚未達到引發問題所需的複雜程度,人們不應該擔心這一點。他還斷言,在不久的將來,任何 AI 都不會帶來此類風險。

AI 沒有突現能力
最近德國研究也認為,這種擔憂是沒有根據的,因為研究結果清楚顯示,AI 缺乏複雜的推理能力。德國達姆施塔特工業大學教授領導的研究團隊,測試在完成模型訓練之前的 AI,是否具備執行新任務的能力,即所謂的突現力 (emergent abilities),譬如 AI 沒有接受明確訓練或程式指示,是否能回答與社會情境有關的問題。

透過數千次實驗,研究團隊證明,AI 遵循指示的能力、記憶力和語言能力的結合,反應 AI 只限制於情境學習,不是真正理解情境。人們擔心模型會出現意外、有創新力或潛在危險,都是沒有根據的猜測。

重要的是,這對最終用戶來說,依賴 AI 解釋和執行需要複雜推理而沒有明確指令的複雜任務,可能是錯的。相反,用戶只要能下達明確指令,並經類似範例訓練,就能從 AI 受益。

雖然 AI 的確有濫用可能性,如製造假新聞和增加欺詐風險,但只因覺得 AI 對人類有威脅而制定法規,還為時過早。研究員認為,隨著 AI 模型成長,可能會產生更複雜語言,並更善於遵循明確詳細的提示,但仍不太可能有複雜的推理技能。

AI 是可預測的安全技術
這項結果並不代表 AI 根本不是威脅,而是沒有證據支援 AI 有複雜的思維技能。人類可以控制 AI 的學習過程,如果沒有明確的指導,AI 就沒有掌握新技能的潛力。

印度科學家也認為,AI 對人類構成威脅的普遍說法,阻礙這些技術的廣泛採用和發展,也轉移真正需要關注的問題的注意力。這項研究結論認為,AI 本質上仍可控、可預測和安全。正在接受更大資料庫培訓的 AI 可繼續部署,不必擔心出現安全問題,該擔心的或許還是背後控制它的人,而不是技術本身。
     
      
舊 2024-10-14, 10:50 PM #1
回應時引用此文章
LeeMichael離線中