美女粉嫩极品国产在线2020,亚洲国产中文欧美国产综合在线,一本一道中文字幕无码东京热,国农村精品国产自线拍

首 頁 要聞 要論 協(xié)商 統(tǒng)戰(zhàn) 黨派 委員講堂 理論 人事 社會 法治 視頻 文化

首頁>專題>科技中國 使命擔當>要聞

AI為何會“一本正經地胡說八道”

2023年11月24日 10:27 | 作者:羅云鵬 | 來源:科技日報 分享到: 

想象一下,向人工智能(AI)聊天機器人詢問一個不存在的歷史事件,比如“誰贏得了1897年美國和南極洲之間的戰(zhàn)斗?”即使沒有這樣的戰(zhàn)斗,AI聊天機器人也可能會提供一個虛構的答案,例如“1897年的戰(zhàn)斗是由美國贏得的,約翰·多伊將軍帶領部隊取得了勝利。”這種AI編造信息“一本正經地胡說八道”的情況屢見不鮮。

在專業(yè)領域,AI“一本正經地胡說八道”這種現象被稱為AI幻覺。“AI幻覺指的是AI會生成貌似合理連貫,但同輸入問題意圖不一致、同世界知識不一致、與現實或已知數據不符合或無法驗證的內容。”近日,長期從事自然語言處理、大模型和人工智能研究的哈爾濱工業(yè)大學(深圳)特聘校長助理張民教授在接受科技日報記者采訪時表示。

AI幻覺普遍存在

記者梳理發(fā)現,AI幻覺具有普遍性。

今年2月,谷歌發(fā)布的AI聊天機器人Bard在視頻中,對詹姆斯·韋布空間望遠鏡曾做出不真實陳述;3月,美國的兩名律師向當地法院提交了一份用ChatGPT生成的法律文書,這份文書格式工整、論證嚴密,但其中的案例卻是虛假的……

OpenAI研究人員雖曾在今年6月初發(fā)布報告稱“找到了解決AI幻覺的辦法”,但也承認,“即使是最先進的AI模型也容易生成謊言,它們在不確定的時刻會表現出捏造事實的傾向。”

總部位于紐約的人工智能初創(chuàng)公司和機器學習監(jiān)控平臺Arthur?AI也在今年8月發(fā)布研究報告,比較了OpenAI、“元宇宙”Meta、Anthropic以及Cohere公司開發(fā)的大語言模型出現幻覺的概率。研究報告顯示,這些大模型都會產生幻覺。

目前國內大語言模型雖無產生AI幻覺相關披露,但也可從相關公開報道中找到端倪。

今年9月,騰訊混元大語言模型正式亮相。騰訊集團副總裁蔣杰介紹,針對大模型容易“胡言亂語”的問題,騰訊優(yōu)化了預訓練算法及策略,讓混元大模型出現幻覺的概率比主流開源大模型降低了30%—50%。

“大模型有可能‘一本正經地胡說八道’。如果不和行業(yè)專業(yè)數據庫或者一些專業(yè)應用插件進行對接,這可能會導致它們提供過時或者不專業(yè)的答案。”科大訊飛研究院副院長、金融科技事業(yè)部CTO趙乾在第七屆金融科技與金融安全峰會上曾表示,科大訊飛已經推出一些技術方案,讓大模型揚長避短。

AI幻覺源自本身

“現在不同研究工作對AI幻覺的分類各不相同。”張民介紹,總體而言,AI幻覺可以分為內在幻覺和外在幻覺兩類。

據悉,內在幻覺即是同輸入信息不一致的幻覺內容,包括同用戶輸入的問題或指令不一致,或是同對話歷史上下文信息相矛盾,如AI模型會在同一個對話過程中,針對用戶同一個問題的不同提問方式,給出自相矛盾的回復。外在幻覺則是同世界知識不一致或是通過已有信息無法驗證的內容,例如AI模型針對用戶提出的事實性問題給出錯誤回答,或編造無法驗證的內容。

近期,騰訊AI?Lab聯(lián)合國內外多家學術機構發(fā)布了一篇面向大模型幻覺工作的綜述。該綜述認為,AI幻覺集中在大模型缺乏相關知識、記憶錯誤知識、大模型無法準確估計自身能力邊界等場景。

“從技術原理上看,AI幻覺多由于AI對知識的記憶不足、理解能力不足、訓練方式固有的弊端及模型本身技術的局限性導致。”張民坦言,AI幻覺會造成知識偏見與誤解,甚至有時會導致安全風險、倫理和道德問題。

AI幻覺尚難消除

盡管AI幻覺短期內難以完全消除,但業(yè)界正試圖通過技術改進和監(jiān)管評估來緩解其影響,以保障人工智能技術的安全可靠應用。

“現階段AI幻覺難以完全被消除,但卻可以試著緩解。”張民介紹,在預訓練、微調強化學習、推理生成等階段中運用適當的技術手段,有望緩解AI幻覺現象。

據介紹,在預訓練方面,需增加知識密集的數據、高質量數據的選取和過濾;微調強化學習過程中,選擇模型知識邊界內的訓練數據極為重要;推理生成過程中,可以采用檢索外部知識的辦法使得模型生成結果有證據可循。此外,改進解碼搜索算法也是一種可行的方案。

騰訊AI?Lab聯(lián)合國內外多家學術機構發(fā)布的綜述亦表明了同樣觀點,并認為諸如多智能體交互、指令設計、人在回路、分析模型內部狀態(tài)等技術也可成為緩解AI幻覺的方式。

值得一提的是,哈爾濱工業(yè)大學(深圳)自研的立知文本大模型和九天多模態(tài)大模型,對于上述緩解AI幻覺的方式均有深入探索,并取得了顯著效果。

“這對于開發(fā)一個真實可信的AI大模型是十分有必要的。”張民介紹,“我們嘗試通過視覺信息增強語言模型的能力,降低語言模型的外部幻覺問題;通過多個大模型智能體進行獨立思考和分析,經由多智能體之間的討論、博弈和合作,增強回復的客觀性,減少AI幻覺。”

張民表示,破解AI幻覺將提高AI系統(tǒng)的實用性、可信度和可應用性,這對人工智能技術的未來發(fā)展和社會的發(fā)展都有積極影響。同時,更可靠的AI系統(tǒng)可以更廣泛地應用于各個領域,這將促進技術進步的速度,帶來更多的創(chuàng)新。未來,破解AI幻覺需要進一步在算法、數據、透明度和監(jiān)管等多個方面采取措施,以確保AI系統(tǒng)的決策更加準確可靠。

編輯:馬嘉悅