Connect with us

經濟

OpenAI:有方法防AI幻覺

發佈於

【明報專訊】生成式人工智能(AI)模型與用戶進行對話時,有時出現捏造事實傾向,無論是OpenAI的聊天機械人ChatGPT,還是Google聊天機械人Bard,都被發現有虛構事實情况。AI專家將聊天機械人的「說謊」現象稱為「幻覺」(hallucinations),指基於大型語言模型的AI工具,在內容生成的過程中,可能會對原文增刪、竄改,甚至杜撰內容。不過OpenAI的最新報告指出,已找到AI「說謊」的原因及解決方法。

優化訓練過程 自行正面自我反饋

OpenAI指出,即使是最先進的AI模型,當其對答案不肯定時,也可能會揑造事實。這些「幻覺」在涉及多個推理步驟時尤其明顯,因為只要其中一個步驟的邏輯不對,就足以令AI所生成的內容出錯。OpenAI表示,防止「幻覺」出現的方法,就是優化AI模型的訓練過程,在AI推理過程中的每個正確步驟,都讓AI系統自行作出正面的自我反饋,而不僅在最終得出正確結論時才給予獎勵。

新的訓練方法被稱為「過程監督」,有別於目前沿用的「結果監督」,以鼓勵AI模型以更類似人類的思考方式進行推理。不過部分業界人士指出,OpenAI未提供證據,證明其建議的方法,可解決AI模型杜撰參考文獻等問題。

(綜合報道)

[國際金融]