電子報詳情頁

AI利與弊(下)/AI有「缺陷」 使用莫大意

去年11月,聊天機器人ChatGPT的發布,掀起人工智能(AI)熱潮。隨着生成式人工智能飛速發展,令AI更好地成為了人們日常工作的好幫手,不僅可以提高效率、節省時間,在一定程度上降低人類可能犯錯的風險。專家提醒,當下AI系統仍有缺陷,尤其是在特殊的領域或情況下,AI工具一旦發生錯誤,將有可能導致嚴重的後果,因此人為干預不可少。\大公報記者 楊金宇

香港城市大學計算機科學系助理教授宋林琦接受採訪時指出,現今的AI技術在辦公中多扮演「寫作助手」的角色,協助撰寫新聞稿件、廣告語、演講詞、程序代碼等,且已在金融、交通、醫療、教育、零售、自媒體平台等多個領域中展開了實際應用。

以金融領域為例,美國的AIEQ股票即為使用AI驅動的ETF,完全借助AI的分析進行炒股操作。雖然該股票在短期和長期的狀況仍比不上標準普爾500指數,但在某種程度上已經開啟了先河,證明了AI能夠在金融市場上進行分析判斷並進行投資操作。

AI優勢:降低系統性風險

在ChatGPT之前,AI在金融領域中的使用仍處於比較弱勢的狀態,但是,以ChatGPT背後使用的大型語言模型(LLM)為首的AI技術,則直接將金融研究帶入了新的階段,並迅速投入了實地使用。宋林琦指出,金融領域的特點是很多信息均以文本和數據的形式呈現,該特點正好極大程度地發揮了LLM強大的語言文字處理能力。AI可以協助人們處理各種文件報表,並迅速提煉出要點及風險點,大量節省了人工成本。

宋林琦指出,AI在各個領域的實際應用中,擁有降低系統性風險方面的巨大優勢。如在醫療領域,雖然AI在對於病情的診斷方面,可能仍就難以匹敵人類醫生,但在系統層面的「大局觀」上,AI則有可能比醫生做得更好。在診斷期間,AI會考慮到所有可能的疾病,而人類醫生的思維則可能會受到限制。

不過,AI絕非萬無一失,也是會犯錯的。宋林琦表示,不論是AI還是人類,實際上都不可能做到完全不出錯,例如在自動駕駛領域,就曾出現過特斯拉的AI誤將大貨車上的牛奶廣告識別為廣闊平原,從而造成交通事故的案例。此外,在LLM技術可能發生的「AI幻覺」現象亦有可能在工作中,因其錯誤信息造成損失。

AI為何會犯錯呢?宋林琦指出,當前的技術本身仍存在包括數據或模型缺陷的問題,且這種問題目前仍無法避免。他以LLM為例詳細解釋稱,LLM本身是一個「概率型」模型,其輸出本身存在概率性,有可能帶來隨機誤差,不過這方面的錯誤尚且相對可控。

更嚴重的一種導致AI出錯的原因,即AI有可能遭受針對其模型或數據的惡意攻擊,對AI的數據造成污染,突出其數據偏見,這種錯誤對AI的應用及出錯後果都有着極大的負面影響。此外,AI在應用中還存在着數據洩露等安全風險,有可能對使用AI工具的公司的機密信息或用戶隱私產生威脅。

避免「無序」使用AI

宋林琦表示,為減少因AI出錯造成的風險,業界已針對AI可能出錯的不同原因,提出了解決措施。第一種方法是確保AI的使用存在「可驗證性」,確保AI在應用中給出的信息或建議必須是可以經過驗證確認無誤的,或者至少需要有專家來使用AI,並對其輸出的結果進行專業性把關;第二種方法則是通過「工具學習」的方式,為AI模型接入或調取可靠的外部工具,來彌補AI模型自身的技術缺陷。

此外,宋林琦強調,適度的人為介入對於AI的應用將始終有必要,因為長期來看AI在使用中出錯,就如同電腦出現死機一般不可避免。他指出,AI在應用中,或將持續擔任「助理」的角色,仍需依靠人類來做最終的決策,在工作中令人類與AI相結合,以避免AI的錯誤留下不可挽回的影響。

用戶在使用AI工具時,需要明白特定AI工具的使用注意事項,明白其適用範圍和缺陷,就如同使用家用電器前需要閱讀說明書一般,避免對AI工具的「越界」或「無序」使用,以減少AI出錯的風險。

友情鏈接