帶領DeepMind團隊進行「Bard」大型語言開發工作的Google傑出科學家紀懷新難得回台,今與媒體暢談目前AI的種種問題。戴嘉芬攝
Google 在今年初推出了實驗性的對話式 AI 服務「Bard」,並於今年7月擴大支援全球包含繁體中文在內的40種語言,讓台灣使用者以對話方式激發靈感、汲取知識與獲取資訊。參與 Bard 開發的 Google 科學家紀懷新(Ed H. Chi)博士,今(8/16)回到台灣跟媒體分享 Google 針對大型語言模型技術研究與應用的發展概況。
紀懷新在台灣出生長大,高中階段至美國求學,並於六年半內取得明尼蘇達大學學士、碩士和博士三個學位。他在今年初獲選為 ACM Fellow(電腦協會院士),這是美國計算機學會每年用以表彰傑出會員的技術、專業和領導貢獻,總名額不會超過會員數的1%,過去台灣獲得此殊榮的人非常少,堪稱台灣之光。
紀懷新目前在 Google 美國總部 DeepMind 機器學習研究團隊帶領大型語言模型研究與 Bard 開發的工作。除了大型語言模型(LaMDA/Bard)之外,紀懷新還帶領團隊進行神經網路推薦系統、可靠性機器學習等相關研究。他說,自己已經一年多沒有回來台灣,這次回來的任務是「多吃美食」,參與學術會議,並與 Google台灣的員工交流,希望藉由自己一點小小貢獻,能激發台灣產業界在軟硬體領域的潛在能力。
針對目前時下流行的 AI 和大型語言開發風潮。紀懷新表示,大型語言模型的發展變革仍在早期階段,但它會大幅改變人類與 AI 互動的方式,且為生活帶來顯著改變。
大型語言模型存在5大已知限制不過,包含 Bard 在內,此類大型語言模型存在已知的限制,這些限制包括準確性、偏差性、人格化、偽陽性 / 偽陰性以及惡意提示的刻意攻擊等5大面向。
以最重要的「準確性」來舉例,紀懷新指出,Bard 的回應可能未必準確,尤其當你詢問它複雜或講求事實的主題之時。其次,它的回應也可能會反映偏差或呈現出訓練資料中的特定觀點,或是讓人以為它有個人意見或感受。當然,Bard 也可能對某些適合的提示「不予回應」,或是提供不適合的回應,這就是呈現偽陽性 / 偽陰性的現象。
上述5大面向也是目前 AI 科技業界正在研究的領域。紀懷新強調,隨著時間推移演進,Google 會致力改善這些面向。
紀懷新強調,Google 秉持大膽且負責任的態度發展 AI 技術,且制定了七大準則,作為相關研究與應用的指引;包括對社會有益、避免製造或加強不公平的偏見、建立並測試安全性、對人們負責、納入隱私設計原則、堅持科學上卓越的最高標準等等。
當 AI 出現幻覺該怎麼辦?大家常會說 AI 出現「幻覺」,它提供的資訊不夠準確,資訊有所偏差、真假難辨。紀懷新建議,這時大家可藉由 Google搜尋引擎去尋找更多資料,藉此判斷真假。他進一步解釋,以自然語言的處理角度來看,這是非常困難的,甚至牽涉到哲學領域。因此,自然語言處理的做法是「你說這個東西是真,是根據甚麼來源說它是真的。」這也成為 Bard 的做法:「去 Google搜尋引擎尋找事情真假的相關來源」,而這個動作,其實人們每天也都在做。
雖然 Bard 此類大型語言模型可能會引發上述種種問題,但在某些基本知識的獲取上面,它可能會成為人類的絕佳助理。例如,台灣家長可能會花錢幫小孩請英文家教,但有了 Bard 之後,想學英文的小朋友可直接跟它進行語音對話,變成教學助理,不只是英文,甚至數學也可以。
此外,由於這種大型語言模型若要加上特殊語言的支援,例如閩南語、客家話等等,就要持續投入資源。基本上,外商公司在蒐集本地語言資源都非常困難。因此,紀懷新也盼望台灣學術界參與相關軟硬體開發工作,提供閩南語、客家話的語言資源,這對於大型語言開發會有更大幫助。