OpenAI的聊天機器人ChatGPT是當紅AI產品。路透社
人工智慧(AI)應用技術今年大爆發成為全球科技顯學,聊天模型更是熱門。然而專家警告,AI恐有導致人類滅絕的風險,其危險性不亞於流行病和核戰。
英國廣播公司(BBC)報導,非營利組織「AI安全中心」(CAIS)官網刊出數十位專家署名的聲明,其中指出「降低AI造成的滅絕風險應視為全球優先要務,和流行病及核戰等社會風險一樣重要」。
在這份聲明中署名者不乏業界重量級人士,包括ChatGPT開發商OpenAI執行長阿特曼(Sam Altman),谷歌DeepMind執行長哈薩比斯(Demis Hassabis),新創企業Anthropic執行長阿莫岱(Dario Amodei)等。
CAIS官網列出一些AI可能造成的災難,包括AI開發藥物工具被用於製作化學武器,使用AI生成器製造假新聞讓社會不安,以及人類因過度依賴AI而導致衰亡;此外,AI的力量可能將愈來愈集中於少數人之手,讓專制政權透過監控與壓迫審查強推狹隘價值觀。
2018年同獲圖靈獎、被譽為「AI教父」的三名學者:加拿大多倫多大學教授辛頓(Geoffrey Hinton)、加拿大蒙特婁大學教授班吉歐(Yoshua Bengio)以及紐約大學教授楊立昆(Yann LeCun),則對聲明持不同立場。辛頓和班吉歐參加署名,楊立昆則認為這種末日論調太誇大。
普林斯頓大學電腦科學家納拉亞南(Arvind Narayanan)先前接受BBC訪問時曾表示,坊間稱AI有風險的「科幻論調」太不切實際,「目前的AI根本不到足以構成那種威脅的程度」。
牛津大學的IA倫理研究所資深研究員雷浬里斯(Elizabeth Renieris)則表示,她擔憂的是更近在眼前的其他風險,「AI的進步會擴大自動決策生成過程中的偏誤、歧視、排他性或其他不公平的元素」。
雷浬里斯解釋,若這樣的不實資訊大量產生並傳播,將粉碎真實並侵蝕公眾信賴,導致不平等加劇,特別是在數位浪潮中居於弱勢的一方。
特斯拉執行長馬斯克(Elon Musk)今年3月底也曾作出類似呼籲,和產業界人士聯合發出公開信,呼籲在確認人工智慧(AI)對人類帶來的利弊之前,暫停開發更強力的AI六個月。