快訊

    四個月內三度試用特斯拉自駕系統 分析師:距離安全應用還很遠

    2024-08-28 16:55 / 作者 陳家齊
    特斯拉執行長馬斯克(右)一再致力想達成特斯拉電動車可以全自動駕駛的遠景。美聯社
    全球電動車巨頭特斯拉在執行長馬斯克帶領下,不斷強調他們不是「汽車公司」,而是進行創新的「人工智慧公司」與「機器人公司」。特斯拉支持這項陳述的法寶,就是研發好幾年的「全自動輔助駕駛」(FSD)。不過有證券分析師最近連續試駕FSD的經驗,使他判斷特斯拉自動駕駛能安全應用還太早。

    美聯社報導,Truist Securities的分析師史坦(William Stein),過去四個月來已三度應馬斯克的邀請,嘗試特斯拉最新版本的FSD系統。史坦每次駕駛這些車輛時,都發現車輛做出了不安全或違法的操作。史坦說,他本月(8月)稍早的最近一次試駕,讓陪同他的16歲兒子「嚇壞了」。

    儘管FSD名字就是「全自動駕駛」,特斯拉的自駕系統一直無法獲得可以全自動駕駛的認證,因此行銷上都稱為「全自動輔助駕駛」。特斯拉公司稱,配備FSD的車子可以在很少需要人為操控的情況下,自行從一點行駛到另一點。

    馬斯克告訴投資人,FSD可能在今年年底或明年初,就能達到比人類駕駛員更安全的運作水準。特斯拉也積極準備利用自駕系統,開展無人計程車車隊Robotaxi ,但在推出之前,必須先獲得美國聯邦政府的安全認證。這項認證目前看來進度不佳,原本4月宣布今年8月Robotaxi就可以上路的說法,已經跳票。

    曾經馬斯克屢次告訴投資人「很快」、「只差一步」就能達成全自動駕駛的目標,他在2019年曾經承諾到2020年底時,就會有一支自動駕駛車隊。

    多年過後,許多長期觀察追蹤這項技術的專家表示,他們已懷疑FSD技術是否真能達成在全美國範圍內安全運作的目標。汽車安全中心(Center for Auto Safety)的執行董事布魯克斯(Michael Brooks)說:「它還差得遠,不可能是明年。」

    紅燈左轉、跨線逆向的特斯拉

    證券分析師史坦最近試駕的是特斯拉 Model 3,這是特斯拉最便宜的車款,試駕車配備了最新的FSD系統。他從紐約市北部的威徹斯特郡的一家特斯拉展售廳取車,然後開始上路。

    一開始,史坦說,這輛特斯拉比過去的版本感覺更加平穩,更像人類駕駛。但在不到10英里(16公里)的行程中,這輛特斯拉就在紅燈亮起時闖紅燈違規左轉。

    事件發生後,史坦說他很震驚,但當時沒有立即介入接管車輛,因為當時車流量不大,這一操作看起來還不危險。然而,稍後,這輛車在一條公路的正中間行駛,同時跨越兩個不同方向的車道,面對逆向車流。這次,史坦說,他握起方向盤進行干預。

    史坦在給投資者的信中寫道,最新版本的FSD並沒有像馬斯克所預測的那樣「解決自動駕駛問題」,也沒有「接近自駕計程車的能力」。他在4月和7月進行的兩次試駕中也表示,特斯拉車輛令他驚訝的是,會時常做出不安全的行為。

    史坦認為,雖然他預測特斯拉最終會從其駕駛技術中獲利,但他不認為在短期內能有一輛無人駕駛的計程車,後座載著乘客上路。他預測特斯拉的Robotaxi計畫將大幅延期,或僅限於特定地點行駛。他指出一項長期追蹤馬斯克的人都知道的事情:馬斯克的承諾往往和現實有巨大的差異。

    FSD是車主要額外付錢二十幾萬台幣加裝的系統。這種特斯拉賣車體,然後再加賣軟體的模式,最終應想要達成像iPhone智慧手機與App的關係,也是特斯拉能享有「科技公司」的股價溢價待遇,不被只視為一般汽車公司的原因。

    馬斯克承認他對自駕軟體的進展之前有些太樂觀,但他今年也加碼烙狠話說,任何投資人若不相信特斯拉能解決完全自動駕駛問題,就不該持有特斯拉股票。

    死亡車禍

    對投資人吹牛是一回事,但在馬路上變成公共危害,是嚴重得多的另一件事。美國聯邦主管機關已基於特斯拉自駕系統屢次傳出的數十起車禍問題,展開已有2年的調查。

    最近一起重大事故發生在4月,一輛正在使用FSD系統駕駛的特斯拉,在華盛頓州西雅圖近郊撞死一名摩托車騎士。尚未被控罪的汽車駕駛說,他當時正在使用FSD駕駛,並看著手機,這時車輛追撞了摩托車。據當局報告,摩托車騎士當場被宣布死亡。

    美國國家公路交通安全管理局(NHTSA)表示,正在評估來自特斯拉和執法官員有關這起致命車禍的資訊。它還表示,知道史坦對FSD駕駛系統的試駕經歷。

    NHTSA還指出,正在調查特斯拉今年稍早的一次召回,是否真的增強了其自動駕駛車輛的監控系統。該機構還敦促特斯拉在2023年召修FSD系統,因為在「某些罕見情況下」,該系統可能會違反交通法規,增加撞車風險。

    對於這些事故,特斯拉一貫的說法是相較於普通駕駛人,特斯拉的輔助自駕系統表現其實更安全,肇事率極低。特斯拉會公布每次撞車事故行駛的里程數據,但目前只公布特斯拉較不先進的Autopilot自動輔助駕駛系統資料。安全專家表示,這些數據沒有用,因為它只計算了導致安全氣囊啟動的嚴重撞車事故,並沒有顯示為避免碰撞時,人類駕駛員需要介入的頻率。

    目前約有50萬名特斯拉車主在美國使用FSD,這相當於每五輛在美國行駛的特斯拉,就有一輛搭載了FSD。特斯拉聲稱,車內監控系統可以不斷監視駕駛人的專心狀況,如果駕駛人不看路,將會解除自動駕駛。針對FSD的行銷術語,該公司最近也開始重新稱呼FSD為「全自動輔助駕駛(駕駛監控版)」。

    但在證券分析師史坦的經驗中,這套「監控系統」並沒有發揮效果。例如他曾故意不看前方,轉頭去滑手機,由他的兒子幫忙看路況。特斯拉理應發出警示要駕駛人馬上專心看路,但是他摸了40秒之後,警示才開始響起。

    盲劍客自駕?

    馬斯克非常堅持特斯拉開發的自駕系統,只能使用車子裝設的攝影鏡頭,不能安裝其他感測裝置。他認為,在人工智慧(AI)的突飛猛進下,特斯拉自駕系統將完全可以憑鏡頭的影像分析路況,發現行人與障礙物,全自動駕駛。

    但是這種堅持在其他自駕系統專家眼中,有點像是自己綁上布條矇眼開車。攝影鏡頭在惡劣天氣和黑暗中並不一定能看到東西。大多數其他自動駕駛公司,如Alphabet(Google母公司)的Waymo和通用汽車的Cruise,都把攝像頭與雷達和雷射傳感器(「光達」)結合使用。

    喬治梅森大學工程與計算學教授康明斯(Missy Cummings)說:「如果你不能正確看到世界,你就不能正確計劃和操作。僅靠視覺資訊,汽車做不到這一點。」

    康明斯表示,即使是那些配備雷射光達和雷達的汽車,仍無法一貫可靠地駕駛,這也對Waymo和Cruise形成了安全質疑。

    至於AI能幫助的機器學習,卡內基美隆大學研究自動駕駛汽車安全的教授庫普曼(Phil Koopman)說,依賴AI運行的自駕汽車,還要好幾年才能處理現實世界的情況。

    他說:「機器學習並不具備常識,而且只能狹隘地從大量的例子中學習。如果電腦駕駛遇到一個它沒有學過的情況,它就很容易發生撞車。」
    陳家齊 收藏文章

    本網站使用Cookie以便為您提供更優質的使用體驗,若您點擊下方“同意”或繼續瀏覽本網站,即表示您同意我們的Cookie政策,欲瞭解更多資訊請見