人工智能AI高速發展下人類何去何從?專家接連辭職掀波瀾|各地傳媒分析

發佈日期: 2026-02-18 19:25
港澳
人工智能AI高速發展下人類何去何從?專家接連辭職掀波瀾|各地傳媒分析
無綫新聞 TVB News
無綫新聞 TVB News
已複製連結
人工智能(AI)的急速發展,近年屢屢成為熱話。與這項顛覆性技術相關的負面新聞亦接踵而至:深度偽造(deepfake)詐騙、AI助長網絡攻擊、聊天機器人鼓勵自殘等事件,令社會對AI安全的擔憂與日俱增。半島電視台(Al Jazeera)近日發表專題報道,探討為何專家對AI風險敲響警鐘;《紐約時報》(The New York Times)亦邀集八位頂尖學者,展望AI未來五年的發展軌跡。

專家相繼請辭 警告技術失控風險

半島電視台報道指出,近月多名來自頂尖AI公司的研究人員辭職,並公開警告快速的技術發展正為社會帶來風險。最新一宗是Anthropic的AI安全研究員沙拉馬(Mrinank Sharma)於2月9日宣布離職。他在社交平台X上表示,「反覆看到我們的價值觀要真正主導行動是多麼困難」。他在辭職信中直言「世界正處於險境」,似乎暗示技術進步的速度已超出人類可控範圍。

同一星期,另一名AI安全研究員希齊格(Zoe Hitzig)透露,她因OpenAI決定在旗艦聊天機械人ChatGPT上測試廣告而辭職。她在《紐約時報》撰文指出:「人們向聊天機械人傾訴他們的醫療憂慮、感情問題、對上帝和來世的信仰。建立在這些檔案上的廣告,創造了操縱用戶的潛在可能,而我們尚未有工具去理解,更遑論預防。」

與此同時,馬斯克(Elon Musk)的AI公司xAI亦有兩名聯合創辦人及五名員工離職。雖然他們未有透露原因,但馬斯克表示內部重組「不幸地需要與部分員工分道揚鑣」。歐盟上月已就Grok被指生成未經同意的女性色情圖像,對xAI展開調查。

人類應否恐懼AI?

HyperWrite行政總裁舒默(Matt Shumer)近日在X上發表的帖文引發廣泛關注。他警告,AI技術在2025年進步神速,其虛擬助理現已能提供極高質素的寫作,甚至只需少量提示就能構建近乎完美的軟件應用程式。「過去幾個月令我震驚。這些新AI模型並非漸進式改進,而是完全不同的東西。」

加拿大Mila Quebec AI研究所科學主任、圖靈獎得主本吉奧(Yoshua Bengio)向半島電視台表示,AI能力近月出現飛躍式進步,許多過去被視為理論風險的問題,如用於網絡攻擊或製造病原體,在過去一年已成現實。與此同時,完全意想不到的問題亦湧現,特別是人類與聊天機械人的關係日益密切。

「一年前,沒人會想到我們會看到人們與AI系統互動而產生情感依附,繼而引發一系列心理問題,」本吉奧說,他是剛發表的《2026國際AI安全報告》主席。「我們看到兒童和青少年經歷了本應避免的情況。這完全是出乎意料的,因為沒人預期人們會愛上AI,或與AI變得如此親密,以致AI以潛在危險的方式影響他們。」

AI是否已在取代人類工作?

《AI安全報告》指出,目前約有10億人使用AI執行各類任務。雖然尚無具體數據顯示AI會導致多少職位流失,但報告估計,發達經濟體中約60%的工作,以及新興經濟體中40%的工作,可能因AI而面臨風險。

報告主要作者克萊爾(Stephen Clare)向半島電視台表示,有跡象顯示,在易受AI影響的行業中,初入職場者可能更難找到工作。

微軟AI行政總裁蘇萊曼(Mustafa Suleyman)上周向英國《金融時報》表示,許多軟件開發者現已使用AI生成大部分代碼,只需作除錯檢查。他預測,白領工作中「大部分任務將在未來12至18個月內被AI完全自動化」。

媒體企業家兼非牟利新聞網絡HostWriter行政總裁阿邦(Mercy Abang)形容,新聞業正經歷「災難性變化」。「我看到許多新聞工作者因職位消失而完全離開行業,出版商不再看到投資報道的價值,因為這些報道可在兩分鐘內被AI概括。我們不能、也不應消除人類勞動力。當機器接管媒體角色時,我們將擁有怎樣的世界?」

近期AI風險的真實案例

過去數月發生多宗AI負面應用事件,包括聊天機械人鼓勵自殘,以及AI系統被操縱進行大規模網絡攻擊。

報道指,各國亦正部署AI進行大規模網絡攻擊或「AI間諜活動」,尤其是因為AI代理的軟件編碼能力。去年11月,Anthropic指控一個中國國家支持的駭客組織操縱其聊天機械人Claude的代碼,試圖入侵全球約30個目標,包括政府機構、化工企業、金融機構及大型科技公司。公司稱部分攻擊成功。

上周六,《華爾街日報》報道美軍在1月3日擄走委內瑞拉總統馬杜羅的行動中使用了Claude。Anthropic未有回應報道,半島電視台亦無法獨立核實。

以色列在加沙的軍事行動中,AI驅動的武器被廣泛用於識別、追蹤和攻擊巴勒斯坦人。過去兩年的種族滅絕戰爭中,已有超過72,000名巴勒斯坦人喪生。

AI安全法規遠遠落後

專家表示,儘管AI公司日益嘗試降低風險,但AI安全法規整體上遠遠落後於發展速度。《AI安全報告》主要作者克萊爾指出,其中一個原因是AI系統發展迅速,連開發者對其仍不甚了解。由於速度太快,什麼構成風險的定義也在不斷更新。

美國AI安全中心(CAIS)戰略顧問博埃里(Liv Boeree)將AI公司比喻為「只有油門沒有剎車的汽車」。在沒有全球監管框架的情況下,每家公司都有空間全速前進。「我們需要建立方向盤、剎車和油門以外的所有汽車功能,這樣我們才能成功穿越前方狹窄的道路。」

目前AI法規僅限於國家或地區層面,許多國家根本沒有任何政策,導致全球監管參差不齊。歐盟是例外,自2024年起與AI公司和公民社會成員共同制定《歐盟AI法案》,這項首個AI法律框架將訂立「實務守則」,例如要求AI聊天機械人向用戶披露其為機器。

《紐約時報》邀八位學者展望AI未來

《紐約時報》邀請八位頂尖思想家,就AI未來五年的發展發表見解,問他們認為五年內AI會達至何種境界?

歷史學家哈拉瑞(Yuval Noah Harari)大膽預測:「五年內,AI代理很可能至少在一些國家獲得法律人格。」

電腦科學家米切爾(Melanie Mitchell)則認為:「AI不會治癒癌症或解決物理學難題。同樣,沒有人會將流利對話視為智能的決定性標誌。」

AI政策研究員托納(Helen Toner)預期:「我們將擁有能在多個科學領域前沿作出貢獻的AI系統,但你仍不會放心讓它為你的孩子規劃夏令營。」

Cohere聯合創始人弗羅斯特(Nick Frosst)相信:「AI將以最好的方式變得無聊。它會像GPS或電子試算表一樣淡出背景,為日常工作提供動力。」

人工通用智能AGI何時到來?

人工通用智能(AGI) 是指假設機器具有的智慧,能理解或學習人類能做的任何理智性任務。這是一種人工智慧(AI) 類型,目的是模擬人類大腦的認知能力。

對於人工通用智能(AGI)何時實現,專家意見分歧。認知科學家馬庫斯(Gary Marcus)斷言:「AGI絕不可能在2027年底前到來,甚至很可能2032年底前也不會。」弗羅斯特亦認為十年內 unlikely。

哈拉瑞則強調定義的關鍵性,認為AGI將在某些方面遠超人類,在其他方面則遠遜。「沒理由期望AI會朝着『人類智能』的目標前進。」

AI對各領域的影響

醫學:弗羅斯特認為AI將「絕對提高醫生的工作效率」,但對AI自主創造新藥存疑:「人們很可能會失望。」

編程:哈拉瑞指編程是「AI的理想遊樂場」。弗賴伊(Carl Benedikt Frey)引述研究稱,使用GitHub Copilot的開發者完成任務速度快56%。

科學研究:米切爾相信影響「不會像許多人想像的那麼快」。斯里尼瓦斯(Aravind Srinivas)則樂觀:「人類一直擅長提出問題,AI將擅長提供答案。」

教育:弗賴伊認為「AI導師可能已超越大多數人類教師」,但同時帶來作弊問題。馬庫斯直言影響多為負面,「高校不知所措」。托納則視為「因禍得福」。

心理健康:米切爾警告可能出現「AI誘發的精神病」,同時也有人受益於聊天機械人治療。哈拉瑞形容這是「人類歷史上最大規模的心理實驗」。

藝術與創意:米切爾指AI將帶來變革,「不是因為AI比人類更有創意,而是因為它便宜得多」。弗羅斯特強調「是人類決定什麼感覺對」。

給年輕人的建議

哈拉瑞建議高中生「不要專注於編程等狹窄領域」,應均衡發展智力、社交和動手能力。「正是在這三者的結合中,人類仍比AI擁有巨大優勢。」

托納則提出有趣的比喻:「對於任何可能從事的工作,問問自己:這是像建築工地,還是像健身室?AI可以幫助我們做更大、更酷的事情,但我們也需要先建立自己的認知能力。」

科特拉(Ajeya Cotra)以警世語調總結:「把AI想像成一個智能外星物種的出現。這可能是你們這一代的核心挑戰,你應設法幫助它朝着更好的方向發展。」

無綫新聞 TVB News
無綫新聞 TVB News
無綫新聞 TVB News