超過850位全球知名科技領袖、科學家與公眾人物近日公開呼籲暫停發展「超級智能」(Superintelligence),這一波前所未有的連署行動不僅震撼矽谷,也引發國際社會對人工智慧未來的深度關注。參與者名單堪稱「星光熠熠」,包括 Apple 共同創辦人 Steve Wozniak、Virgin 創辦人 Richard Branson、AI 界「教父」Yoshua Bengio 與 Geoffrey Hinton,甚至還有美國前國家安全顧問、曾任聯合參謀部主席的高階軍事官員,以及來自影視、宗教與政治領域的跨界名人,例如王子 Harry、Meghan Markle、Steve Bannon、Glenn Beck、Joseph Gordon-Levitt 等,突顯這一連署跨越黨派、地域與專業界限的強大共識。
由 Future of Life Institute(FLI)協調發表的聯合聲明,主張在全球範圍內「禁止開發超級智能」,直到有廣泛科學共識證明其安全性與可控性,並獲得強有力的公眾支持為止。該聲明強調,當前 AI 產業正進入關鍵轉折點,Meta、OpenAI、xAI 等科技巨頭競相投入資源研發超越人類認知能力的「人工通用智能」(Artificial General Intelligence, AGI),但超級智能一旦失控,可能導致經濟崩潰、公民自由與尊嚴喪失、國家安全危機,甚至人類滅絕等難以挽回的後果。
事實上,這並非 AI 安全倡議者首次發出警告。2023年 FLI 也曾發起要求暫停大型 AI 模型訓練六個月的公開信,當時雖然獲得 Elon Musk 等名人支持,但並未實質減緩產業發展腳步。而本次行動直指「超級智能」——亦即 AI 在所有有用任務上全面超越人類能力——更具針對性。根據內部調查,僅有 5% 美國民眾支持 AI 快速且無監管的發展,超過 73% 認為應加強監管,64% 主張在安全性未獲證實前不應開發超級智能,顯示社會對風險的普遍憂慮。
科技界內部對此議題看法分歧。知名 AI 安全研究專家 Stuart Russell 長期以來不斷強調,挑戰不在於「能否」建造超級智能,而是「能否」有效控制。本次連署行動的發起人之一表示,AI 公司正以驚人速度推進技術,超級智能可能在未來一至兩年內問世,社會各界必須儘快凝聚共識,阻止這場缺乏充分風險評估的技術競賽。現階段,無論是 OpenAI 執行長 Sam Altman,或是 Meta 新成立的「Meta Superintelligence Labs」,皆未因外界呼籲放緩研發腳步,產業投注的資源有增無減。
連署名單特別值得玩味之處,在於其涵蓋極度多元的背景。除了科技與學術領袖,亦包括教宗顧問、諾貝爾獎得主、民主與共和兩黨政治人物、保守與自由派媒體人,甚至娛樂明星,展現這一議題超越傳統立場分野的急迫性。這種跨領域、跨意識形態的集結,在當今高度分化的社會實屬罕見,也反映超級智能所引發的憂慮,已成為全球公民的共同課題。
就技術定義而言,超級智能不同於現階段「狹義 AI」,後者僅能在特定領域(如圍棋、圖像識別)達到或超越人類表現,前者則宣稱將具備全面性、通用性的智能,甚至可能自主進化,脫離人類掌控。因此,倡議者主張,國際社會應建立具約束力的規範,確保任何超級智能研發都必須先通過嚴格的安全測試、倫理審查與民主監督,才能繼續推進。歐美多國已開始討論立法框架,但具體進展仍有限。
這波連署行動既是科技界對自身責任的反思,也向政策制定者與公眾發出明確訊號:在追求技術突破的同時,必須正視人類社會的集體利益與安全底線。香港與台灣作為全球科技產業鏈的重要節點,AI 應用亦日益深入民生、金融、醫療等領域,相關討論與政策回應值得持續關注。各界普遍期待,科技巨頭能主動放緩競速,與學界、公民團體及政府展開實質對話,避免陷入「失控創新」的風險。
#AI #超級智能 #科技倫理 #全球連署 #人工智慧安全
追蹤以下平台,獲得最新AI資訊:
Facebook: https://www.facebook.com/drjackeiwong/
Instagram: https://www.instagram.com/drjackeiwong/
Threads: https://www.threads.net/@drjackeiwong/
YouTube: https://www.youtube.com/@drjackeiwong/
Website: https://drjackeiwong.com/