被譽為「人工智慧教父」的 Geoffrey Hinton,最近再度丟下一顆震撼彈:他表示,AI「有可能」讓人類走向滅亡,這種風險已經不能被當成科幻電影情節,而是必須嚴肅面對的現實問題。 Geoffrey Hinton 是深度學習領域最重要的奠基者之一,他在 1980、1990 年代堅持研究當時不被看好的 neural networks,後來更與團隊在 2012 年用深度學習模型一舉拿下影像辨識競賽冠軍,徹底改變 AI 發展路線。他之後加入 Google,協助推動深度學習技術在語音、圖像等多個應用領域落地,因此被許多人稱為「Godfather of AI」。也正因如此,當這樣一位重量級人物公開說出「AI 可能毀掉人類」,整個科技圈都不得不正視。 Hinton 過去一度認為,真正具威脅性的通用人工智慧(AGI)可能要數十年後才會出現。然而,近幾年像 ChatGPT 這樣的生成式 AI 快速進步,讓他自己也嚇了一跳。他指出,大型語言模型在沒有真正「理解」世界的情況下,就能透過大量資料訓練,學會寫程式、寫文章、解題,某些任務的表現甚至已經超越多數人類專家。這種能力成長的速度,讓原本以為「還很遙遠」的風險,突然變得近在眼前。...
超過850位全球知名科技領袖、科學家與公眾人物近日公開呼籲暫停發展「超級智能」(Superintelligence),這一波前所未有的連署行動不僅震撼矽谷,也引發國際社會對人工智慧未來的深度關注。參與者名單堪稱「星光熠熠」,包括 Apple 共同創辦人 Steve Wozniak、Virgin 創辦人 Richard Branson、AI 界「教父」Yoshua Bengio 與 Geoffrey Hinton,甚至還有美國前國家安全顧問、曾任聯合參謀部主席的高階軍事官員,以及來自影視、宗教與政治領域的跨界名人,例如王子 Harry、Meghan Markle、Steve Bannon、Glenn Beck、Joseph Gordon-Levitt 等,突顯這一連署跨越黨派、地域與專業界限的強大共識。 由 Future of Life Institute(FLI)協調發表的聯合聲明,主張在全球範圍內「禁止開發超級智能」,直到有廣泛科學共識證明其安全性與可控性,並獲得強有力的公眾支持為止。該聲明強調,當前...