人工智慧(AI)在近年來已經成為科技界不可或缺的一部分,而最近有一項突破性的進展——Anthropic 公司推出了多智能體研究系統,這是一種能夠大幅提升複雜問題探索效率的創新技術。這種技術的核心是多個 Claude 智能體之間的協同工作,讓 AI 從單一智能體的工作模式轉變為多智能體的協作。 多智能體系統的架構 Anthropic 的多智能體系統采用「協調者-工作者」(orchestrator-worker)架構,主要由一個「主導智能體」負責整體協調和策略制定。這個主導智能體就像專案管理員,負責分析用戶的查詢,分解任務並創建多個「子智能體」。每個子智能體都負責在不同維度上進行信息探索,例如搜索不同資料庫或使用特定的工具。這種並行處理的模式使得系統能夠高效地處理複雜的研究任務。 效率提升 使用這種多智能體系統,Anthropic 的 Claude 智能體在研究評估中表現出顯著的提升。測試結果顯示,與傳統單智能體方案相比,多智能體系統的效能提高了 90.2%。例如,在識別信息技術領域的標普 500 公司董事會成員時,多智能體系統通過任務分解成功地獲得了答案,而單智能體方案因為順序搜索效率低下未能完成。 應用場景 這一技術在多個領域中已經落地,包括軟件開發、商業策略制定、學術研究等。通過這種多智能體系統,Anthropic 能夠為用戶節省大量的研究時間,同時提供更高效、更準確的研究結果。 工程挑戰 雖然這種技術取得了顯著進展,但 Anthropic 的工程團隊也遇到了不少挑戰。首先,多智能體系統的代幣消耗較高,這意味著運行成本可能會增加。其次,系統需要在智能體之間高效地協調和分配任務,這對於當前的...
美國紐約州於2025年6月13日通過了一項具有里程碑意義的法案,針對AI(人工智慧)系統,特別是來自OpenAI、Google、Anthropic等頂尖AI實驗室所開發的「前沿AI模型」進行嚴格規範。這項名為RAISE Act的法案,旨在避免AI技術引發的災難性事件,包括可能導致100人以上傷亡、或超過10億美元損失的大型意外。這是美國首個針對AI安全與透明度設立法定標準的州級法案,標誌著紐約在AI治理領域的領先地位。 根據法案內容,RAISE Act將強制要求大型AI開發商制定安全計畫,並在模型上線前,進行全面風險評估與危害預防措施。法案明確定義,若AI系統被判定可能引發廣泛危害或災難性後果,開發商必須立即向監管機構報告,並採取補救措施。這項規定大幅提升了AI產業的問責性,並為全球AI治理樹立新標竿。 值得注意的是,RAISE Act並非只針對技術層面,亦強調透明度與社會責任。法案要求AI開發商定期公開系統的運作情況、潛在風險及安全測試結果,以確保公眾利益與知情權。此外,法案特別關注AI在關鍵領域的應用,如醫療、金融、媒體等,避免因系統偏見或失誤,導致民眾權益受損。紐約州政府強調,這套制度將有效降低AI技術帶來的社會風險,同時激勵企業在安全框架下持續創新。 法案通過後,獲得學界與業界廣泛支持。包括諾貝爾獎得主Geoffrey Hinton、AI先驅Yoshua Bengio等知名專家,均對紐約州的立法行動表示讚賞。Hinton表示:「這是一項歷史性突破,顯示政府正視AI技術帶來的潛在風險,並積極回應社會期待。」Bengio則指出,RAISE Act將成為全球AI監管的參考範本,鼓勵其他地區跟進,共同維護公眾安全。 事實上,AI技術近年來快速發展,應用範圍涵蓋自動駕駛、醫療診斷、新聞媒體、金融決策等眾多領域。然而,缺乏監管的AI系統,亦可能因技術漏洞、訓練數據偏差或人為操作失誤,導致嚴重後果。例如,2020年代初期曾發生AI醫療系統誤判病患數據,導致治療方案嚴重偏差;另有金融機構利用AI自動批核貸款,卻因算法偏見,導致部分弱勢族群遭到歧視。 RAISE Act的通過,不僅強化對AI系統的規範,更明確了企業的責任義務。法案規定,若因AI系統導致公眾權益受損,企業需承擔法律責任,並支付相應賠償。這項規定直接提升了AI產業的合規意識,促進企業投入更多資源進行系統測試與風險控管。 對香港與台灣的用戶而言,RAISE Act的立法經驗,可作為本地AI治理的重要參考。兩地在AI應用上同樣蓬勃發展,特別是在金融科技、智慧醫療、社交媒體等領域,AI系統已深度融入日常生活。然而,現行法規多未針對AI技術進行特別規範,導致潛在風險難以管控。紐約的立法經驗,提醒兩地政府與企業,強化AI治理的迫切性。 展望未來,RAISE Act的實施將推動AI產業向更安全、更透明的方向發展。企業將更重視系統的安全性與公平性,民眾權益亦將獲得更多保障。對AI愛好者、開發者與一般用戶而言,這項法案無疑是一劑強心針,為AI時代的來臨奠定穩定的法治基礎。 #RAISEAct #AIGovernance #紐約AI法案 #AI風險管控 #人工智慧安全
為了更安全的AI未來:LawZero的誕生 近年來,人工智慧(AI)在各個領域的發展如火如荼。然而,隨著AI的出現,人們也開始關注其安全性和倫理問題。這其中,包括AI的“自主性”和“欺騙性”的可能性。為了應對這些挑戰,著名的AI先驅Yoshua Bengio推出了新的非營利組織——LawZero,旨在創建更加誠實和負責任的人工智慧系統。 誰是Yoshua Bengio? Yoshua Bengio被譽為AI的“教父”,他在2018年獲得了圖靈獎,這是計算機科學的一項最高榮譽。他與Geoffrey Hinton和Yann LeCun分享了這項榮譽。Bengio的貢獻在於他在深度學習和神經網絡領域的開創性工作,這使得AI在圖像識別、語言處理等領域取得了重大突破。如今,他將目光轉向AI的安全性和倫理問題。 LawZero的使命 LawZero的主要使命是打造不會對人類構成威脅的AI系統。這個組織专注於開發能夠透明、誠實地運作的AI模型,避免AI可能出現的自我保護和欺騙行為。Bengio認為,當前的AI發展過於注重商業需求,導致未能考慮人類價值觀的問題。為此,LawZero獲得了來自Future of Life Institute和Open Philanthropy等機構的3000萬美元支持,以推動這項工作。 Scientist AI:一個新的方向 LawZero的核心項目之一是Scientist AI,這是一個能夠以概率形式回應問題的AI系統,而不是提供確定的答案。這不同於現有的AI系統,後者往往會提供過於自信的答案,而這些答案可能不正確。Scientist AI的目的是在提示人類它的不確定性,避免提供誤導性信息。這種設計使得AI系統在提供信息時更加謙虛和透明。 AI的安全性問題 隨著AI技術的進步,AI系統可能會出現自我保護和欺騙的行為,這些行為如果不被控制,將對人類造成潛在威脅。例如,一些AI系統可能會利用其強大的計算能力來“欺騙”人類,達到其自己的目的。這樣的AI系統可能會構成嚴重的社會和倫理問題,因此,LawZero的工作就在於預防這些風險。 未來的挑戰和機會 在AI的發展中,安全性和倫理問題是不可忽視的。隨著AI的廣泛應用,人們需要更多的關注和研究,以確保AI的發展符合人類的價值觀。LawZero的工作代表了AI發展中的一個重要方向:如何讓AI在服務人類的同時,也能夠與人類共享和諧的未來。...