Google Gemini 驅動蘋果 Siri 與 AI 功能,代表行動裝置與生成式 AI 進入了一個全新的權力分配時代。當兩大科技巨頭在 AI 模型與終端生態系上開始深度綁定,不只是 Siri 的未來被改寫,整個智慧手機與雲端 AI 市場的版圖也將被迫重新排列。 在這場合作之後,「誰擁有使用者」、「誰擁有模型」、「誰掌控預設入口」這三個問題,不再有單一贏家,而是進入更複雜的共生、博弈與監管新局。 Google Gemini 驅動蘋果 AI 功能的關鍵意義 長期以來,蘋果以垂直整合著稱:自家晶片、自家作業系統、自家應用商店,連隱私政策與安全標準都盡量掌握在自己手裡。如今選擇讓 Google Gemini...
未來20年內,Elon Musk 預測人工智慧(AI)與機器人技術將徹底改變工作與經濟結構,使得工作成為「選擇性」且貨幣變得「無關緊要」。這一預測引發廣泛討論,尤其針對年輕世代的職涯發展及社會運作模式產生深遠影響。 Elon Musk 在2025年美國-沙烏地阿拉伯投資論壇上,明確表達他認為AI和機器人將在10至20年間廣泛整合於企業和工作流程中,極大提升生產力和效率。這種技術發展將使大部分工作自動化,人類不再必須以工作為生,而是可以選擇是否從事任務。因此,工作不再是賴以維生的唯一途徑,而變成一種自願的活動,生活不再依賴勞動收入。 Musk 進一步指出,隨著AI智能和機器人技術持續進步,貨幣的角色可能會逐漸消失。他引用科幻小說作家Iain M. Banks 的《Culture》系列,其中描繪一個超智能AI系統普及後,財富和傳統貨幣不復存在的社會形態。他認為未來社會可能不再使用金錢作為交換媒介,而生活需求將由系統自動供應,減少貨幣需求。去年,Musk 也曾提及普遍基本收入(universal basic income)的概念,表示政府可透過這種制度,保證市民基本生活所需,即使工作變得不必要。 不過,這樣的未來圖景也帶來挑戰。Anthropic執行長Dario Amodei 表示,AI有可能在未來削減多達50%的白領基層職位,對年輕世代造成就業困境。若大部分工作崗位消失,年輕人的工作機會將受到嚴重壓縮,如何保障社會穩定與個人自我價值實現,將成為核心議題。有人擔憂若工作與收入同時消失,會導致社會不安和個人生活意義的缺失。 此外,AI普及對經濟及政治結構也可能產生巨變。當貨幣失去中心地位,政府財政政策和傳統經濟激勵機制將面臨考驗,如何調節資源分配和維持社會秩序,成為政策制定者必須面對的新課題。社會價值觀也可能轉向更重視幸福感、創造力和自我實現等非物質層面,重新定義人與工作、金錢的關係。 放眼亞洲市場,尤其是香港及台灣,兩地經濟結構中金融和科技產業占比高,AI及自動化的發展尤其受到重視。未來勞動市場將如Elon Musk所言,趨向高效率且工時選擇性強的模式,人工取代性大,但同時也將創造出新興行業和技能需求。例如AI維護、數據分析、創意設計及人機協作等領域,或成為明日職場的新藍海。教育和職涯培訓也必須跟上節奏,強化跨領域能力與創新思維,應對工作形態的急速演變。 綜合來看,Elon Musk的前瞻性預測表明,隨著AI和機器人技術的突破,未來工作將不再是必須,貨幣的地位或將衰減,社會將步入一個全新而充滿挑戰的階段。對普通人而言,如何適應這種變革、發展自我價值和尋求生活意義,將是未來兩岸三地社會不可忽視的課題。 #人工智慧 #工作變革...
背景:AI 工具在教育中的普及與隱憂 近年來人工智能(AI)工具迅速融入教育領域,成為師生日常學習的重要輔助。根據近期調查,超過九成的香港中小學教師與學生都曾使用 AI 工具,當中教師使用比例超過九成,學生更接近全面使用,顯示 AI 已深度滲透教與學過程。不少學生甚至坦言「沒有 AI 就難以完成功課」,可見 AI 在校園裡的重要性。 然而,AI 普及同時也引發教育界的隱憂:許多教師擔心學生過度依賴 AI,導致獨立思考和解難能力退化。本篇將深入分析教師觀點、AI 工具於課堂的應用現況、現行指引、心理與教育理論觀點,以及如何平衡 AI 使用與學生思維能力培養的策略與國際經驗。 教師觀點與憂慮:依賴 AI 削弱學生思維能力? 調查顯示,教育工作者對學生使用 AI 工具抱持審慎態度。超過七成受訪教師直言,學生過度倚賴 AI...
AI 眼鏡在考場作弊的想像,已經不再只是科幻橋段。當一副搭載大型語言模型的 AI 眼鏡,可以在大學期末考中迅速「讀題、解題、出答案」,整個高等教育評量體系都被迫重新審視:我們到底在考什麼,又能否繼續假裝這一切與 AI 無關? AI 眼鏡考試作弊:從技術炫技變成教育痛點 要理解 AI 眼鏡作弊為何衝擊如此巨大,先看清這個裝置的組成並不神祕。典型的 AI 眼鏡通常包含: 內建攝影鏡頭,用來拍攝試卷或螢幕內容 微型顯示螢幕,把 AI 回傳的答案投射到鏡片邊緣 麥克風與喇叭,支援語音輸入與語音提示 與手機或雲端伺服器的持續連線,將影像上傳給大型語言模型推理 在這樣的架構下,一名學生只要低頭看題目,AI 眼鏡就能: 自動截取試題畫面 傳送到後端模型進行理解與推理 於數秒內將解題步驟與答案回傳到鏡片顯示...
德國慕尼黑地方法院在2025年11月11日作出一項備受矚目的判決,裁定OpenAI在未經授權的情況下,使用受版權保護的德國歌曲歌詞訓練其生成式AI模型ChatGPT,構成對版權法的侵犯。這項判決被視為歐洲首宗直接針對AI訓練與輸出內容的版權爭議案,為AI產業與版權持有者之間的法律界線帶來明確指引,也預示未來AI公司在歐洲市場的合規策略將面臨重大挑戰。 案件由德國主要音樂版權集體管理組織GEMA提出,指控OpenAI在訓練ChatGPT時,使用了包括「Atemlos」和「Wie schön, dass du geboren bist」等九首知名德國歌曲的歌詞。GEMA指出,只要使用者輸入簡單提示,ChatGPT便能完整輸出這些受保護的歌詞,顯示模型已將這些內容「記憶」並儲存於其參數之中。法院在審理後,認定這種「記憶化」(memorisation)行為已構成《德國著作權法》(UrhG)第16條所定義的「重製」行為,即使歌詞並非以傳統檔案形式儲存,而是以模型內部的統計參數呈現,仍屬於版權法規範範圍。 法院進一步指出,當ChatGPT將這些歌詞輸出給使用者時,屬於透過網路向公眾提供作品,構成《德國著作權法》第19a條及《歐盟資訊社會指令》(InfoSoc Directive)第3條所定義的「公開傳播」行為。這意味著,AI模型不僅在訓練階段可能涉及版權問題,其後續的輸出行為同樣需要取得授權。 在判決中,法院也明確駁回OpenAI主張的「文本與數據挖掘例外」(text-and-data-mining exception,TDM exception)適用性。根據德國《著作權法》第44b條,TDM例外僅允許為分析目的而製作的準備性複製,但一旦模型能重現受保護作品的實質內容,且影響權利人的合法經濟利益,便超出例外範圍。法院強調,AI模型的記憶與輸出行為已干擾權利人的商業利益,因此不能援引TDM例外作為免責依據。 此外,法院也拒絕OpenAI將責任歸咎於使用者的論點,認為AI平台營運商在模型架構與資料集選擇上具有主導權,應負起主要責任。判決結果包括要求OpenAI停止在德國境內儲存未經授權的德國歌詞,並須在當地報紙刊登判決內容,同時承認GEMA有權求償損害賠償或授權費用。雖然具體賠償金額尚未公布,但外界預期可能達到相當高的水準。 這項判決對AI產業的影響深遠。首先,它明確將AI模型的「記憶化」行為納入版權法規範,提高AI公司在資料來源與模型訓練上的合規門檻。其次,它強化了版權持有者在歐洲的執法能力,未來AI公司若想在歐洲市場營運,必須更嚴格審查訓練資料,並積極與版權集體管理組織協商授權。此外,判決也促使AI公司加強技術防護,例如去重複化(deduplication)、正規化(regularisation)、針對性防記憶技術,以及強化提示與輸出過濾機制,特別是針對短篇作品如歌詞與詩歌。 對於GEMA與其他版權集體管理組織而言,這項判決提供了雙重執法工具:不僅可針對訓練階段的記憶化行為提出主張,也能針對模型輸出的侵權內容進行追訴。然而,由於OpenAI已公開表示不認同判決結果,並考慮提出上訴,未來法律爭議仍可能持續,相關判例的發展值得持續關注。 總體而言,這項判決不僅是德國版權法的里程碑,也為歐洲乃至全球AI與版權的平衡帶來新的思考方向。AI公司必須重新評估其資料來源與模型設計,而版權持有者則獲得更強的法律武器,以保護其創作成果。 #OpenAI #GEMA #版權法 #AI訓練 #生成式AI
諾貝爾經濟學獎得主麥可·斯賓塞論AI如何重新定義全球經濟 人工智能(AI)正以前所未有的速度重塑全球經濟格局,而這場技術革命的影響遠比許多人想象的要深遠。諾貝爾經濟學獎得主麥可·斯賓塞(Michael Spence)近日分享了他對AI投資熱潮、經濟增長潛力及相關挑戰的深入見解,為我們揭示了一個正在快速演變的經濟未來。 AI投資熱潮:理性的泡沫 當前全球科技市場呈現出一個引人注目的現象——超過三成的S&P 500指數市值集中在七大科技巨頭手中。斯賓塞認為,儘管市場存在某些泡沫現象,但這實際上是一種理性的泡沫。 從Google、Microsoft、Meta及Amazon等科技巨頭的角度來看,失去AI競賽中第三名位置的代價遠高於當前的過度投資或低效率損失。這促使這些企業以極快的速度進行投資。斯賓塞指出:「我們面臨的是一場投資競賽,這種競爭不僅存在於美國的大型科技公司之間,在中國的科技企業中也同樣激烈。」 這種投資邏輯的核心在於一旦被淘汰出局,所付出的代價將遠遠超過現有的過度投資成本。因此,AI領域的大規模投資實際上代表著企業的理性選擇。美中之間的戰略競爭進一步加劇了全球AI投資熱潮,使得各國都不願在這場技術競賽中落後。 生產力增長的長期前景 關於AI對經濟的影響,斯賓塞提出了一個值得深思的觀點。AI相關投資在短期內對生產力增長的影響並不顯著,但其長期生產力增長的潛力卻是巨大的。他強調:「人們往往高估了重大技術突破的短期影響,卻低估了其長期影響。泡沫產生的原因之一就是人們高估了這些影響發生的速度。我們曾在2000年左右的互聯網泡沫中看到過類似的情況。」 斯賓塞認為,要實現生產力的飛躍增長,關鍵在於充分釋放AI在經濟領域的潛力,而這是一個技術擴散的問題。如果AI只在科技和金融等領域帶來巨大變革,而在吸納大量就業人口的酒店、傳統零售和教育等產業影響有限,那麼生產力的激增就不會到來。相反,我們將面對一個曾經強大但缺乏長期動力的經濟體。 香港與台灣的發展機遇 對於亞洲地區,特別是香港這樣的國際金融創新中心而言,AI產業的高質量發展不僅是經濟結構轉型的內在需求,更是服務國家戰略、融入國家發展大局的必然選擇。 根據普華永道發佈的《2025年全球人工智能就業晴雨表》,香港在2023年至2024年間,AI相關職缺招募數量從1.6%上升至1.9%。另有研究預測,到2028年,四分之一的香港工人(近80萬人)將因自動化而經歷工作轉型或失業。 儘管面臨挑戰,但機遇同樣存在。Google與Access Partnership的聯合報告指出,到2030年,AI將為香港經濟帶來2,874億港元的貢獻。新興職業如AI數據分析師、機器學習工程師和AI倫理官員的需求不斷增長,為年輕專業人士開啟了全新的職業道路。 行業轉變與風險 數據輸入、客戶服務和文書等重複性日常工作面臨最高的自動化風險。金融、保險、法律、零售等服務業也正在經歷AI驅動的深刻變革。然而,正如斯賓塞所言,AI不僅帶來替代風險,也創造了新的機會。 現階段,香港的AI資源分散、缺乏整體規劃的問題仍然突出。為此,香港特區政府正在推動多項舉措,包括在統計處及1823政府熱線引入AI技術,優化數碼港的「數碼轉型支援先導計劃」,透過「配對資助」模式降低中小企業引入AI的門檻。 技術擴散的關鍵性 斯賓塞強調,AI要在全球經濟中發揮最大潛力,必須被所有經濟部門、無論企業大小都能使用。儘管科技和金融等行業的大規模投資將産生重大影響,但應用需要擴展到通常技術採用進度滯後的大就業部門,如政府、醫療保健、建築和酒店業。 前AI時期的數字採用研究表明,這種廣泛的擴散模式並非理所當然——若完全由市場力量主導,甚至可能出現技術利用差異擴大的現象。 政策支持的必要性 為確保AI能夠實現其全面經濟潛力,政策層面需要發揮關鍵作用。擴大計算基礎設施建設,使廣泛的研究人員和創新者社區能夠使用強大的系統是一項重要的政策步驟。透過政策支持加速AI在整個經濟中的擴散,可以顯著加快經濟增長,幫助生產力增長反彈。...
每天數千萬人用 ChatGPT 問健康:AI 醫療諮詢正改寫遊戲規則 ChatGPT 醫療諮詢已經不是新鮮事,而是全球日常。最新公開的使用數據顯示,每天超過四千萬人透過生成式 AI 詢問健康與醫療相關問題,醫療已成為聊天機器人的核心場景之一。當越來越多人把第一站從診間移到對話框,我們不得不正視:AI 正快速變成新一代「入口級」醫療資訊服務。 這股潮流背後,有醫療體系本身的結構性問題,也有科技產業積極進軍健康照護的野心。關鍵問題不是「會不會發生」,而是「我們要如何讓它安全、負責且有益地發生」。 為何 ChatGPT 醫療諮詢會爆紅? 1. 體系複雜與成本高昂,病人需要「翻譯」 在許多國家,看病越來越像在解一道財務與法律的綜合考題: 費用高昂、共付額與自付額計算複雜 保單條款艱澀難懂 診斷報告充滿專業術語 不同醫師給出不同建議,病人難以消化 生成式 AI 在這裡提供的,不是「診斷」,而是一個 24...
生成式 AI 正在快速改變我們獲取健康資訊的方式,而「ChatGPT Health」正是這股浪潮中最受矚目的新產品之一。對於已經習慣向聊天機器人詢問症狀、飲食與運動建議的使用者而言,ChatGPT Health 象徵著一個更專注於健康諮詢的 AI 空間,有望重塑大眾與醫療體系的互動模式。根據產品方說法,目前每週已有約 2.3 億名使用者向該平台詢問健康與保健相關問題,足以顯示需求的龐大與急迫。 為何會出現專門的 ChatGPT Health? 長期以來,多數人面對健康困惑時的路徑,大致是: 先上網搜尋症狀 在眾多互相矛盾的資訊中焦慮加劇 若情況許可,才進一步預約門診 這樣的模式有幾個結構性問題: 醫療資源分布不均,偏鄉與弱勢族群更難就醫 門診時間有限,醫師難以充分回答所有生活與保健問題 診與診之間缺乏延續性,病人常在漫長空窗期自行上網「拼湊」答案 生成式 AI 聊天機器人被大量用於健康諮詢,正是因為它填補了資訊與情緒上的空缺:任何時間都能問、回應具對話感、又比搜尋結果更具結構。然而,當所有主題的對話都混在同一個聊天歷史中,健康資訊的隱私、情境與專注度,都難以獲得妥善處理。...
Anthropic作為全球AI領域的領先企業,近年來因其對AI安全與透明度的堅持而備受矚目。根據最新報導,Anthropic內部設有約60個研究團隊,專注於識別潛在威脅、建立防護機制,並深入探討AI可能帶來的經濟與社會影響。這些團隊的運作模式,展現了Anthropic在AI發展浪潮中,如何將安全與責任視為核心價值。 Anthropic的創辦人團隊多來自OpenAI,他們因對AI安全與倫理的擔憂而另起爐灶,創立了這間以公共利益為導向的公司。這種背景也讓Anthropic在業界樹立了獨特的形象:不僅追求技術突破,更強調模型的可信度與安全性。公司旗下的Claude系列模型,被譽為在防範「越獄」(jailbreak)攻擊方面,比其他主流競爭對手高出十倍的抵抗力,這項數據凸顯了其在安全設計上的領先地位。 Anthropic的AI安全策略,涵蓋了多層次的防護措施。例如,他們採用「深度防禦」(defense in depth)策略,透過多重系統來監控與阻擋惡意行為。其中,「憲法分類器」(constitutional classifiers)是一項關鍵技術,能即時掃描使用者的提問與模型的回應,偵測是否涉及危險內容,如生物武器製造等。這套系統在Claude Opus 4的發布中,更升級至「AI Safety Level 3」(ASL-3)標準,成為業界最嚴格的安全規範之一。 除了技術層面,Anthropic也積極推動企業治理與外部合作。公司設有專門的長期利益信託,並發行特殊類別股份,確保其安全使命不會因商業壓力而動搖。此外,Anthropic參與了多項國際AI安全倡議,與美國AI安全研究所等機構合作,接受外部專家的評估與建議,進一步提升模型的安全性。 在透明度方面,Anthropic定期發布模型報告,公開其安全評估結果與測試方法。例如,Claude Haiku 4.5在惡意程式碼請求的測試中,達成100%拒絕率,顯示其在防範惡意使用上的卓越表現。同時,模型在合法安全研究任務中的協助率也高達87.7%,平衡了安全與實用性。這種公開透明的做法,讓企業與開發者能更放心地採用Anthropic的技術。 Anthropic的負責人更直言,若缺乏足夠的監管與防護,AI技術可能帶來不可預期的風險。因此,公司持續投入資源,研究如何透過「機械可解釋性」(mechanistic interpretability)、「可擴展監督」(scalable oversight)等方法,提升AI系統的可靠性。這些研究不僅針對當前的威脅,也為未來更強大的AI模型預作準備。 總體而言,Anthropic在AI安全與透明度上的努力,為整個產業樹立了新的標竿。其多團隊協作、深度防禦策略、公開報告與外部合作的模式,不僅強化了模型的可信度,也為企業與社會提供了更安全的AI應用環境。隨著AI技術的快速發展,Anthropic的實踐經驗,無疑將持續影響全球AI產業的走向。 #Anthropic #AISafety #Claude #AI倫理 #AI透明度
人工智慧進展在 2025 年後仍然持續加速,卻與「AI 已經見頂」的輿論形成鮮明對比。這種人工智慧進展與悲觀敘事之間的落差,如果被誤讀,企業與個人都可能在未來幾年錯失最關鍵的佈局窗口。 在觀察近年的大型語言模型與多模態模型表現時,一個愈來愈清楚的訊號是:AI 在「智力」層面的進步,並沒有停下腳步,反而以近乎線性的節奏穩步向前。真正改變的,是我們對「突破」的期待與感受門檻,而不是技術曲線本身。 AI 進展真的放緩了嗎?量化指標給出不同答案 若單純從話題熱度、估值泡沫、或單一產品的發布節奏來看,確實很容易得出「AI 進展變慢」的錯覺。但若改用量化指標檢視,例如以人類智商題型為靶心的標準化測試,故事就完全不同了。 以過去一年多的數據來看: 領先模型在類 IQ 測試中的分數,從人類水準的中低段,穩定攀升到明顯的高智商區間 進步不是偶發性的巨大跳躍,而是每個月持續的小幅成長 單看趨勢線,大約相當於每月增加數個 IQ 點的「智力增量」 這代表什麼?代表 AI 智力並沒有停滯,而是在一個我們肉眼不容易察覺、卻對長期影響極深的線性坡度上持續上升。人類對變化的體感,往往只對「大版本更新」敏感,卻忽略了這些版本之間,模型在看不見的測試集上其實一直在緩步變強。 用 IQ 測試觀察人工智慧進展:線性成長的清晰訊號...
Google DeepMind 推出革命性 AI 智能體 SIMA 2:虛擬 3D 世界的新里程碑nn在人工智能技術突飛猛進的時代,Google DeepMind 最近發佈了一項令人矚目的創新成果——SIMA 2(Scalable Instructable Multiworld Agent),這是一個專為虛擬三維世界設計的高級 AI 智能體。與過往的 AI 系統不同,SIMA 2 不僅能夠執行基本命令,更能展現出深刻的理解能力、複雜推理能力,以及在動態互動環境中的學習能力。 傳統 AI 系統的局限性一直是業界關注的焦點。以往的虛擬世界...
OpenAI推出Sparse Circuits研究 邁向可解釋AI時代 在人工智能快速發展的今日,AI模型的決策過程如同黑盒一般難以理解,這個問題日益成為業界的關鍵挑戰。OpenAI最近發表了一項突破性研究,透過「Sparse Circuits」(稀疏迴路)技術,嘗試揭開神經網絡的神秘面紗,為可解釋AI的未來鋪路。 Sparse Circuits的核心概念 Sparse Circuits是一種新穎的訓練方法,其核心思想在於將人工神經網絡的內部推理過程濃縮至有限的連接路徑中。與傳統的複雜模型不同,Sparse Circuits透過減少神經元之間的連接數量,使得整個模型結構變得更加簡潔易懂。這種方法使得研究人員能夠像閱讀電路圖般,清晰地觀察模型在執行特定任務時,究竟是哪些部分在發揮作用。 舉例而言,當模型需要在代碼中正確終止字符串時,研究人員可以精確定位負責此任務的神經網絡部分。這種微觀層級的理解,對於建立AI安全性和可信度至關重要。 機械論解釋性的革新方向 OpenAI的研究屬於「機械論解釋性」(Mechanistic Interpretability)這一新興領域。這個領域旨在通過分析AI模型的內部結構和運作機制,使人類能夠理解AI如何進行推理。與以往僅關注輸入輸出對應關係的方法不同,機械論解釋性深入模型內部,解析其算法原理。 為了實現這一目標,研究者採用了多種創新技術。其中「Sparse Autoencoder」(稀疏自編碼器)特別值得關注,它能將密集的內部表示轉換為高維度但稀疏的特徵基礎,使得AI模型內部的特徵變得更加單一化和易於理解。通過這種方法,研究人員成功從Claude 3 Sonnet等大型語言模型中提取出人類可理解的特徵,包括性別偏見、代碼錯誤等具體內容。 另一項重要技術是「Logit Lens」,它通過在Transformer的殘差流中應用Unembedding矩陣,使研究人員能夠觀察模型在各個層級的預測如何逐步演變。這種可視化方法讓我們得以看見AI思維的「進化過程」。 實證案例與突破 OpenAI和其他主要AI研究機構已經在實踐中取得了顯著成果。在GPT-2 small模型上,研究人員成功識別出處理「Greater Than」任務的迴路。這項工作涉及模型理解諸如「戰爭持續了從1732年到17年」這樣的提示,並輸出大於32的數字。透過識別關鍵神經元和它們之間的連接,研究人員得以精確描述模型的推理路徑。...