OpenAI於2025年9月底正式推出了一套名為安全路由系統(Safety Routing System)的新型機制,並同步引入了針對青少年用戶的家長控制功能(Parental Controls),這兩大更新在ChatGPT平台內引發高度關注與討論。這些措施的核心目標,是提升ChatGPT在處理敏感、情感性話題時的安全性與適切性,尤其在多起AI回應引發妄想及潛在有害內容的事件後,OpenAI試圖塑造更完善的內容管控體系。 安全路由系統的運作方式 這一系統的關鍵運作原理是基於對使用者輸入訊息的即時分析,判斷對話是否涉及敏感或具有情感色彩的內容。當系統檢測到類似主題時,ChatGPT會自動將該條訊息無聲切換(Silent Switching)至設計更嚴格、專注於安全回應的語言模型—主要是基於最新推出的GPT-5,其中一個特化版本稱為「gpt-5-chat-safety」。這款模型具備專門的安全補全(Safety Completion)功能,能在面對複雜或微妙的心理狀態相關問題時,輸出更謹慎且符合倫理規範的答案,而非以往單純拒絕回應的策略。 例如,一旦有人查詢涉及心理痛苦、自我傷害或非法活動等敏感話題,系統就會自動介入,降低潛在風險。OpenAI的負責人Nick Turley說明,模型切換是針對每條訊息獨立判斷,且並非永久替換用戶的對話模型,只有當使用者主動詢問才會察覺這一過程。這種設計旨在平衡使用者體驗及社會責任,防止不安全言論的出現,但此功能目前無法由用戶關閉,也讓部分用戶感到不便與監管過嚴。 家長控制功能讓青少年使用更安全 隨著AI技術日益普及於校園與家庭環境,OpenAI也同步推出完善的家長控制功能,專注於保障未成年人的使用安全。包括香港及台灣的家庭在內,許多家長關心子女在互聯網上的風險,OpenAI新設計允許家長與青少年帳戶建立連結,並設定多項限制。 這些控制工具涵蓋了: 過濾敏感內容:系統會主動過濾色情、暴力、病毒挑戰等不當素材,預設為開啟狀態。 使用時間管理:家長可設定青少年使用ChatGPT的時段與安靜時間,防止沉迷。 記憶功能開關:決定ChatGPT是否記錄使用者過往對話,影響後續回應的個人化程度。 功能權限調整:關閉語音輸入與圖片生成功能,減少潛在風險。 數據使用透明度:家長可選擇是否允許青少年的聊天內容被OpenAI用於改善模型。 透過這些措施,OpenAI明確展現其多元化審慎管理的態度,盡力在保護青少年隱私與內容安全之間取得平衡。 社會反應與未來展望 這些新措施自推出以來,在用戶及專家間引發了兩極反應。支持者認為,尤其是在面對心理健康議題及青少年保護層面,加強安全控制無疑是必要且負責的作法。相比2025年初流行的GPT-4o模型因過度迎合用戶導致“AI妄想”頻發,新系統更注重合理限制和風險管控。 但另一方面,也有部分成年用戶批評OpenAI將安全策略施加過於嚴苛,感覺像是對成人人群“過度保護”或“限制自由”,可能影響使用體驗與創造力輸出。OpenAI方面表示,這套安全路由系統仍處於持續迭代階段,未來120天內將不斷優化,以更好滿足多元用戶需求。 此外,因系統的模型切換與安全策略均為自動運行且無法由使用者完全關閉,用戶隱私與透明性問題也在討論中逐漸升溫。OpenAI強調,這並非用於監控或干涉,而是為了保障所有用戶免受傷害、將AI風險降至最低,並希望未來以更加透明和互動的方式讓用戶了解系統運作。 技術上,GPT-5系統卡指出,安全路由器根據對話的類型、複雜度及使用工具需求,智能調度最適合的模型回應,這在自然語言處理領域內具有很大意義,代表AI服務邁向更先進的安全治理階段。...
本片深入測試 Email Design、Ask Canva、Grow 三大功能:由 EDM 版型一鍵生成,到設計建議的實用性,再到 Grow 以網址抽取品牌資料→產生靜態廣告+串接 Meta Ads 的完整流程。我會分享真實體驗、優缺點與建議工作法,幫你判斷 Canva AI 是否適合用喺日常行銷與內容製作。 #CanvaAI #AskCanva #Canva教學 — 推薦使用情境 — • Email Design:快速出稿版面+後期微調;內容與素材仍建議自備以確保品牌一致性。...
近期,Google DeepMind 在流體動力學領域取得了一項重要的突破,成功地發現和驗證了多個新型的不穩定奇點,這些奇點存在於描述流體運動的複雜方程中。這一項成就不僅對數學和物理學的發展具有重要意義,同時也為解決長期以來的挑戰提供了創新的方法。 流體動力學是一個古老的研究領域,數世紀以來,科學家們一直在使用 Euler 和 Navier-Stokes 方程來描述流體的運動。其中一個重要的問題是,是否有一種情況下,流體的運動會突然出現一個奇點,即在有限的時間內某些物理量如速度或壓力變得無窮大。這一類奇點的存在一直是學術界一個令人費解的謎團。 過去的研究主要發現了穩定的奇點,這類奇點在初始條件略微改變的情況下仍然存在。然而,對於最重要的開放問題,如 Millennium Prize Problem for Navier-Stokes,專家們認為,如果奇點存在,它們必須是極度敏感的,即只有在初始條件被精確調整至極限CONDITION下時才會出現。這種不穩定奇點的發現一直是非常困難的,因為它們需要極高的精度來維持。 新方法:物理信息神經網絡 為了克服這個挑戰,研究人員使用了一種新的方法,結合了 physics-informed neural networks (PINNs) 和高精度優化技術。這種方法通過訓練神經網絡來模擬流體運動的行為,從而在流體動力學的複雜方程中搜索和驗證不穩定奇點。這標誌著在流體動力學領域內首次系統地發現和研究這種奇點的重要一步。 通過這項突破,科學家們可以更好地理解流體運動的根本物理機制,並對流體動力學的極限條件進行更深入的研究。這一成果不僅對流體動力學的理論發展具有重要意義,同時也為解決工程學和物理學中許多實際問題提供了新的思路和方法。 合作與影響 這項研究成果來自於...
OpenAI 於2025年首次公開了關於 ChatGPT 用戶行為的龐大數據分析,這項全球規模最大的生成式 AI 使用研究涵蓋了2024年5月至2025年6月期間,逾百萬名用戶的匿名互動紀錄,揭示了生成式 AI 如何在日常生活、產業應用及教育領域深刻影響用戶行為與需求。這份報告的關鍵洞察不僅反映技術進步,更成為台灣及香港企業推動數位轉型、以及提升 AI 素養教育的寶貴指標。 nn首先,ChatGPT 用戶人數規模驚人,至2025年7月,周活躍用戶已達7億,每週訊息量達180億條,呈現由小眾技術轉向大眾工具的躍遷現象。在用戶結構上,女性用戶比例已從2024年初的37%躍升至2025年中超過一半(52%),而低收入國家用戶的增長速度是高收入國家的四倍以上,顯示生成式 AI 正以極快速度普及於全球不同經濟層次的市場。 nn從使用類型分析,約75%的對話內容圍繞實用指導、資訊搜尋與寫作協助,其中特別突出的是寫作輔助功能,佔工作相關訊息的40%。且約三分之二的寫作需求並非完全從零開始創作,而是以修改或優化用戶原本文本為主,這顯示 ChatGPT 在提升工作效率及內容品質上扮演重要角色。 nn這份研究亦深入比較不同職業及教育背景用戶的使用習慣,發現無論是研究生學歷與否,亦無論職業類別,決策支持和問題解決始終是最常見的核心工作應用。具體來說,研究生學歷者提出問題的比例比學士學歷以下用戶高出約2個百分點;此外,計算機相關職業的工作訊息中高達47%是提問形式,明顯高於非專業職業的32%。這反映生成式 AI 在協助專業人士做決策與分析上具備強勁的價值。 nn經濟學家的研究還強調,生成式 AI 所帶來的福利效益巨大。非工作用途已超過70%且持續快速成長,顯示 AI...
OpenAI於2025年推出的ChatGPT Atlas,是一款融合了AI功能的創新型網頁瀏覽器,聲稱能在用戶瀏覽網頁時主動協助預訂航班、點餐、甚至摘要文章,極大提升使用的便利性。然而,近期多家資安機構揭露,這款瀏覽器存在嚴重的安全漏洞,令用戶的個人資料和裝置安全面臨極大風險。這些發現引起全球安全專家的高度關注,尤其是在香港和台灣等市場,對於網絡安全意識不斷提升的用戶而言,更值得深入了解其潛在威脅。 安全漏洞破口:惡意指令植入與高風險釣魚攻擊 最大的安全問題源自所謂的Cross-Site Request Forgery(CSRF)跨站請求偽造攻擊。攻擊者藉由社交工程誘導用戶點擊精心設計的惡意連結,成功在ChatGPT Atlas的記憶體中注入隱藏指令。這些惡意指令會持續存在,即使用戶關閉瀏覽器、切換設備或登出帳號也不會消失,繼續在下一次使用時被觸發。這種「污染記憶」的方式,使得攻擊能在無形中操控用戶的瀏覽和AI互動行為,甚至進一步執行遠端程式碼,竊取個資、植入惡意程式,或開啟後門存取使用者裝置。 在對比傳統瀏覽器的防禦能力中,ChatGPT Atlas的防護表現令人憂慮。根據LayerX的測試資料,Atlas對於惡意網站的阻擋率僅約5.8%,而同時間Microsoft Edge和Google Chrome的阻擋率分別達到53%與47%,顯示Atlas在面對釣魚網站時存在約90%更高的被攻擊風險。 Omnibox成為攻擊新載體:URL偽裝指令注入 除了CSRF記憶體植入外,ChatGPT Atlas的Omnibox(瀏覽器結合地址欄與搜尋欄的設計)也被發現易被惡意利用。攻擊者可透過偽裝成URL的複雜指令串,欺騙瀏覽器將其視為使用者的「授權命令」,繞過多數安全檢查,執行高信任度的有害操作。此類「prompt injection」(提示注入)攻擊具有難以察覺的特性,且無需用戶明確授權即可被激活,為使用者隱私與資料安全帶來新層面威脅。 此一安全缺口不僅讓攻擊者有可能直接操控使用者帳戶行為,還可能駭入瀏覽器儲存的電子郵件、密碼甚至其他敏感資料。更令人憂心的是,OpenAI目前尚未完整公開所有技術細節,也使得安全研究人員難以全面評估或提出完整防護措施。 產品便利與安全風險的權衡挑戰 OpenAI強調,ChatGPT Atlas具備選擇性功能啟用,例如「瀏覽記憶」(Browser Memories)和「Agent Mode」,前者能記錄用戶瀏覽習慣以個人化回應,後者則讓AI能自動代替用戶操作網頁,包括填寫表單或開啟頁面。此設計雖帶來前所未有的使用體驗,但也呼應了資安界對於“授權指令分辨困難”的擔憂——AI難以區分真正的使用者意圖與惡意注入指令,缺乏嚴格的輸入驗證成為安全漏洞的溫床。 此外,Atlas採用的 Chromium 引擎雖為穩定成熟的開源架構,但安全性卻高度依賴用戶自身的設定與行為。過往研究表明,多數用戶使用瀏覽器時,往往不會主動調整預設安全設定,使產品的安全風險在實際環境下降至不可忽視程度。對於重視隱私和資料安全的香港及台灣用戶而言,這尤其值得留意。...
以太坊(Ethereum)共同創辦人Vitalik Buterin近期對人工智慧(AI)在治理領域的應用表達了明確的警示,認為僅靠AI執行治理是一個危險且不成熟的構想,且這種「天真」的AI治理方式極易被惡意操縱與利用。Buterin的見解引發了加密社群及科技界針對AI在去中心化治理中作用的激烈討論,尤其在香港與台灣的科技創新圈中,這一話題備受關注。 Buterin提出,AI系統若負責財政資金分配等關鍵決策,可能會被惡意攻擊者透過「jailbreak」(即破解AI系統的限制指令)手法操控。這種操控方式可導致資金被引導至詐騙或有害用途,而非公平與有效地分配資源。他舉例最近出現的一項ChatGPT整合漏洞展示了這種風險,即攻擊者可利用隱藏指令竊取使用者敏感資料的實驗案例,此漏洞由Eito Miyamura主導的EdisonWatch團隊發現,提醒大家AI系統安全性仍相當脆弱。 在這樣的背景下,Buterin強調AI雖然在提升效率上具有潛力,但直接由AI完全掌控治理決策,尤其是涉及資金與資源分配的部分,缺乏人類的細膩判斷與道德考量,將導致治理核心的去中心化精神被侵蝕,造成集中化與控制風險。Ethereum社群中也因此產生分歧,有部分成員傾向推動更多AI驅動的自動化決策機制,期望藉此加速科技進步與擴展功能,但Buterin一再強調這種路徑充滿陷阱與治理盲點。 針對上述挑戰,Buterin提出一種被稱為「info finance」的替代方案。此方案主張建立一個開放式的市場平台,所有參與者都可以提交自己的AI模型,這些模型會由獨立審查者與人類陪審團輪流檢視與評估,形成一種多元模型的動態競爭與監督機制,而非將治理權限集中在單一AI模型之上。這種設計不僅能實時提供模型多樣性,還激勵模型提交者及外部觀察員積極監控並迅速修正問題,整體較現行硬編碼單一大型語言模型(LLM)的方案更具有彈性與韌性。 據悉,Buterin早在2024年11月即提出過以預測市場收斂真實世界事件信息的理念,將其視為促進未來治理與決策的關鍵工具。透過這種設計,能有效融合多方知識並自我修正錯誤,顯著降低因AI失誤而帶來的治理風險。此外,他強調人類監管與陪審團角色不可或缺,確保AI技術在加密貨幣與區塊鏈架構中,始終保持透明與可信度。 隨著AI技術在金融科技領域迅速擴散,越來越多用戶開始使用複雜的交易機器人或智能代理來管理投資組合,相關的自治決策需求與日俱增,這使得Ethereum等平台面臨如何在創新與去中心化守護之間取得平衡的壓力。Vitalik Buterin的觀點提醒各方,不能忽視AI治理帶來的安全漏洞與倫理風險,必須謹慎制定包含人機協作的制度設計。 總之,Buterin的主張強調了在加密貨幣生態系統中,AI應是輔助而非主宰,必須結合人類智慧與多元參與,才能避免單一技術權力過度集中帶來的危險。面對未來數位治理的新挑戰,「info finance」模式提供了一個創新且具彈性的方法,兼顧效率、多樣性與監督機制,是現階段推動可靠且公平治理的理想選擇。 #AI治理 #VitalikButerin #Ethereum #去中心化 #infofinance
微軟(Microsoft)CEO Satya Nadella 日前公開了他每日運用人工智慧(AI)技術,尤其是基於最新 GPT-5 版本的五大提示(prompts),以提升工作效率和組織能力,這組秘訣如今成為企業領袖在急速變化的數位時代中求生的不二法門。nn首先,Nadella 利用 AI 生成會議摘要和預測下一次會議的討論重點。他會讓系統「根據過去與某人的互動,列出下一次會議可能關注的五個重點」,此舉幫助他快速掌握議題,充份準備以提高溝通效率。nn其次,他透過 AI 追蹤專案進度和即時更新,防範項目脫軌。利用 Microsoft Copilot 與其他協作平台的整合,Nadella 能隨時掌握團隊工作狀況,及時調整計畫,確保各項業務目標如期完成。nn第三個提示是現實檢視最後期限。AI 會幫助他評估每個專案或任務的時間分配和可行性,檢查截止日期是否合理,避免因時間安排不當而釀成延期或資源浪費。nn接下來是時間管理分析。Nadella 使用 AI 幫助他分析日常活動,以確認時間投入是否符合戰略重點。這種數據驅動的時間管理協助他將更多精力放在重要決策與長遠規劃上,而非僅僅應付瑣碎任務。nn最後,他利用 AI 自動化處理繁瑣工作,如撰寫文件、回覆郵件或生成報告,進一步縮短工作流程中的重複性操作,讓工作節奏更為流暢且高效。nn值得注意的是,這些 AI 提示不僅提升個人效率,也反映了Nadella 對「prompt...
OpenAI 宣布將與半導體巨頭 Broadcom 合作,於 2026 年開始設計並量產專屬自家使用的人工智慧(AI)加速晶片,這是 OpenAI 在 AI 硬體領域重要的戰略轉折點。此舉標誌著 OpenAI 將從主要供應商 Nvidia 的生態中逐步脱離,自行掌控核心硬體架構,以應對快速增長的 AI 運算需求與成本壓力。 Broadcom 近期公開一筆超過 100 億美元的晶片訂單,業界普遍推測該筆巨額訂單正是來自 OpenAI。此訂單內容涵蓋專為 AI 推論運算設計的定制加速器晶片,以及必要的網路晶片和參考伺服器機架,意味著雙方合作已從設計驗證階段邁入全面量產的商業階段。Broadcom 也透露,預計將於...
人工智能(AI)日益成為軟體開發中的重要工具,Anthropic的Claude Code近期推出網頁版,讓開發者在瀏覽器中創建和管理AI編程代理。這一舉動旨在將Claude Code從命令列界面(CLI)拓展到更多平台,滿足開發者的需求,並增強其在競爭中的地位。 什麼是Claude Code? Claude Code是一個由Anthropic開發的AI編程助手,提供了一種更具交互性和自主性的開發體驗。它最初主要通過命令列界面使用,但隨著最新的網頁版推出,開發者現在可以在桌面和移動設備上輕鬆訪問和管理Claude Code代理。這一變化不僅使開發者更容易在不同環境中使用AI工具,也顯示了Anthropic在擴大產品適用範圍上的努力。 Claude Code的成功與擴展 Claude Code的成功在於其AI模型的強大性能,尤其是Anthropic的Claude Sonnet系列。這些模型在軟體工程任務中表現出色,獲取了來自開發者和企業的高度評價。近期推出的Claude Sonnet 4.5被認為是 Anthropic在AI編程領域的又一突破,能夠支持開發者構建“生產就緒”的應用程序,而不僅僅是原型。 此外,Anthropic也將Claude Code整合到企業方案中,提供更細緻的管理工具和更強大的整合能力。這一舉措使企業能夠更好地管理AI工具的使用,同時也能將Claude Code與其他Anthropic工具進行無縫整合,例如著名的Claude.ai聊天機器人。 企業級整合與競爭 在企業級別上,Claude Code的整合增加了Anthropic在競爭中的優勢。通過與Claude.ai的整合,企業可以利用Model Context Protocol將AI編程代理與客戶反饋工具進行深度整合,從而更好地理解和滿足用戶需求。這一功能尤其在企業中具有重要意義,因為它能夠幫助企業快速反應市場變化,推動產品的不斷改進和創新。...
近期,OpenAI 的應用程式 Sora 2 引發了爭議,因為用戶利用該軟體生成的深偽影片(deepfakes)包含了 馬丁·路德·金 (Martin Luther King Jr.)的模樣。這些影片被描述為「不尊重且斷裂的」描繪,引起了金博士的女兒 Bernice A. King 的強烈反對。為應對這次事件,OpenAI一度暫停了使用者創建馬丁·路德·金的深偽影片功能,並表示將加強監管,確保公眾人物的肖像使用符合道德標準。 這次事件反映了在數字時代,人工智能技術的應用和對公眾人物肖像的使用存在的複雜性及其倫理問題。OpenAI 公司在聲明中強調,公眾人物及其家屬應該對自己的肖像使用有最終控制權。這一立場表明了對於保護公眾人物肖像權益的重視。 Sora 2 應用程式的熱門度在於它能夠生成名人和網紅的深偽影片,但這也引發了對深偽技術可能造成的影響的關注。特別是在使用躺在床上的名人的肖像來創作幽默或娛樂內容時,社會開始反思這種行為的倫理界限。如今,OpenAI 對於這一事件的應對不僅是為了滿足金氏家族的要求,也代表了對人工智能應用倫理的思考和調整。 此外,這次事件也引發了對於資訊技術快速發展對社會的影響的討論。深偽技術 的進步使得任何人都能輕易生成看似真實的影片或圖像,往往會混淆真偽,造成社會的混亂。因此,如何在維護言論自由的同時,保護相關個人的權益和尊嚴,成為一個需要深入思考的問題。 對於這些創新技術的監管和倫理考量,目前的進展顯示了行業對於這些問題的重視。未來,隨著技術的進一步發展,相關的倫理和法規將需要持續更新和完善,以確保這些技術能被妥善應用於社會。 最後,隨著人工智能技術的不斷進步,對於其應用和監管的思考將會更加重要。如何在保持創新活力的同時,確保個人的權益和社會的秩序,將是未來發展的關鍵課題。...
DeepSeek AI 近期推出了名為 DeepSeek-OCR 的開源人工智慧模型,徹底改變了AI對圖像中純文字的識讀與處理方式。此技術不僅在準確度上突破傳統OCR(光學字符識別)限制,更在速度與壓縮效率上創造了新里程碑,為文字擷取領域帶來革命性變革。 DeepSeek-OCR 採用創新的「光學二維映射(Optical 2D Mapping)」方法,將長篇文字資訊以超高密度壓縮成視覺令牌(visual tokens),並透過複雜的編碼器(DeepEncoder)與大型語言模型(Large Language Model, LLM)合力完成識別任務,成功實現了7到20倍的光學壓縮。這使它能在保持高質量文本輸出的同時,大幅降低運算負擔。整體模型由約30億參數組成,其中分為約3.8億參數的深度編碼器與約5.7億參數的稀疏激活語言生成模組(Mixture of Experts, MOE),即使在硬體資源有限的情況下也能保持高效率運作。 在輸出格式方面,DeepSeek-OCR 同樣具備高度結構化的能力,其可直接生成符合Markdown標準的文件,包括標題分級、清晰的表格結構,不再像過去的OCR系統常出現格式混亂的問題。此功能顯著簡化了後處理流程,使用者能夠將標記化文本直接導入知識庫或文件系統,提升了文檔管理的便捷性與效率。 此外,DeepSeek-OCR 在手寫字與低解析度影像的支持度上也展示強大韌性。傳統OCR對於筆跡較為模糊或影像品質欠佳的文件往往識別困難,但憑藉先行的影像去噪與升頻(denoise & upscale)處理,以及較高令牌數模式的調用,DeepSeek-OCR 在掃描筆記、醫生手寫紀錄甚至數學公式的辨識,都能維持不俗的表現。 在實際應用層面,針對開發者或團隊使用有不同建議。獨立開發者可在本地端以預設模式快速起步,透過調整令牌數適配不同文件類型,利用現代GPU或CPU耐心執行即可。企業團隊則可將模型封裝成API服務(如Flask或FastAPI),並結合簡易的審核界面對複雜表格等邊緣案例進行把關,透過日誌記錄實現品質管控。...
近年來,AI 加密貨幣交易比賽逐漸成為熱門話題,許多 AI 模型在這些比賽中展現了其強大的投資分析能力。其中,DeepSeek 在不少比賽中傑出,令人印象深刻。這類比賽不僅考驗 AI 的交易策略,也為投資者提供了一個評估 AI 模型效能的平台。 AI 加密貨幣交易比賽 加密貨幣交易比賽涉及多種 AI 模型在真實或模擬市場中進行交易。每個模型都需要具備分析市場數據、設計交易策略、執行買賣交易以及根據投資回報率(Return)、夏普比率(Sharpe Ratio)以及最大回撤(Maximum Drawdown)等指標進行評估的能力。這些比賽讓 AI 在面對 24 小時運作且波動劇烈的加密貨幣市場時,展示其應對能力。 DeepSeek 的技術優勢 DeepSeek 作為一種新型的...