美國人工智慧(AI)新創公司Anthropic於2025年9月4日宣布,更新其服務條款,嚴格限制中國控股企業及相關組織使用旗下Claude系列AI模型服務。此政策明確規定,凡是直接或間接由中國實體持股超過50%之企業,無論其註冊地或營運地點為何,都不可再使用Anthropic提供的AI產品與API,包含透過海外子公司或第三方雲端服務間接獲取之情況。此舉不僅針對中國大陸企業,亦涵蓋設立於境外如新加坡等地的子公司及具有中國背景投資的團體,目的是防範這些實體繞過出口管制,獲取前沿AI技術的可能性。 Anthropic的這項決定同時對其他被美國政府視為威權敵對國家,如俄羅斯、北韓及伊朗,實施類似限制。公司強調,此舉是基於法律合規、監管要求以及國家安全等因素的考量,尤其擔憂這些地區的企業可能面臨涉及情報洩露或協助國安機構的風險。Anthropic官方指出,AI發展的安全與保障需全球合力防範威權勢力的不當使用,強化管控既能促進民主利益,也能減少潛在風險。 Anthropic旗下的Claude是一款備受矚目的對話型大型語言模型,具備出色的編程輔助與文本生成能力。該產品除了由Anthropic直接銷售,也已整合至Google、Amazon和Microsoft等主要雲端平台,對開發者及企業用戶極具吸引力。此次政策變動將使得多數中國控股企業喪失對Claude服務的使用權,無法繼續享用其API或透過雲端平台部署相關模型,對中國AI產業生態帶來直接影響。 由於美國多家頂尖AI公司,包含OpenAI亦在近期開始限制中國資本背景企業的使用權,Anthropic此次加碼封鎖,顯示美國科技大廠在AI技術出口與服務方面日益嚴格的管控趨勢。中國方面則擁有豐富的AI人才資源,據統計,2019年起中國作者在國際頂級AI會議上論文佔比已由29%提升至2022年的47%,顯示中國在AI學術與研究領域持續快速進展。 面對Anthropic等國際巨頭封鎖,中國AI業界與開發者須積極尋找替代方案。一方面,可關注仍在迅速崛起且日益成熟的國產大型語言模型,如DeepSeek、Kimi及Qwen系列,這些AI模型在中文自然語言理解與生成方面已有顯著突破,有能力在本土市場承擔更多應用需求。另一方面,也可嘗試部署國際開源大型模型,例如Meta釋出的LLaMA系列和法國新興的Mistral模型,前提需嚴格遵守相關開源協議及資料合規規範。 此外,從技術發展角度看,Anthropic近日為應控管成本,引入週使用上限並調整模型運算策略,例如自動切換至較低成本的模型版本,此舉在部分技術社群引發討論,顯示即使是高端AI產品也面臨營運成本與性能平衡的挑戰。這為國內AI產業提出契機,若能在推理框架優化、本土算力芯片適配,以及token計算成本降低方面實現突破,有望在成本效益上實現反超,促使「Claude Code」等核心AI技術國產化替代的路徑更趨明朗。 整體而言,Anthropic此番對中國控股企業的限制措施,標誌著美中在AI技術領域的競爭越發激烈,同時也是全球AI安全與倫理管控政策走向明確化的縮影。這不僅影響企業戰略布局,也牽動整個AI產業鏈與技術生態的未來發展趨勢,尤其對香港及台灣市場的AI參與者,更需密切關注國際政策風向,靈活調整技術選擇與合作方向,以恰當因應變局。 #人工智慧 #Claude #Anthropic #AI安全 #科技限制
Google於2025年正式公佈了其旗艦人工智慧應用工具Gemini系列的使用限制與訂閱方案,明確劃分免費與付費用戶可享用的資源,為用戶帶來更透明且有規劃的AI體驗。免費版Gemini 2.5 Pro每天限制使用五次提示,這個提示數量意指用戶能向AI發出的對話或指令次數,而上下文長度限制為32,000個詞元(tokens),這代表AI可一次處理的文本長度。免費用戶每月最多可製作5份支援Gemini 2.5 Flash的深度研究報告,每天生成和編輯圖片上限為100張,並且可享有20則語音摘要的使用額度。此版設計目標是提供基礎體驗,適合測試與簡單應用場景。 若想突破免費限制,有兩大主要訂閱方案:「Google AI Pro」和「Google AI Ultra」,分別月費約新台幣650元與8,150元。升級至Google AI Pro方案後,用戶可將每日Gemini 2.5 Pro的提示次數提升至100次,圖片生成量擴大至每日1,000張,並享有更多深度研究報告產製量。進一步升級至頂級的AI Ultra方案,則可每日發出多達500次提示,並可使用Gemini最新的深度推論模型(Deep Think)及高階影片生成模型(Veo 3),同時享有更大量的AI點數及更大的雲端儲存空間,這更適合需求嚴苛的專業用戶與企業級應用。 在用量限制方面,Google的設計考量包括提示文字的長度與複雜度、上傳檔案大小與數量、對話歷史的保持長度等,都會影響用戶當下的使用配額。這也是為了平衡伺服器負載與服務品質,確保所有用戶皆能享有穩定流暢的AI體驗。值得一提的是,免費用戶若連續多次使用提示,系統會自動降級為較舊的Gemini 2.0 Flash模型,以避免過度資源消耗,這點對實時應用或高頻使用者而言是一大限制。 此外,Gemini API的使用也受到嚴格規範。用戶必須年滿18歲,且API服務僅可在授權區域內使用,不得用於開發競爭性AI模型,亦禁止試圖逆向工程或繞過服務的安全限制。這些條款確保了服務的合法合規與質量控制,也防止資料洩漏和濫用情況發生。企業用戶可依需求選擇混合方案,例如用國内AI服務處理敏感數據,而Gemini負責一般技術任務,以兼顧效率與合規性。 Gemini不僅限於對話生成,還可整合到Google旗下多個應用服務中,包括Gmail、Google文件、Google簡報以及Meet視訊會議,都能透過AI增強效率與使用體驗。更有專門為軟體開發者設計的Jules代理人,以及AI電影製作與圖片轉影片工具Flow和Whisk,進一步豐富使用場景與創作可能。透過這些多樣整合,Gemini正逐步成為多領域智能助手的核心平台。 總的來說,Google...
Google最新推出的圖像編輯模型Nano Banana(正式名稱為Gemini 2.5 Flash Image)掀起了人工智慧生成圖像技術的新革命。這款工具最大的突破在於其對「人物和物件一致性」的卓越把握,即便在多輪編輯過程中更換角色的背景、服裝或髮型,AI仍能精準保留原始臉部特徵與風格,有效避免過去AI繪圖常見的換臉錯亂與畫面失真問題,讓使用者能輕鬆保持形象的一致性與辨識度。此功能不僅對內容創作者和社群媒體經營者意義重大,更為品牌建立虛擬角色(IP)提供了堅實的技術支撐。 Nano Banana支援多張圖片融合與局部特徵調整,用戶只需以自然語言輸入描述即可完成圖像變換與合成,不需具備任何程式或設計專業背景。這大幅降低了新手操作門檻,使得即使沒有設計基礎的使用者,也能在數秒內完成專業水準的圖片編輯。此外,該模型支援多輪對話式編輯,使用者能即時提出細節調整指令,例如「讓角色戴上眼鏡」、「換成冬季服裝」等,模型會立即反映指令並更新圖像,使得整體體驗宛如專屬設計師為使用者量身打造,極大提升互動便利性和個性化服務水準。 在視覺風格統一方面,Nano Banana尤為優異。無論是同一角色的多版本呈現,還是多角色同場景的組合圖像,均能維持高度一致的藝術風格與角色特徵,使畫面風格完整和諧,利於建立專屬品牌調性,特別適用於社群媒體內容營運、IP品牌塑造及商業公仔設計。可見,這款AI工具不只是一個圖像生成器,更是一個具備深度修圖能力的全方位影像編輯助手。其可執行局部細節修圖任務,例如背景替換、姿勢調整、光影優化及色彩微調,甚至能進行老照片修復,這種多功能性遠遠超越傳統單次生成的AI繪圖工具。 Nano Banana在社群媒體上的風潮更是快速蔓延。許多用戶嘗試將自己的照片指令化生成高質感3D公仔,並分享於Reddit、Instagram等平台。透過簡單指令,如「用Nano Banana模型將圖片中角色製作成1/7比例的商業化模型公仔,並呈現於寫實風格的環境中」,系統能於不到1分鐘內生成形象逼真、細節紮實的3D立體公仔圖像。這類應用不僅增強了用戶的創作樂趣,也使得數位創作與實體商品設計之間的界線更趨模糊,而商業化潛力被廣泛看好。 在速度效能上,Nano Banana同樣領先。根據媒體報導,該系統通常可在30秒內完成圖片生成,而其他高階AI模型如OpenAI的GPT-5有時甚至需要3倍以上的時間完成同樣請求,顯示出其卓越的演算法優化與運算效率。這為日益追求即時反饋和高效率工作的專業用戶帶來巨大助益。 此外,Nano Banana的應用途徑主要經由Google聊天機器人Gemini整合提供使用,這也為大眾輕鬆體驗AI圖像生成技術提供了便捷管道。在無須複雜註冊與繁瑣操作的情況下,用戶便能快速上手,且隨著科技持續迭代,可望逐步開放更多進階功能與訂閱方案,滿足不同程度用戶的需求。 總結來說,Nano Banana作為Google旗下最先進的圖像編輯模型,已經實現了人工智慧圖像生成的質與量雙重跳躍。它不僅突破了傳統AI圖像在細節呈現上的限制,更提供了像是3D公仔生成、局部精修及多輪對話編輯的複合功能,成為內容創作者、品牌經營者及設計師的新利器。隨著這類工具的大量普及,未來的數位內容製作將更加多元、高效且個性化,對香港和台灣市場尤其具有重要吸引力,必將推動社群行銷及IP經營進入新階段。 #NanoBanana #AI圖像編輯 #Gemini2_5FlashImage #3D公仔生成 #數位內容創作
2025年,AI產業正面臨一場前所未有的投資熱潮,然而OpenAI執行長Sam Altman卻於近期公開承認,整個AI界正處於一個巨大且可能即將破裂的泡沫之中。Altman的言論讓整個科技界為之震驚,他坦言:「當泡沫發生時,聰明的人會因為一絲真理而過度興奮。」這意味著,儘管AI技術本身具備革命性意義,市場對這項技術的投資熱情已達到非理性程度,存在高估甚至扭曲資金流向的風險。 Altman以1990年代的dot-com泡沫作為警示典範。那時,投資人瘋狂追逐互聯網相關企業,導致股價嚴重脫離企業實質價值,最終泡沫破裂引發市場劇烈調整。他指出:「科技確實重要,互聯網確實是一件大事,但人們還是過度興奮了。」同理,當前AI領域亦存在類似情況,大量創業公司和資本湧入,熱鬧非凡,但監管問題、盈利模式不明等因素仍是短期內難以克服的挑戰。 OpenAI本身處於風口浪尖,估值高達5000億美元,背後有Microsoft、Softbank和Nvidia等巨頭投資,且憑藉ChatGPT成為AI聊天機器人的領軍企業,承受巨大商業壓力。Altman雖然承認「有些人會損失鉅額資金,但具體會是誰,沒人能確定」,但他強調OpenAI有信心脫穎而出。他表示,長遠來看,AI的發展將會是經濟上的巨大淨利,並且對技術革新以及市場結構帶來深遠正面影響。 不過,Altman同時透露,OpenAI計劃投入數兆美元建設下一代基礎設施,如高端數據中心與AI晶片建造。這顯示市場對運算資源需求已超出現有供應,促使公司放手一搏,抓住AI熱潮的最大機遇。這種大手筆也反映出整個行業對未來成長的殷切期盼和信心,儘管伴隨著種種未知風險。 對於一般投資者及業內人士而言,認清AI市場的泡沫本質至關重要。這意味著不應只追求短期吸引眼球的創投項目,而要深入評估技術實力與實際應用價值。真正勝出的企業將是那些能解決真實問題並且具備持續盈利能力的核心企業,而非僅靠炒作話題獲利的邊緣玩家。正如Altman所說,「泡沫絕不代表技術消亡,而是部分參與者在泡沫破裂後將被市場篩選淘汰」,這是技術進化的自然過程。 現今AI技術已經在程式編碼、內容創作、教育及行銷等多重領域引起根本性的變革,代表了未來科技發展不可逆的趨勢。即便泡沫破裂,基礎架構成熟與技術應用深耕的領先公司仍會持續主導市場。投資與使用者應當以「超越熱潮,看清價值」為準則,選擇真正具備長遠影響力的AI解決方案。 最後,OpenAI CEO的坦率表態不僅是一個警示,更表明高科技行業在快速擴張時期的必經階段。投資者、企業家及政策制定者需要認識到這種「泡沫」現象,以避免盲目跟風所帶來的風險,並且利用這次熱潮推動AI技術進一步成熟和應用,造福經濟與社會整體。 #AI泡沫 #OpenAI #SamAltman #科技投資 #人工智慧
OpenAI 近期宣布,旗下的 ChatGPT Projects 功能已正式開放予免費用戶使用,此舉標誌著這項曾經僅限於付費訂閱者享受的生產力工具,逐步走向更廣大的用戶群,尤其是香港及台灣地區的普羅大眾。ChatGPT Projects 是一種智能工作空間,能將相關的聊天紀錄與檔案彙整於同一專案中,提升用戶處理複雜任務時的效率與組織能力。原本看似只是分類資料夾的 Projects,如今經過升級,讓 AI 可以記憶專案範圍內的過往對話與文件內容,確保後續互動更加連貫且針對性強。 具體來說,這次更新讓免費用戶可上傳最多五個檔案於每個專案內,底下升級額度分別是 Plus 付費用戶可上傳 25 個,Pro 用戶則達 40 個,這種差異化設計可激勵用戶升級享有更多功能。更便利的是,使用者不只能透過文字交流,也能利用「Voice Mode」語音模式,讓 AI 在討論專案內容時支援口語輸入,解放雙手,特別便利於出門在外時進行構思和審核。AI 在語音模式下仍能完整理解專案上下文,舉例來說,不論用戶在走路、通勤或是開會時,皆能隨時提問及回顧先前的討論內容,無需重複輸入資訊,提升行動工作效率。 OpenAI 也強化了...
Perplexity推出的AI瀏覽器Comet,在結合人工智能協助瀏覽與任務執行的創新功能同時,也暴露出嚴重的安全漏洞,其核心問題是「間接提示語注入(Indirect Prompt Injection)」。當用戶要求Comet「摘要此網頁」時,瀏覽器會將網頁中的內容直接提交給內建的AI模型處理,然而,Comet無法區分真正的用戶指令與網頁中被故意夾帶的惡意指令,導致攻擊者可以在網頁隱藏特製的指令碼,讓AI誤以為是合法指令進行執行,從而控制用戶的帳號甚至竊取敏感資料。 這種攻擊方式的關鍵,就是Comet在解析和摘要網頁內容時,將整個頁面資料直接餵給底層大型語言模型(LLM),而非進行充分的內容篩選或隔離,導致惡意攻擊者可透過隱匿的文字格式,如白字白底、HTML註解,甚至社交媒體貼文中夾帶惡意提示語,觸發AI完成所設計的非法任務。這種現象被視為AI瀏覽器的一大安全挑戰,因為通常AI聊天機器人並無自主思考能力,對指令的判斷非常依賴輸入內容「字面上的意義」,容易受騙而執行攻擊者操控的指令。 Brave瀏覽器的開發團隊率先揭露此一脆弱點,指出攻擊成功可能造成用戶電子郵件、銀行帳密、企業系統存取權等機密資訊被竊取,具有相當高的危害潛力。Brave團隊於2025年8月20日發布報告,示範如何利用一則Reddit貼文的隱藏指令接管用戶的Perplexity帳戶,凸顯事件嚴重性。Perplexity的官方代表Jesse Dwyer回應已與Brave合作修補漏洞,但後續測試發現漏洞仍可能存在,顯示初步修補尚不完美,需要持續關注與改進。 此次事件凸顯了AI瀏覽器在技術實現上的幾個重要風險點:首先,AI助手需要讀取和執行來自用戶授權帳號、跨域資源的內容,是一把雙面刃,雖然大大提升使用體驗的便捷性,但同時讓內部代理AI在無法辨識內容真偽時容易遭受「提示語注入攻擊」。其次,傳統瀏覽器的安全架構基於程式碼執行與網頁信任的分離,但AI瀏覽器必須重新建立適合agentic AI的新安全與隱私防護架構,因為語言模型本身不能像傳統軟體一樣進行嚴格的權限隔離。 這場安全問題亦意味著大眾在享受AI技術帶來的翻轉性方便同時,必須警惕可能出現的全新攻擊向量。由於AI瀏覽器需要直接接觸至大量用戶個人數據及第三方服務,攻擊者若透過提示語注入成功,下場不僅是個資外洩,更可能直接操控用戶在企業內部系統或金融系統中的權限,損失難以估量。和以往黑客主要依賴技術破解不同,現在更可能採用自然語言的「提示語工程」,使AI自動化系統對錯誤指令做出行動,這也令產業界警覺AI安全防護策略需要大幅革新。 除了漏洞本身,安全專家也警告此事件顯示出AI產業整體尚未成熟的安全應變能力。目前許多AI模型來自OpenAI、Google、Meta等大廠,這些基礎模型的安全隱患會波及多個應用服務,包括Perplexity Comet。且由於AI安全漏洞的特殊性,業界相關資訊不易公開透明,部分出於避免引入更大風險,但這種不對稱資訊也讓使用者難以掌握真實風險,增加防範難度。 對於香港及台灣地區用戶而言,這一事件提醒在使用新型AI工具時需保持謹慎,特別是在連結帳戶、處理金融或個人敏感資訊時,更應關注所使用的AI產品是否已有完善的安全措施與持續更新。未來AI瀏覽器的發展勢必會提高使用效率與自動化操作層次,但伴隨的資訊安全威脅亦不可忽視,包括透過網站植入惡意內容誘導AI執行危險指令的可能性。 綜上所述,Perplexity Comet的「間接提示語注入」漏洞揭示了代理式AI瀏覽器在安全設計方面面臨的尖銳挑戰與教訓,也推動業界必須重新構築適用於AI代理的新型安全防護框架。用戶在享受人工智能帶來的便利時,亦須意識到數據安全的新威脅,並密切關注產品廠商在漏洞修復和安全強化上的實際成效與速度。 #AI瀏覽器 #人工智能安全 #PerplexityComet #提示語注入 #資安風險
2025年4月,Google於Cloud Next 2025大會上正式發表了全新的Agent2Agent(A2A)協議,這是一項突破性的開放式互操作性標準,旨在解決當前企業在導入AI代理時面臨的「互聯互通」難題。A2A協議能讓不同框架、不同供應商的AI代理無縫溝通與協作,打破AI系統間的資訊孤島,極大提升企業自動化工作流程的效率及整體生產力。 這項標準剛推出即獲得超過50家業界領先企業的支持,其中包括Atlassian、Box、Salesforce、SAP、ServiceNow、MongoDB等知名企業。他們共同認為,目前最難突破的障礙之一就是讓來自不同技術平台的AI代理能夠「說同一種語言」,進而協同完成複雜任務。A2A協議正是為此而設計,它為AI代理建立了一個通用且安全的通信框架,使代理之間能夠交換訊息、協調行動,並輕鬆整合企業內部多元的業務系統。 A2A的設計核心特點為開放性與靈活性。它不依賴任何特定API或實現,能支持抽象化的請求與複雜的代理交互,從而滿足多種業務場景下的需求。此外,它強調安全性與治理,內建身份認證和授權機制,使企業能夠嚴格管控代理間的信息交流權限。代理的「Agent Card」會明確列出所需的安全資格認證,整合統一的政策管理工具可用於審計與風險監控,保障機密資料和算法的安全性,這對於高度重視資訊保護的企業環境至關重要。 從長遠來看,隨著越來越多企業採用A2A協議,將能實現跨平台的代理管理,企業可從統一視角監控和優化整個AI代理陣營的運作,推動業務的全面數位轉型。這種標準化、可監控的特質正是促使A2A廣泛落地企業的關鍵原因。 除了Agent2Agent協議的發布,Google同時推介了Google Agentspace這一功能強大的企業AI生態系統,這個平台匯聚了Google自主開發及第三方代理,整合企業內部資訊搜尋、對話式AI交互與工作自動化。 Agentspace最新功能包含: 與Chrome Enterprise深度整合,讓使用者能直接在瀏覽器搜尋框中存取所有企業資源,簡化操作流程。 Agent Gallery代理庫,員工可一覽所有可用的代理,包括Google官方、內部定制和合作夥伴所開發的,方便探索與應用。 Agent Designer無程式碼代理設計器,即便無編程經驗的員工,也能根據個人需求輕鬆建構或調整代理,以提升日常工作的自動化效率。 Idea Generation代理,採用競賽式機制,根據企業設定標準篩選與優化創意點子,協助團隊腦力激盪與問題解決。 Deep Research代理,可針對複雜主題展開深度調查,並以結構化且易讀的報告形式呈現,節省知識工作者時間。 Google更計畫於2025年第三季公開預覽版推出Agentspace搜尋功能,承諾以安全且權限感知的方式,讓企業知識工作者能統一且方便地存取各類資料。 此外,Google持續將研究成果實際應用於代理系統中,如其先前公開的原型Project Mariner,具備電腦操作及網路互動能力,能根據一次示範學習並規劃未來相似任務。這表明,Google不僅建立開放式協議,更積極推動具備強大自動化能力的代理生態系統,配合Gemini API釋出相關技術給開發者社群,並與Automation...
隨著人工智慧技術的蓬勃發展,OpenAI的ChatGPT在全球廣泛使用,其強大的語言理解能力為用戶帶來極大便利,然而關於隱私與資料安全的顧慮也日益突出。2025年,隨著法規日益嚴格及AI技術普及,了解在使用ChatGPT時不可透露的重要資訊,成為保障個人及企業數據安全的關鍵。 首先,絕對不可透露的個人識別資訊(PII)包括全名、出生日期、身份證號碼、地址、電話及電郵等,這類資料能明確識別個人身份。儘管OpenAI公開表示不會故意保留此類資訊,但系統的資料庫中仍存在被駭客入侵或程式漏洞導致資料外洩的風險。一旦個人敏感資料外洩,可能導致嚴重的身份盜用、金融詐騙及釣魚攻擊,對當事人造成巨大損失。用戶務必避免在ChatGPT中輸入任何可能暴露身份的細節,以降低潛在危害。 其次,密碼及登入憑證亦屬高度敏感資訊,絕不可分享。過去曾爆出超過22.5萬組OpenAI帳號憑證遭惡意軟體竊取,這些憑證被公開在暗網,若遭入侵者利用,不僅可存取完整聊天紀錄,更可能操縱帳號進行進一步攻擊。此外,ChatGPT在資料傳輸過程中存在被截取的風險,員工在商業環境中為尋求工作便利,常直接複製公司文件或機密內容輸入AI,無意間將企業核心機密暴露於風險中。企業應積極推行適當的AI使用政策,並採用企業版ChatGPT來加強數據加密與管理。 健康紀錄、醫療資訊也是敏感範疇,不適合使用於ChatGPT。因為這類資料受到嚴格隱私法規保護,如GDPR(歐盟通用數據保護條例)及HIPAA(美國健康保險攜帶與責任法案),不符合合法分享的標準。ChatGPT目前在遵循GDPR等隱私規範上仍有不足,特別是資料保存時間無明確限制,使用者即便刪除聊天紀錄,資料仍可能被OpenAI保留數十天甚至無限期,形成明顯的安全隱憂。 第四,智慧財產權和商業機密不應在ChatGPT中公開。企業內部的產品規劃、合約條款、專利資料乃至策略文件,一旦被輸入公共或非授權的AI平台,可能遭非法使用或外洩,造成商業損失。即使OpenAI提供暫時性聊天模式及資料不納入模型訓練的選項,這些防護措施並非百分百可靠,故嚴控機密資訊的輸入仍不可避免。 最後,心理諮詢或個人情感類對話亦需慎重。OpenAI的CEO Sam Altman曾表示,使用AI進行的對話目前不具備法律上的保密保障,與心理治療師的專業保密義務截然不同。若用戶在ChatGPT透漏高度私人或心理健康資訊,該數據可能在法律案件中被調閱,缺乏足夠的隱私保護,這對用戶的心理安全構成挑戰。 面對以上潛在風險,建議用戶和企業採取多項措施以減少資料外洩危機: 利用OpenAI設定中的「資料控制」功能,關閉「Improve Model for Everyone」,避免個人資料被用於模型訓練。 使用ChatGPT的「Temporary Chat」模式,確保聊天內容不被永久保存。 企業導入專為商務設計的ChatGPT Team與Enterprise版本,強化資料加密與自訂保存政策。 定期清除聊天紀錄,避免敏感數據累積。 員工教育與規範管理,禁止在聊天過程中輸入任何個人或商業敏感資料。 隨著AI監管政策逐步健全,OpenAI依然面臨政府與用戶強烈要求提升數據合規性的壓力。未來,保障用戶隱私與維護企業安全將成為AI生態不可或缺的基石。唯有用戶提高警覺、合理使用,才能在便利與風險間取得平衡,在AI日益深入生活的年代保護自己與組織的數據安全。 #AI隱私 #數據安全 #ChatGPT風險 #隱私保護...
Perplexity AI近年來採取了一項創新策略,致力於建立與內容發行商之間的合作夥伴關係,透過一項名為Comet Plus的訂閱服務分享廣告收益。該公司設定了4,250萬美元的資金池,專門用來補償媒體機構及記者,當其內容被Perplexity的AI助手或瀏覽器在回答用戶問題時引用或使用時,發行商便能獲得收益。這個計劃標誌著Perplexity成為首批願意基於內容使用情況來支付版權費的人工智慧公司之一,展現出推動新聞生態系統可持續發展的決心。 Comet Plus訂閱服務每月收費5美元,旨在為用戶提供由一群信譽良好的媒體及記者所產出的優質付費內容。該服務不但讓用戶享有更全面且深入的新聞資訊,也讓出版商能因AI助手在網頁上的瀏覽行為獲得公平報酬。針對出版商而言,收益由三個部分組成:一是用戶透過Perplexity的Comet瀏覽器直接訪問發行商網站的流量;二是AI系統在回答查詢時引用發行商內容的情況;三是AI助手完成特定任務時所使用的內容。Perplexity承諾將其中80%的收入分配給發行商,其餘20%用於技術運算成本。 這項創新計劃是Perplexity回應媒體業界對人工智慧企業免費使用新聞內容意見及相關訴訟的積極舉措。近年來,包括《華爾街日報》、《紐約時報》及日本《讀賣新聞》等主要媒體對Perplexity提起訴訟,指控其非法複製並營利於受版權保護的原創內容。與傳統搜尋引擎需要用戶點擊連結以獲取資料不同,Perplexity直接在回答頁面顯示資訊,雖然附有來源鏈結,但被批評繞過了合理付費機制。Comet Plus的推出,不僅有助於解決這些爭議,更有助於重建Perplexity與媒體發行商之間的信任。 Perplexity負責發行商合作的主管Jessica Chan表示,此計劃是以發行商的需求為基礎設計,期望通過訂閱收入池分享,使參與的媒體機構及其工作者能夠從AI推動的新商業模式中獲得實質利益。她亦透露,參與該計劃的發行商有機會透過此模式獲取數百萬美元的收益。目前包括TIME、Fortune、Der Spiegel、Gannett、The Independent、Blavity等多家知名媒體皆已參與Perplexity既有的廣告收益分成計劃,未來隨著Comet Plus擴展,合作媒體數量及分成規模預計將持續增長。 此外,Perplexity的整合AI助手Comet Agent能根據用戶需求主動分析日曆行程並推薦相關新聞,提高了使用體驗的同時,也創造了AI代理流量的新價值,進一步拓展對發行商內容的使用範圍。這種模式不僅兼顧了用戶需求,也確保了內容創作者的權益,反映出AI應用於新聞產業的未來趨勢。 整體而言,Perplexity以創新的收益分享機制回應了AI與新聞產業間的挑戰,透過Comet Plus訂閱服務實現用戶、媒體及AI企業間的三贏局面。這不僅為新聞機構帶來新的經營模式,也在全球AI發展浪潮下,為香港及台灣市場的內容生態注入了創新動力和正向改變。 #RevenueSharing #AIContentCompensation #PerplexityAI #CometPlus #MediaInnovation
2025年8月25日,億萬富豪Elon Musk透過旗下公司X及xAI,向美國德州聯邦法院提起訴訟,指控美國科技巨頭Apple與OpenAI合作進行反競爭行為,阻礙其他人工智慧(AI)企業公平競爭。此案引發全球科技業界極大關注,也揭示出在AI發展領域中日益緊繃的市場競爭和平台壟斷問題。 根據訴狀,Apple與OpenAI自2024年6月起展開合作,將OpenAI的技術ChatGPT整合進iPhone、iPad與Mac的作業系統之中,這種深度合作使OpenAI在Apple生態系統中獲得了無可比擬的優勢。訴訟指出,這項獨家合作協議使得其他AI聊天應用程式,尤其是Musk自家公司的xAI Grok,難以在Apple App Store獲得可觀能見度及用戶群。換句話說,Apple的操作架構與商業策略排擠了包括xAI在內的競爭對手,大幅限制了市場多元性與創新活力。 Musk的法律文件強調,如果沒有這項獨佔合作,Apple應該會給予包括X app與Grok app更高的推廣優先權,讓消費者有更多AI選擇。此次訴訟亦揭示了Musk與OpenAI執行長Sam Altman之間的長期矛盾,Musk不僅曾是OpenAI的共同創辦人之一,亦批評Altman及其團隊過快地擴展市場,卻不顧公正競爭原則。Musk曾試圖掌控OpenAI或與Tesla合併,但未能如願,因此在2018年正式切割關係。 值得注意的是,Apple與OpenAI的這波合作始於2024年中,推出將ChatGPT功能內建於iOS和macOS系統的進階應用,極大提升了OpenAI在蘋果用戶中的普及度。訴訟中Musk控訴Apple與OpenAI「鎖定市場以維持壟斷」,此舉不僅限縮了市場競爭,也直接影響產業創新面貌及消費者選擇權。Musk更質問蘋果為何在其產品推廣上態度消極,對自家人工智慧產品未給予支持及曝光。 此案除了涉及反壟斷與反競爭法理外,也會牽動AI行業未來發展的格局。隨著AI技術年代腳步日益加快,軟硬體巨頭結盟控制平台渠道帶來的壟斷疑慮受到高度關注。市場觀察者指出,若Apple繼續透過系統層級深度綁定OpenAI,其他AI創新平台和應用程式將更難突破生態系限制,造成產業壁壘加厚。 \n\n此外,本案件亦點出一個重要趨勢:大型科技公司在AI領域的激烈布局,既有合作也有競爭,有時界面模糊難分。Musk的此番訴訟無疑是試圖透過法律手段,對抗現有AI產業中的龍頭壟斷,爭取更公平開放的市場環境。 從宏觀角度來看,此案反映了全球AI產業中市場壟斷與開放競爭間的矛盾,兼具技術發展、商業戰略與法律規範三者的交織。對於台灣及香港等重視科技創新且高度依賴國際供應鏈的地區而言,AI產業的健康發展尤為不可忽視,妥善處理大型平台的壟斷問題,將是促進地區經濟數位轉型與科技升級的關鍵。 \n\n未來此案進展備受業界和法律界矚目,判決結果可能對全球AI產業鏈、平台經濟及消費者權益產生深遠影響。無論結果如何,這場訴訟已經成為AI生態系統演變中的重要里程碑,攸關公平競爭的市場規範與技術自主發展路向。 #ElonMusk #xAI #Apple #OpenAI #人工智慧競爭
2025年,OpenAI的ChatGPT Agent在網絡安全領域引發一場震撼,成功自動通過了最常見且廣泛使用的「I am not a robot」CAPTCHA(完全自動區分電腦與人類的圖靈測試)驗證,徹底改寫了人機驗證的遊戲規則。這項突破性成就不僅體現了AI在模仿人類行為上的進步,更揭示了傳統反機器人防護系統即將面臨的嚴峻挑戰。 這項事件最初由Reddit用戶發布的截圖揭露,ChatGPT Agent在Cloudflare的Turnstile驗證系統中,自動點擊「I am not a robot」复選框,並同步朗讀操作過程:「這個步驟是為了證明我不是機器人。」隨後它繼續執行頁面上的下一步操作,例如點擊「Convert」按鈕,無需任何人類介入就完成了整個驗證流程。這套Turnstile系統原本是為了分析使用者的瀏覽器指紋、滑鼠微動、點擊時序等行為特徵,以判斷背後是人類還是機器人。 令人驚訝的是,ChatGPT Agent在一個真實瀏覽器環境中運行,能夠模擬人類自然的滑鼠移動軌跡與點擊節奏,完全通過這些行為分析門檻,成功繞過了傳統的機器人檢測。這種由大型語言模型(LLM)與瀏覽器協同工作的方式,顯示出AI不再只是簡單的對話機器人,而是具有自主執行複雜網絡任務能力的新型智能助手。其能力已超越回應用戶問題,能獨立導航網站、執行資料輸入、更甚能處理網絡驗證與互動行為。 這起突破標誌著人工智能在網絡自動化領域邁向新的階段。過去,CAPTCHA系統被視為阻擋機器人濫用和詐欺活動的最後一道防線,但隨著AI能輕易模仿人類行為,這種安全機制正逐漸失去效用,甚至可能只剩象徵意義。網絡安全專家警告,這起案例將促使業界迅速反思和升級現有的驗證及防禦策略,不能再依賴單純的行為分析或點擊操作來判斷人機身份。 此外,雖然目前ChatGPT Agent暫時還無法輕易破解更複雜的圖片辨識CAPTCHA,但研究顯示,這只是時間問題。以ETH Zurich的相關實驗為例,它們的模型在Google的reCAPTCHA v2影像拼圖中取得了100%的正確率,暗示未來突破視覺類驗證的技術也指日可待。 隨著ChatGPT Agent等AI工具逐漸具備自主完成各類線上任務的能力,從餐廳預訂、網購結帳到行程安排,都可能變得全自動化,這雖然為用戶帶來便利,但同時也引發了嚴重的安全風險。惡意利用這些AI代理進行詐騙、散布虛假訊息或突破平台限制的潛力,也讓網絡社會不得不面臨重新設計與管控AI應用的巨大壓力。 這種技術演進還引出了重要的政策討論,像英國針對網路成人內容的年齡驗證規定,因應用戶透過VPN或AI生成的假證件輕易繞過限制,反而造成更多隱私與監控風險,引發各界反思如何在保障用戶權益與安全間取得平衡。同時,政治或社會層面對VPN禁令的呼聲,若不謹慎處理,則可能成為言論審查與資訊封鎖的工具。 現階段,ChatGPT Agent這類技術的問世,真正提示我們進入了AI自治代理人與網絡安全的「軍備競賽」時代。未來的驗證系統必須發展更高階的辨識方式,結合多維度行為分析、新型生物識別及用戶交互驗證策略,才能有效阻擋高度智能的機器人假冒人類。此外,網絡平台和企業也須加強人工智慧倫理、審查機制與反作弊技術,避免被濫用於詐騙或安全攻擊。...
Microsoft 在2025年7月正式推出了 Edge 瀏覽器中的全新實驗功能 — Copilot Mode,帶來嶄新的網路瀏覽體驗,此功能結合了先進的人工智能(AI)技術,旨在提升用戶操作瀏覽器的效率與便利性。傳統的瀏覽器使用方式多為開啟分頁、搜尋、閱讀,再重複此過程,雖然已沿用多年,但並未根本改變瀏覽的本質。Copilot Mode 則希望打破這個框架,將瀏覽器從被動的工具轉化為主動協助用戶的智能夥伴。 啟用 Copilot Mode 後,使用者將看到一個以 AI 為核心的全新首頁,使用者可以直接透過搜尋、對話或指令輔助來瀏覽網頁,AI 不僅能理解使用者的研究主題與需求,還能預測接下來的行動,主動提供相關建議,甚至協助自動化某些繁瑣任務。這種互動方式不同於單純須手動點擊的傳統瀏覽器,Copilot Mode 更像是一位協作夥伴,能協助整理資訊、過濾繁雜的資訊流,讓用戶更專注於目標,同時維持高標準的安全與隱私控制。 具體來說,Copilot Mode 包含了以下幾項核心功能: 智能新分頁頁面:將搜尋、聊天與導覽結合,提供更直覺且效率提升的瀏覽入口。 快速輔助(Quick Assist):無論在瀏覽任何網頁,使用者隨時可向...