2025年8月25日,億萬富豪Elon Musk透過旗下公司X及xAI,向美國德州聯邦法院提起訴訟,指控美國科技巨頭Apple與OpenAI合作進行反競爭行為,阻礙其他人工智慧(AI)企業公平競爭。此案引發全球科技業界極大關注,也揭示出在AI發展領域中日益緊繃的市場競爭和平台壟斷問題。 根據訴狀,Apple與OpenAI自2024年6月起展開合作,將OpenAI的技術ChatGPT整合進iPhone、iPad與Mac的作業系統之中,這種深度合作使OpenAI在Apple生態系統中獲得了無可比擬的優勢。訴訟指出,這項獨家合作協議使得其他AI聊天應用程式,尤其是Musk自家公司的xAI Grok,難以在Apple App Store獲得可觀能見度及用戶群。換句話說,Apple的操作架構與商業策略排擠了包括xAI在內的競爭對手,大幅限制了市場多元性與創新活力。 Musk的法律文件強調,如果沒有這項獨佔合作,Apple應該會給予包括X app與Grok app更高的推廣優先權,讓消費者有更多AI選擇。此次訴訟亦揭示了Musk與OpenAI執行長Sam Altman之間的長期矛盾,Musk不僅曾是OpenAI的共同創辦人之一,亦批評Altman及其團隊過快地擴展市場,卻不顧公正競爭原則。Musk曾試圖掌控OpenAI或與Tesla合併,但未能如願,因此在2018年正式切割關係。 值得注意的是,Apple與OpenAI的這波合作始於2024年中,推出將ChatGPT功能內建於iOS和macOS系統的進階應用,極大提升了OpenAI在蘋果用戶中的普及度。訴訟中Musk控訴Apple與OpenAI「鎖定市場以維持壟斷」,此舉不僅限縮了市場競爭,也直接影響產業創新面貌及消費者選擇權。Musk更質問蘋果為何在其產品推廣上態度消極,對自家人工智慧產品未給予支持及曝光。 此案除了涉及反壟斷與反競爭法理外,也會牽動AI行業未來發展的格局。隨著AI技術年代腳步日益加快,軟硬體巨頭結盟控制平台渠道帶來的壟斷疑慮受到高度關注。市場觀察者指出,若Apple繼續透過系統層級深度綁定OpenAI,其他AI創新平台和應用程式將更難突破生態系限制,造成產業壁壘加厚。 \n\n此外,本案件亦點出一個重要趨勢:大型科技公司在AI領域的激烈布局,既有合作也有競爭,有時界面模糊難分。Musk的此番訴訟無疑是試圖透過法律手段,對抗現有AI產業中的龍頭壟斷,爭取更公平開放的市場環境。 從宏觀角度來看,此案反映了全球AI產業中市場壟斷與開放競爭間的矛盾,兼具技術發展、商業戰略與法律規範三者的交織。對於台灣及香港等重視科技創新且高度依賴國際供應鏈的地區而言,AI產業的健康發展尤為不可忽視,妥善處理大型平台的壟斷問題,將是促進地區經濟數位轉型與科技升級的關鍵。 \n\n未來此案進展備受業界和法律界矚目,判決結果可能對全球AI產業鏈、平台經濟及消費者權益產生深遠影響。無論結果如何,這場訴訟已經成為AI生態系統演變中的重要里程碑,攸關公平競爭的市場規範與技術自主發展路向。 #ElonMusk #xAI #Apple #OpenAI #人工智慧競爭
2025年,OpenAI的ChatGPT Agent在網絡安全領域引發一場震撼,成功自動通過了最常見且廣泛使用的「I am not a robot」CAPTCHA(完全自動區分電腦與人類的圖靈測試)驗證,徹底改寫了人機驗證的遊戲規則。這項突破性成就不僅體現了AI在模仿人類行為上的進步,更揭示了傳統反機器人防護系統即將面臨的嚴峻挑戰。 這項事件最初由Reddit用戶發布的截圖揭露,ChatGPT Agent在Cloudflare的Turnstile驗證系統中,自動點擊「I am not a robot」复選框,並同步朗讀操作過程:「這個步驟是為了證明我不是機器人。」隨後它繼續執行頁面上的下一步操作,例如點擊「Convert」按鈕,無需任何人類介入就完成了整個驗證流程。這套Turnstile系統原本是為了分析使用者的瀏覽器指紋、滑鼠微動、點擊時序等行為特徵,以判斷背後是人類還是機器人。 令人驚訝的是,ChatGPT Agent在一個真實瀏覽器環境中運行,能夠模擬人類自然的滑鼠移動軌跡與點擊節奏,完全通過這些行為分析門檻,成功繞過了傳統的機器人檢測。這種由大型語言模型(LLM)與瀏覽器協同工作的方式,顯示出AI不再只是簡單的對話機器人,而是具有自主執行複雜網絡任務能力的新型智能助手。其能力已超越回應用戶問題,能獨立導航網站、執行資料輸入、更甚能處理網絡驗證與互動行為。 這起突破標誌著人工智能在網絡自動化領域邁向新的階段。過去,CAPTCHA系統被視為阻擋機器人濫用和詐欺活動的最後一道防線,但隨著AI能輕易模仿人類行為,這種安全機制正逐漸失去效用,甚至可能只剩象徵意義。網絡安全專家警告,這起案例將促使業界迅速反思和升級現有的驗證及防禦策略,不能再依賴單純的行為分析或點擊操作來判斷人機身份。 此外,雖然目前ChatGPT Agent暫時還無法輕易破解更複雜的圖片辨識CAPTCHA,但研究顯示,這只是時間問題。以ETH Zurich的相關實驗為例,它們的模型在Google的reCAPTCHA v2影像拼圖中取得了100%的正確率,暗示未來突破視覺類驗證的技術也指日可待。 隨著ChatGPT Agent等AI工具逐漸具備自主完成各類線上任務的能力,從餐廳預訂、網購結帳到行程安排,都可能變得全自動化,這雖然為用戶帶來便利,但同時也引發了嚴重的安全風險。惡意利用這些AI代理進行詐騙、散布虛假訊息或突破平台限制的潛力,也讓網絡社會不得不面臨重新設計與管控AI應用的巨大壓力。 這種技術演進還引出了重要的政策討論,像英國針對網路成人內容的年齡驗證規定,因應用戶透過VPN或AI生成的假證件輕易繞過限制,反而造成更多隱私與監控風險,引發各界反思如何在保障用戶權益與安全間取得平衡。同時,政治或社會層面對VPN禁令的呼聲,若不謹慎處理,則可能成為言論審查與資訊封鎖的工具。 現階段,ChatGPT Agent這類技術的問世,真正提示我們進入了AI自治代理人與網絡安全的「軍備競賽」時代。未來的驗證系統必須發展更高階的辨識方式,結合多維度行為分析、新型生物識別及用戶交互驗證策略,才能有效阻擋高度智能的機器人假冒人類。此外,網絡平台和企業也須加強人工智慧倫理、審查機制與反作弊技術,避免被濫用於詐騙或安全攻擊。...
GPT-5 爭議持續發酵!🔥 自從 OpenAI 推出 GPT-5 以來,網民紛紛投訴「語氣冰冷、沒人情味、創意下降、答得太短、甚至推理錯誤」。究竟這些投訴是否屬實?還是誤解? 本片 Dr. Jackei 親自實測 GPT-5 的五大爭議,並與 GPT-4o 作對比,逐一拆解網民的抱怨,還會分享 Prompt 解法,教你如何讓 GPT-5 回答更貼近需求。 📌 影片看點: ✅ GPT-5 是否真的「語氣冰冷」?...
Meta Platforms(簡稱Meta)在2025年的人工智慧(AI)領域掀起一場前所未有的人才爭奪戰,目標是成為通用人工智慧(AGI,Artificial General Intelligence)領域的領頭羊。Meta在AI上的大手筆投資和積極挖角行動,已成為科技產業內外矚目的焦點。這場高賭注的競爭,不僅牽動著科技生態,也重新定義了全球AI人才市場的遊戲規則。\n\nMeta的AI野心表現在巨額資金投入和戰略布局上。2025年,公司斥資150億美元入股Scale AI,並計畫動用650億美元打造AI基礎設施,同時展開所謂的「人才閃電戰」,席捲OpenAI、Google及Apple的頂尖AI研究人員。這種以速度和資金為核心的策略,意在迅速縮小與OpenAI及DeepMind等競爭對手的技術差距,並在AGI的研發上占得先機。Meta新成立的Superintelligence Lab,就是此一策略的重心,集結多位世界級AI專家的力量,致力於解決如Llama 4模型中的技術瓶頸,提升AI模型的推理和決策能力。\n\n在人才引進方面,Meta不惜重金挖角業界大咖,提供高達數千萬甚至上億美元的簽約獎金。以新任Superintelligence Lab首席科學家Shengjia Zhao為例,他過去是OpenAI原版ChatGPT團隊的重要成員,並在GPT-4及其他前沿模型研發中扮演關鍵角色。Zhao自2025年6月加入Meta後,不但成為新實驗室的共同創辦人,且在很短時間內被馬克·祖克伯格正式任命為領導人,負責制定實驗室的研究方針與科學策略。陪同他共同領導團隊的還有從Scale AI轉投Meta的首席AI官Alexandr Wang,這位前CEO受聘後進一步強化了Meta的核心科研力量。\n\n除了人才層面的強化,Meta亦積極重塑其數據中心營運策略。旗下的Prometheus 1GW(位於俄亥俄州)與Hyperion 2GW(路易斯安那州)等AI超級數據中心,裝備了最先進的NVIDIA H100 GPU及針對AI優化的基礎設施。這類龐大且高效的運算資源,加上美國政府通過One Big Beautiful Bill(OBBB)提供的稅務優惠,令Meta能迅速提升其計算能量,與Google、Amazon等業界巨頭的資源競爭媲美。\n\n然而,這場人才與資金之戰也引發業界不同聲音。OpenAI首席執行官Sam Altman在2025年6月公開指稱Meta提出給其研究人員的報酬高達一億美元,但他同時強調OpenAI核心成員並未被這樣的高薪挖角所動搖。Altman將OpenAI的文化塑造成「以使命感及長期忠誠為核心」,強調團隊穩定性和價值觀優於單純的薪酬激勵。此說法無疑在業界點燃了關於「錢VS使命」的辯論,反映出AI競賽不僅是技術之爭,更是企業文化與人才策略的較量。\n\nGoogle旗下DeepMind執行長Demis Hassabis也表示,Meta的挖角策略是一種理性的行動,因為「他們在AI競賽中處於落後位置,必須有所作為」。Hassabis認為,雖然金錢激勵重要,但更多AI科學家看重的是如何安全且負責任地引導該技術發展。這段話從側面說明,Meta的積極擴張不僅是一場人才爭奪,也伴隨著行業內部對技術未來方向的深刻思考。\n\n值得注意的是,在Meta內部已有長達十年以上的AI首席科學家Yann LeCun,負責公司基本AI研究(FAIR,Fundamental AI Research)並推動AI長期理論與新範式的突破。雖然LeCun的工作與Superintelligence Lab有所區別,但在整個Meta...
OpenAI與Elon Musk之間的紛爭,成為當前人工智能(AI)產業中最受矚目的戲碼之一。兩位矽谷巨頭Sam Altman與Elon Musk,曾於2015年共同創立OpenAI,旨在推動AI以造福人類的非營利使命。不過,隨著OpenAI從非營利組織轉型並創立營利子公司,兩人的理念與利益衝突日漸加劇,最終演變成法律與公開戰役。 Sam Altman帶領的OpenAI,近年來在AI領域取得顯著進展,尤其是旗下著名產品ChatGPT更是掀起熱潮。Altman主張,為了維持在AI競賽中的領先地位,OpenAI必須擁有更靈活的資金調度機制,因此在組織架構改變上,推動成立帶有營利性質的子公司。該策略雖有助於吸引巨額投資及促進技術研發,但也引來Musk強烈反彈。Musk認為OpenAI原本承諾將保持非營利性,為人類福祉服務,而轉型營利可能違反最初的協議,甚至涉及法律問題。他多次透過訴訟控告OpenAI涉嫌欺詐與違約,試圖阻止該公司變更企業結構。 此外,Elon Musk於2018年已退出OpenAI董事會,並成立自家的AI公司xAI,成為OpenAI直接競爭對手。兩人不僅在企業經營理念存在分歧,連公眾媒體上的口水戰也層出不窮。Musk嘲諷Altman為“Scam Altman”,質疑其誠信,而Altman則回應Musk是“心情不佳的人”,雙方矛盾愈演愈烈。Altman更公開指出Musk利用其社交平台X(前稱Twitter)操控演算法,為自己及旗下企業謀取私利,甚至打壓競爭對手。 這場紛爭不僅僅是兩名科技領袖的個人恩怨,背後更反映出AI產業版圖的博弈。OpenAI的戰略發展與資金運作直接影響其在全球AI技術競賽中的地位,尤其在中美等大國搶奪AI主導權的背景下,OpenAI的未來走向引人關注。Sam Altman更曾公開談到人工智能超越人類智慧(superintelligence)即將來臨的迫近,以及AI帶來的諸多挑戰包括偏見與審查問題。 2023年11月,OpenAI董事會更驚人地宣布立即解除Altman的CEO職務,理由是缺乏「一致誠實溝通」,此舉震驚業界並引發多方猜測。隨後OpenAI多名高層相繼辭職,局勢一度動盪。Altman立即籌劃新AI創業項目,吸引了風險投資大咖Sequoia Capital及Vinod Khosla等的關注。與此同時,包括美國監管機構在內也開始審視OpenAI與主要投資者Microsoft之間的關係及內部通訊是否涉及誤導投資者,法律風險持續升溫。 歷史上,Musk曾建議OpenAI必須「立即每年籌集數十億美元,否則放棄」(2018年公開的往來電郵記錄),顯示他其實支持組織的營利化方向,但隨後轉向反對該公司目前的變革路線。此外,兩人對AI安全與未來的看法仍有較大分歧,Altman積極推動AI技術開發與應用,而Musk則多次公開警告AI可能帶來的風險,需要更加謹慎管理。 從這場長達數年的糾紛,可以看出當今AI界的競爭態勢及技術與利益的交織複雜。OpenAI在全球AI版圖中的地位,以及兩大創始人間的矛盾,彰顯了創新技術背後的商業與倫理難題。對香港及台灣的讀者而言,這不僅是一場國際科技風暴,也影響未來數位經濟與產業發展趨勢,值得持續關注。 #人工智能 #OpenAI #ElonMusk #SamAltman #AI競爭
OpenAI執行長Sam Altman近日公開表達了對年輕世代深度依賴ChatGPT這類人工智慧工具的擔憂,指出這種過度依賴可能帶來負面影響,甚至是危險的。他在2025年7月一次聯邦儲備銀行的公開場合中提到,不少年輕人已經不僅是將ChatGPT當作回答問題的搜尋引擎,而是進一步將其視為人生決策的依靠,甚至像是他們的「生活顧問」或日常操作系統,這種現象在20多歲至30多歲的世代尤為明顯,而大學生使用ChatGPT的深度和頻率則更高,許多人透過連結各種文件及預設指令整合AI於日常生活。 Altman談到,有年輕人會說:「我無法在沒有告訴ChatGPT我所有情況的前提下做任何決定,因為它了解我、了解我的朋友,我會依照它的建議去做。」這種情感上的依附,他認為令人非常不安,也暗示了AI帶來的「盲目信任」風險。他強調,人們不應該對AI抱有過度信任,因為AI本質上并非萬能,也存在錯誤和偏差的可能性。 這種情況不僅是個別現象,而是相當普遍的趨勢,一項針對1060名13至17歲青少年的調查顯示,約有72%的青少年至少使用過一次AI伴侶,而52%的人每月至少使用幾次AI工具,且其中有一半受訪者表示他們信任從AI那裡得到的建議。值得注意的是,年齡越小的青少年對AI的信任度越高,顯示年紀較輕的用戶更容易對AI產生依賴感。 除了情感依賴的問題,Altman也提到隱私和法律層面的挑戰。越來越多用戶將ChatGPT視作心理治療師或生活教練,進行敏感的心理諮詢。然而,這些與AI的對話並不享有和真正的心理醫師或律師一樣的法律保護,無法確保對話內容在法律訴訟中不被披露。OpenAI的政策指出,雖然用戶刪除的聊天記錄在30天內會被永久刪除,但依法律或安全需求仍有可能被保留。Altman強調,未來如何保障用戶與AI對話的隱私權,是一個亟需解決的重要議題。 此外,Altman也對社交媒體對兒童造成的心理影響表示擔憂,特別是在沉迷與成癮問題上。他認為,隨著AI技術越來越融入生活,如何在推動創新同時防範負面影響,將是未來重要的挑戰...
在人工智慧(AI)技術快速發展的當下,教育領域成為了全球關注的焦點。微軟(Microsoft)、OpenAI與Anthropic三大科技巨頭攜手合作,共同發起了一項總投資達2300萬美元的創新教育計畫,目標是為美國基礎教育(K-12)階段的教師提供免費且系統化的AI培訓,並將於今年秋季在紐約市成立全國人工智慧教育學院(National Academy for AI Instruction,簡稱NAAI)。這不僅標誌著AI技術在教育界的深度滲透,也展現出科技公司對教育未來的積極布局。 該計畫將由美國教師聯合會(AFT)主導,面向其約180萬名會員開放,首階段目標是在未來五年培訓40萬名K-12教師。培訓內容涵蓋AI技術基礎、教學應用實務、課程設計、評分系統優化、溝通協作以及教室管理等多個層面,並通過面授研討會、動手實作以及線上學習模組多管齊下,確保各地區、不同教學環境的教師皆能從中獲益,即使偏遠或資源不足地區的教育者亦不被遺漏。首個實體培訓中心設定於紐約曼哈頓,未來將拓展到全國其他城市,並結合遠距教學,讓資源得以最大化傳遞。 這一教育培訓計畫的核心理念是利用AI提升教師教學效率和創造力,而非取代教師角色。透過AI技術,教師能更輕鬆地進行課程規劃、個性化作業設計及學生輔導,優化繁重的行政工作,進一步增強學生的互動和參與度。此外,計畫中特別強調AI倫理課題,包括數據隱私、偏見監控及學生安全等,旨在保証AI技術應用的透明、公正與安全,回應了家長、教師和社會各界對AI教育潛在風險的關切。 OpenAI首席全球事務官Chris Lehane表示,此舉是為了讓教育者成為AI技術的積極推動者和監督者,確保AI在教學中發揮正面的輔助作用,真正為學生帶來利益而非損害。他強調,AI的應用應該圍繞「民主AI」的原則,尊重個人自由,鼓勵創新與公平,避免集中權力或技術獨裁的風險。 另一邊廂,OpenAI在全球範圍內也積極推進「民主AI基礎設施」計畫,與美國政府及日本軟銀集團合作,投入高達5000億美元建設安全、在地化的AI數據中心,滿足各國對數據主權和安全的嚴格要求。特別是在亞洲市場,OpenAI推出了數據駐留計畫,支援日本、印度、新加坡和韓國等地的企業和組織將數據存放於本地,以遵循區域法律與文化需求,提升AI工具的本地化服務能力,擴展ChatGPT Enterprise和ChatGPT Edu等產品的使用範圍和效率。這種量身訂製的合作模式,彰顯了OpenAI對於多元文化和法規差異的尊重與因應,促使AI技術更廣泛且安全地應用於健康照護、教育及公共服務等多個領域。 綜觀此次微軟、OpenAI及Anthropic在教育領域的跨界合作,以及OpenAI推動全球數據駐留和民主AI基礎建設的多元舉措,顯示了未來AI與教育深度結合的趨勢。對香港及台灣的教育界來說,這不僅是觀察國際教育科技發展的典範案例,也是未來引進與整合先進AI技術,提升教學品質與學生學習體驗的重要參考。隨著AI技術日益成熟,如何在保障師生權益與隱私的前提下,合理且創新地使用AI輔助教學,將成為各地教育政策制定者和實務者必須重視的課題。 #人工智慧教育 #OpenAI #民主AI #教育創新 #數據駐留
TL;DR(給趕時間的你) GPT-5 是什麼?為何值得關注 如果把前一代 GPT 想成「很能幫忙、但偶爾凍結」的助理,GPT-5 的重點就是在速度、穩定、理解與判斷上更上一層樓。它更能理解「你要它做什麼」,也更能在複雜任務中「先想清楚再回答」。同時,它對於圖片、PDF、表格、投影片截圖、甚至影片畫面等多模態內容的理解力也更強。 功能總覽 1)更快,但遇到難題會「想久一點」 2)多模態理解升級(圖像、文件、表格、影片畫面) 3)內容創作更自然(寫作 / 腳本 / 行銷文案) 4)程式設計與修錯更穩 5)代理式工作流(Agent / 工具串接) 6)長上下文與長文處理(*以官方為準) 7)可控輸出與格式約束(*以官方為準) 8)安全與可靠性 誰最適合用 GPT-5?常見情境...
OpenAI 最新推出的 gpt-oss 系列模型,包括 gpt-oss-120b 與 gpt-oss-20b,代表了開源語言模型的新里程碑,將強大的自然語言處理能力以開放權重方式提供給全球開發社群,特別適合香港及台灣等地對新世代 AI 技術需求日益增長的市場。這兩款模型均遵循寬鬆的 Apache 2.0 授權條款,並具備優異的推理與工具使用能力,是首次由 OpenAI 自 GPT-2 以來大規模開放的權重模型,開啟了人工智能民主化的新篇章。 在架構設計上,gpt-oss 模型基於先進的 Transformer 架構,並運用了專家混合(Mixture-of-Experts, MoE)技術,以減少每次推理啟動的參數數量,達到高效的運算表現。以 gpt-oss-120b 為例,總共有約 1170...
你仲係用人手整理筆記?過時啦!📚 今集由 Dr. Jackei 親自實測 ChatGPT 最新功能【Study Mode】,示範如何用 AI 幫你做筆記、出考題、畫概念圖,甚至一鍵規劃學習行程! 無論你係中學生、大學生、補習老師,呢個功能都可以完全解放你溫書嘅痛苦 💡 最重要係 —— 免費用家都可以玩到! 🧠 影片重點: – ChatGPT Study Mode 功能全解:問答學習、整理重點、自動出題 – 多種輸入格式支援:PDF、Docx、網站、Lecture...
OpenAI執行長Sam Altman於2025年7月於華盛頓特區聯邦儲備委員會主辦的金融業研討會中,對即將來臨的AI驅動金融詐欺危機發出嚴重警告。他指出,隨著生成式人工智慧技術的日益成熟和普及,金融機構中常用的語音指紋身份驗證系統正變得極度脆弱,因為AI可以模仿客戶的聲音進行欺詐行為,使得這類防護措施「完全被突破」[1][3]。Altman直言依賴語音認證來進行大額資金調度是“瘋狂”的做法,並強調未來AI生成的聲音與視頻深度偽造(deepfake)將越來越難以分辨真偽,金融系統亟需迅速採用更新穩健的認證技術以避免重大安全漏洞[1][3]。 此外,Altman更警告說,不僅是語音欺詐技術,其它更危險的AI應用有可能對金融網絡發起大規模攻擊,甚至可能威脅公共安全,比如利用AI研發並散播生物武器,這些威脅速度和破壞力超越現有防禦措施[1]。這番話獲得聯邦儲備委員會監理副主席Michelle Bowman的呼應,她表示監管機構與科技企業之間的合作可能成為對抗AI詐欺的有效策略[1][3]。 在同一會議上,Altman也針對AI對勞動市場帶來的革命性影響提出警示,特別點名客戶服務產業已接近被AI完全取代的局面[2][4]。現今許多客戶服務中心已由AI系統接管,人工客服多數被快速、準確且不疲勞的AI取代。Altman強調:“當你打電話進客服中心時,回應你的已是超級智能且可靠的AI,它沒有任何繁瑣的按鍵選單或需轉接的問題,一通電話即可完成服務。這個轉變基本上已經完成。”此外,AI在醫療領域的應用也愈加精準,甚至在某些診斷方面勝過多數人類醫師,雖然Altman本人仍偏好有人類醫師在診斷過程中監控[2]。製造業中,AI則透過演算法掌控供應鏈與設備狀態,極大提升運作效率並降低設備停機時間[2]。創意產業如媒體與廣告也越來越倚賴AI來產生內容、個人化推薦及分析觀眾偏好,整體推動產業結構與經營模式的轉型...
近期有研究發現,ChatGPT用戶透過「分享連結(Shared Links)」功能公開的對話紀錄,竟然被Google與其他搜尋引擎成功索引,造成大量用戶的私人聊天內容在網路上曝光,引發資安與隱私疑慮。 \n \n該功能初衷是讓用戶能夠方便地產生連結,分享自己和ChatGPT的對話內容給他人瀏覽。然而,因為這些分享連結的網頁並未阻止搜尋引擎抓取,導致Google可以透過搜尋「site:chatgpt.com/share」等限定條件,搜出超過5萬筆以上的公開對話。\n \n這些被搜尋出的對話內容範圍甚廣,包括日常問答、專業諮詢、甚至涉及敏感乃至非法的訊息,例如醫療與法律建議、內線交易情資、詐欺自白、網路攻擊計畫以及不當請求等。據《每日電訊報》及其他媒體報導,線上研究員Henk van Ess揭露此風險,認為這類內容原本屬於私密,卻因用戶自行分享功能,反而被廣泛公開並可被全球任何人搜尋到。\n \nOpenAI對此迅速做出回應,表示此分享功能原本只是短期實驗,目的是測試用戶能在保持資訊控制權的同時,便利地分享對話記錄。OpenAI資安長Dane Stucky指出,這項功能存在用戶在不知情下暴露本不打算公開訊息的高風險,因此在2025年7月底緊急移除讓搜尋引擎索引的相關設定,以阻止未經授權的資料被公開。\n \nOpenAI執行長Sam Altman也公開表示,用戶與ChatGPT的對話目前並不享有法律上的保密權限,這和人們在醫師、律師等專業人士前的保密談話大不相同。許多年輕用戶把ChatGPT當成諮商師或人生教練,傾訴各種私事,但目前OpenAI尚未找到方式能在AI對話中有效落實保密機制,這使得隱私保護成為未來亟待解決的挑戰。\n \n此外,OpenAI也提醒用戶,避免在ChatGPT對話中輸入任何敏感個資或機密資訊,尤其不要於公開或分享連結中包含這些資訊,以防止資料外泄。對於曾公開分享的內容,OpenAI已主動聯繫Google等搜尋引擎,要求下架或移除已被索引的對話頁面,努力降低潛在風險。\n \n這次事件也提醒使用AI聊天工具的用戶,謹慎處理個人資料及對話內容,切勿輕易公開或在網路傳播,否則私密性極易受損。ChatGPT的便捷與智慧雖為生活帶來便利,但使用者對於資訊安全的意識必須同步提升。OpenAI未來或將推出更嚴格的保護機制與隱私設計,以加強用戶信任與安全感。\n \n綜觀這起事件,關鍵在於用戶對分享連結功能的理解與操作,以及平台如何管控公開內容的索引權限,兩者缺一不可。對於香港及台灣用戶而言,尤其應重視人工智慧工具的使用規範與數據保護,避免個資意外曝光而造成不必要的損害。這也凸顯了新興科技在便利與隱私保護間的平衡難題,是科技業界和社會共同需要面對的課題。\n\n#ChatGPT隱私風險 #AI對話外洩 #OpenAI資安 #人工智慧分享連結 #數據保護