2023年10月底,OpenAI悄然更新了ChatGPT的使用政策,明確規定未經持證專業人士適當參與,不得使用ChatGPT提供需要執照的客製化建議,尤其是在法律、醫療與財務領域。此一政策修訂迅速引發全球熱議,許多媒體與使用者誤解為OpenAI全面禁止ChatGPT提供健康與法律相關資訊,但實際上,此條款早已存在多年,只是此次統整多份原有規範,強化了合規與責任的界限。 在新政策中,OpenAI強調,ChatGPT並非專業建議的替代品,而是作為輔助理解資訊的工具。用戶仍可向ChatGPT咨詢一般性的健康知識、法律條文解釋或理財概念,但不可期望其提供個案化、具執照保證的專業診斷或建議。這種界線的清晰化,有助於減少因誤用AI生成資訊而引發的安全、法律與倫理風險,尤其是針對健康與法律這類高度敏感與專業的領域。 ChatGPT在全球頗受歡迎,根據2024年KFF民意調查,約每6人中就有1人每月至少使用一次ChatGPT來獲取健康建議。許多人用它作為看診前的準備工具,協助理解醫學術語或產生第二意見。然而,個別用戶依賴AI提出的健康或法律建議而做出重大決策後,曾出現過不理想甚至災難性的後果,產生廣泛關注。 OpenAI此次調整絕非魯莽,而是全球監管環境日趨嚴苛的必然結果。歐盟即將生效的AI Act法案與美國FDA對醫療AI產品的監控標準,對像ChatGPT這樣的生成式人工智慧提出高度合規要求。OpenAI以限制專業領域內客製建議服務,換取更廣泛的法規安全屏障,展現了從純技術驅動向責任優先的策略轉變,亦正引領行業進入「可信AI助手」的全新階段。 在法律行業中,ChatGPT的變革影響亦明顯。許多律師事務所已經開始實驗將ChatGPT整合進工作流程,以提升規模化文件起草、法律研究、合規審核的效率,據普華永道介紹,其內部4000名律師已部分採用AI助理技術。不過,法律專家同時警告,AI生成內容不盡完美,且易涉及知識產權侵權、數據洩露及錯誤法律意見導致的責任問題,因而法律界對這種工具的使用須保持高度警覺並制定嚴格的監管規範。 生成式AI在醫療領域的應用亦極具潛力,包括疾病判讀輔助、影像分析、遠距醫療諮詢與急診人流管理等。但臺大醫院倫理中心指出,這類AI技術仍存在誤解醫學術語、提出不一致診療建議、病人資料隱私風險等挑戰。此外,AI帶來的生成偏見、虛假資訊傳播、學術誠信問題及高能耗對環境的影響,也成為當前智醫醫療發展不容忽視的倫理與社會議題。 在香港與台灣,隨著科技高速進展與數位素養普及,公眾對AI輔助服務的期待日益增加,但同時亦須面對法律監管空白與使用誤導風險。使用ChatGPT取得初步的醫療、法律資訊已逐漸成為許多人的習慣,然而政府與相關專業機構強調,AI工具只能作為輔助參考,千萬不可取代持牌專家專業判斷,以保障自身安全與權益。 除此之外,從運營角度來看,類ChatGPT的應用在中國大陸地區還涉及跨境數據合規、網路服務經營許可等法律難題。相關規範要求提供者須加強敏感信息自動識別技術,防止生物識別數據、金融帳戶等敏感資料外洩,避免涉及未成年人與個人隱私保護問題。這些法律風險與合規要求亦反映了全球生成式AI技術應用面臨的多重挑戰。 綜觀目前趨勢,人工智慧無疑是未來數位社會的核心技術,ChatGPT作為重要代表,正逐步由具備多功能的通用AI,走向具備專業領域合規保障的垂直應用。然而,這條路仍需透過政策、法律與技術的共同演進,以維持公眾信任與使用安全,否則過度依賴不成熟的AI專業建議,反而可能造成更大社會風險。 #人工智慧 #ChatGPT #法律合規 #健康資訊 #生成式AI