人工智慧(AI)在近年來已經成為科技界不可或缺的一部分,而最近有一項突破性的進展——Anthropic 公司推出了多智能體研究系統,這是一種能夠大幅提升複雜問題探索效率的創新技術。這種技術的核心是多個 Claude 智能體之間的協同工作,讓 AI 從單一智能體的工作模式轉變為多智能體的協作。 多智能體系統的架構 Anthropic 的多智能體系統采用「協調者-工作者」(orchestrator-worker)架構,主要由一個「主導智能體」負責整體協調和策略制定。這個主導智能體就像專案管理員,負責分析用戶的查詢,分解任務並創建多個「子智能體」。每個子智能體都負責在不同維度上進行信息探索,例如搜索不同資料庫或使用特定的工具。這種並行處理的模式使得系統能夠高效地處理複雜的研究任務。 效率提升 使用這種多智能體系統,Anthropic 的 Claude 智能體在研究評估中表現出顯著的提升。測試結果顯示,與傳統單智能體方案相比,多智能體系統的效能提高了 90.2%。例如,在識別信息技術領域的標普 500 公司董事會成員時,多智能體系統通過任務分解成功地獲得了答案,而單智能體方案因為順序搜索效率低下未能完成。 應用場景 這一技術在多個領域中已經落地,包括軟件開發、商業策略制定、學術研究等。通過這種多智能體系統,Anthropic 能夠為用戶節省大量的研究時間,同時提供更高效、更準確的研究結果。 工程挑戰 雖然這種技術取得了顯著進展,但 Anthropic 的工程團隊也遇到了不少挑戰。首先,多智能體系統的代幣消耗較高,這意味著運行成本可能會增加。其次,系統需要在智能體之間高效地協調和分配任務,這對於當前的...
當人工智能(AI)在生物領域的應用日益廣泛時,關於生物風險評估的問題逐漸引起了各界的關注。尤其是在合成生物學領域,AI 可能被用來加速病毒基因組的設計和組裝,從而引發生物安全風險。這項風險評估究竟如何進行,以及如何確保實驗室的安全性,成為了各國政府和研究機構迫切需要解決的問題。 人工智能與生物安全風險 近年來,AI 在生物領域的應用已經涉及到從基因編輯到病毒研究的各個方面。然而,這種應用也帶來了嚴重的生物安全風險。例如,AI 可被用來設計和模擬病毒的基因序列,甚至可以提供如何組裝病毒的指導。這使得假設性惡意行為者可能利用 AI 獲取具有潛在大流行風險的病毒序列和相關技術,進而威脅全球健康安全。 為了應對這種風險,許多研究團隊和政府機構正在努力制定評估和緩解措施。例如,CNAS (新美國安全中心)發布的報告強調了 AI 對生物災難風險的影響,並提出了評估和干預措施。這些措施包括建立跨學科的專家團隊,以評估和控制高風險的 AI 能力。 實驗室生物風險評估程序 在實驗室中,生物風險評估是一項非常重要的工作。這項評估旨在鑑別與實驗室活動相關的潛在危害,例如病原體、毒素、設備和程序,並進一步減輕所確定的風險...
在這個AI競爭激烈的時代,最新一波的AI助手如ChatGPT、Claude、Gemini、DeepSeek已經成為內容創作者、行銷人員、工程師與一般用戶日常不可缺的工具。這些AI模型彼此競爭激烈,各有所長,讓不少用戶在選擇時感到困惑。本篇文章將深入比較目前市場上四大主流AI——ChatGPT、Claude、Gemini與DeepSeek,並根據最新的實測結果與實際案例,帶領讀者掌握每種模型的核心優勢與適用場景。 首先登場的是OpenAI旗下的ChatGPT。ChatGPT歷經多次更新,在2025年已經成為多數人心目中的「全能型AI」,其在內容創作、故事編寫、幽默感及創意思維的表現可圈可點。ChatGPT的記憶功能極為強大,能根據對話脈絡持續追蹤細節,讓日常問答變得更貼心與實用。此外,ChatGPT支援多模態功能,能處理圖像、聲音甚至影片,還能與第三方GPTs串接,滿足從學術研究到商業推廣等各種需求。許多用戶特別推崇ChatGPT的創意能力,認為它在故事與文案創作中最具感染力,尤其是需要與受眾建立情感連結的行銷場景,ChatGPT的表現無人能及。 接著來看Anthropic製作的Claude。Claude在2025年憑藉Claude 4與Claude Code等新功能強勢登場,主打強大的結構化輸出與細膩的分析能力。Claude擅長處理需要拆解步驟、提出具體規劃的任務,例如項目管理、30天計劃、程式碼開發與深度寫作。對於開發者及分析師而言,Claude的「Artifacts」功能能即時可視化程式碼與設計思維,大幅提升工作效率。許多用戶發現,當需要一份詳細且條理分明的計畫書、教育內容、或程式教學時,Claude能帶來明確的指引與實質幫助。不過,Claude相較於其他兩者,有時會被批評為「太過囉嗦」,內容冗長對講求效率的用戶而言略顯不友善。 Google推出的Gemini則以「穩定、準確、專業」的形象深植人心。Gemini在準確度、文化細節與倫理思考方面表現亮眼,尤其在程式碼撰寫、多語言翻譯、與邊緣案例處理上屬於行業領先地位。Gemini的程式碼不僅結構嚴謹、有完整的文件說明,還會特別針對空字串、特殊符號等邊緣案例進行自動檢測,讓程式開發變得更加可靠與自動化。此外,Gemini支援圖像與語音輸入,讓使用者能更加靈活地與AI互動。根據多份實測結果,Gemini連續在十個不同領域的測試中獲得七次最高分,堪稱當今最全面的AI模型。 最後則是DeepSeek。DeepSeek雖然知名度不如前三者,但其獨特之處在於「本地模型下載」功能,用戶可以將整個AI模型下載到本地端執行,對於需要高度隱私保護或長時間離線作業的企業而言極具吸引力。DeepSeek在SEO內容優化與報告自動化領域亦有出色表現,能協助企業快速產出符合Google搜尋標準的高品質內容,並自動分析數據、生成報告。 從實務面來看,2025年AI模型的競爭已經從單一功能轉向「全棧式解決方案」:ChatGPT繼續強化創意與多模態能力;Claude專攻結構化與深度分析;Gemini堅持專業與穩定性;DeepSeek則在隱私與自動化上搶占市場份額。根據最新測試,超過七成用戶認為Gemini是最穩定的選擇,而ChatGPT則是創意內容的首選,Claude則成為專案規劃與程式開發的得力助手。 有趣的是,隨著AI技術日益進步,模型間的區隔越來越細緻。有經驗的用戶會根據任務性質靈活切換模型,例如用Claude撰寫詳細計劃、用ChatGPT打造引人入勝的文案、用Gemini確保程式碼品質,或用DeepSeek保護資料隱私。這樣的策略讓AI應用變得更加靈活與高效。 總結來說,2025年的AI戰場上沒有絕對的贏家。ChatGPT憑藉創意與多功能穩坐寶座,Claude在結構化與分析領域獨樹一幟,Gemini則以專業與準確令人驚艷,DeepSeek則以隱私與本地化拉攏特定族群。未來幾年,AI技術依然會持續進化,用戶只需根據自身需求挑選最合適的工具,即可事半功倍。 #AIAssistant #ChatGPT #Claude #Gemini #DeepSeek
近期,OpenAI 推出了一系列升級,旨在提升 ChatGPT 的搜索響應質量,這使得 ChatGPT 能夠提供更全面的、及時的答案,並且支持在對話中進行圖像搜索。這些新功能包括更智慧的響應、改進的對話理解能力,以及在長對話中跟蹤使用者指令的能力。此外,ChatGPT 還能夠自動進行多個搜索,以處理複雜的問題。這些升級表明 OpenAI 正在積極地挑戰 Google 的搜索霸主地位。 在新的搜索體驗中,ChatGPT 能夠更好地理解使用者需求,提供更具針對性的答案。它可以處理長對話,記住對話的上下文,從而給出更具邏輯性的回應。此外,使用者可以將圖像作為搜索的輸入,從而擴大了搜索的可能性。這些功能的實現使得 ChatGPT 成為了一個更強大的搜索工具,能夠提供更多元化的信息。 雖然這些提升為使用者帶來了更多便利,但也伴隨著一些潛在的缺點。例如,有些使用者可能會遇到更長的回應時間,以及在某些情況下出現意外的“鏈式思考”邏輯。OpenAI 對此正在不斷改進和優化,以確保使用者得到最好的體驗。 與此同時,數據顯示,大多數使用者對這些升級感到滿意,認為新的搜索體驗更好。這說明了 OpenAI 的努力在提升使用者體驗方面取得了成果。 ChatGPT # OpenAI #...
隨著數位化工作模式普及,會議紀錄成為企業日常中不可或缺的一環,但傳統手寫筆記或人工整理不僅效率低下,更容易遺漏重要細節。為因應這種需求,OpenAI於2025年推出了ChatGPT的全新「錄音模式(ChatGPT Record)」,專為繁忙的專業人士設計,助力提升會議記錄的準確性與效率,成為香港及台灣市場上備受矚目的創新工具。 ChatGPT錄音模式的核心功能是即時錄音並自動轉寫成文字,讓使用者只需按下一個「Record」按鍵,系統即刻開始捕捉會議內容。該功能支援最高120分鐘的錄音時間,能全面覆蓋一次完整會議或多場討論。錄音結束後,系統不僅自動完成語音轉文字工作,還會利用AI技術生成條理分明的會議摘要,並自動整理重點、待辦事項及專案計畫。這份摘要被稱為「Canvas(畫布)」,可直接轉換成電子郵件、計劃書或原始碼架構,方便用戶進行後續編輯與分享。 在資安及隱私方面,OpenAI明確表示,所有錄音檔案在完成轉寫後會即刻刪除,確保用戶資料安全無虞。使用者亦須遵守當地錄音法規,取得錄音對象同意,避免法律風險。此功能當前僅開放給Pro、Enterprise、Edu與Team方案用戶,未來則計劃陸續開放Plus用戶,但免費帳號尚無法使用。 除了即時錄音,ChatGPT錄音模式與多種主流雲端儲存服務無縫結合,如Google Drive、Dropbox、Box、SharePoint及OneDrive,使會議資料可直接同步保存並便於團隊協作。這項整合大幅提升了文件管理和資料調用的便利性,對跨區域協作尤其有利,為香港與台灣的跨國企業帶來更流暢的會議體驗。 在實務應用上,ChatGPT錄音模式已成為多種場景的利器:無論是企業例行會議、腦力激盪、專案規劃,甚至是複雜的技術討論與程式碼審查,都能精確捕捉並整理成結構化筆記。這不僅節省了繁複的手動筆記時間,也大幅減少了會議後的反覆確認工作,提升整體工作效率。 以macOS版本為例,用戶操作簡單直覺,只要點擊「Record」鍵即可開始錄製,系統會即時轉錄並在介面中生成易讀摘要。完成的Canvas摘要會保存在聊天記錄中,方便用戶隨時回顧與搜尋關鍵資訊。此外,錄音模式還支援多種格式輸出,讓用戶靈活應用於不同的工作流程中。 這項功能的推出正值AI技術在辦公自動化領域迅速發展的浪潮中,展示了生成式AI在提升工作生產力的巨大潛力。對香港與台灣等華語市場而言,ChatGPT錄音模式不僅解決了語言轉錄的技術挑戰,更加強了商務溝通的透明度與資訊管理能力,成為企業數位轉型的重要助力。 從長遠來看,隨著OpenAI計劃擴展錄音模式的用戶覆蓋範圍,未來更多中小企業及個人專業人士也將受惠於這項革新技術。此外,功能持續優化與跨平台支持的擴充,將進一步提升使用體驗,使會議記錄工作更具智慧化與自動化。 總結而言,ChatGPT錄音模式透過先進的語音識別與生成式AI技術,為香港和台灣的專業人士帶來了一鍵錄音、自動整理、高效總結的全新解決方案。這不僅大幅降低了會議紀錄的負擔,也促進了團隊溝通與專案執行的順暢,成為現代工作環境中不可或缺的智慧助手。 #ChatGPTRecord #會議紀錄神器 #生成式AI #工作效率提升 #數位轉型
隨著技術進步,ChatGPT 的圖像生成功能已經與 WhatsApp 進行了全面整合。這項創新使得用戶可以輕鬆地透過文字提示,生成具有風格和細節的 AI 繪圖內容,包括插畫、擬真照片、構圖草圖等多種風格。這種功能不僅為創作者帶來了便利,也讓廣大用戶能夠在日常聊天中快速構圖或進行視覺腦力激盪。 圖像生成功能的運作 ChatGPT 的圖像生成功能是基於 OpenAI 的 DALL·E 模型,這是一種能夠根據文字描述生成相應圖像的強大工具。用戶只需點選特定的連結,例如「https://wa.me/18002428478」,即可在 WhatsApp 中啟動與 ChatGPT 的互動。這項功能不僅支持快速圖像創作,也允許用戶透過語音輸入來生成圖片,讓使用體驗更自然且簡單。 特別的是,這項功能並不侷限於特定地區的使用,目前以英文為主,但未來可能會根據用戶需求進行本地化。為了擴大使用彈性,用戶可以將 WhatsApp 帳號與 ChatGPT 主帳號綁定,從而獲得更多圖像生成次數。 圖像生成應用場景 這個功能在日常生活中有許多有趣的應用場景。例如,創作者可以利用...
2025年6月17日,《明報》報導一宗引起軒然大波的新聞:香港聖保羅男女中學的中四學生團隊研發一個名為「藥倍安心」(Medisafe)的醫療AI平台,在本地創新科技比賽中贏得大獎,卻隨即被質疑作品非原創,甚至可能涉及抄襲/外援,以及患者私隱風險等問題。政府數字政策辦公室(數字辦)已表示高度重視,宣布對事件展開全面調查。本報告將針對此事件進行深入調查,涵蓋:(1) 獲獎學生團隊背景與AI平台技術內容;(2) 「非原創」爭議的指控與案例;(3) 評審及主辦機構的正式回應與調查措施;(4) 香港創科獎的背景、評審準則與過去類似爭議;(5) 各界對此事的評論和反思。以下逐一說明。 1. 獲獎中學生團隊與「藥倍安心」AI平台概述 團隊背景:該AI平台由聖保羅男女中學的一組中四學生研發,屬於中學階段的創新項目。團隊主導者為女性學生,曾透過學校聯繫兩位醫生作專業指導,並匿名獲取至少100名病人的病歷資料作訓練和測試。團隊留意到本地醫療界發生過處方藥物出錯的新聞,因而萌生研發此平台的想法,希望能避免類似問題。在接受媒體訪問時,學生聲稱市面上沒有現有系統可自動比對醫生處方與病人病歷,此項目屬首創性質。 平台功能與技術內容:「藥倍安心」(Medisafe)是一個網頁式的醫療輔助平台,利用人工智能(AI)協助醫生核對處方藥物。其核心技術包括:內置常用藥物資料庫(據稱收錄超過17,000種藥物資訊),以及AI驅動的處方驗證系統。當醫生在平台中輸入處方和病人資料後,系統會自動交叉比對患者的藥物過敏史、長期服藥史和當前臨床情況,檢查處方藥物與患者狀況是否匹配。若發現潛在風險(例如藥物間相互作用、患者對某藥過敏、劑量與體重不符等),平台會即時發出警報提示,協助醫生修正處方,從而減少用藥失誤的風險。平台聲稱採用了大型語言模型(LLM)等AI技術來分析文字病歷與藥物資料,因此能理解複雜的醫療資訊並作出推理判斷。由於涉及患者敏感資料,評審專家曾提醒團隊注意使用開源LLM可能帶來的資料外洩風險。為保障私隱,平台在演示模式下內建了500多個合成病人檔案供測試,避免直接使用真實病人資料。 應用場景與目標:該平台主要供臨床醫生在開藥時使用,作為處方決策的智能輔助工具。醫生可通過單一安全平台管理病人處方並獲取AI建議,提升處方準確度和患者用藥安全。團隊曾與本地大型醫療集團接洽,冀望未來能將「藥倍安心」在醫療機構中實際應用。該平台初期為單一使用者版本,經優化後已發展為多用戶SaaS雲端架構,可讓不同醫療提供者在各自獨立的安全環境中運行,具備擴展性以供醫院或診所部署。總的來說,「藥倍安心」試圖通過AI技術革新傳統處方流程,以減少人為錯誤並提升醫療服務質量。 所獲獎項與成就:這個學生AI項目在本地及國際舞臺上均獲得矚目成績。它在2024年度香港資訊及通訊科技獎(HKICT Awards)中,一舉奪得學生組別最高榮譽「學生創新大獎」及相關組別的金獎等共4個獎項。評審委員會對該項目給予高度評價,稱其「關注病人的私隱安危」,而且完成度達到商用級,顯示出成熟的產品化水準。此外,「藥倍安心」代表香港參加了2025年第50屆日內瓦國際發明展,並在高中組別中獲得銀獎殊榮。該團隊作為教育局資助的香港代表隊一員,與另外4個經嚴格選拔的學生項目共同出征日內瓦,在國際舞臺上展示了香港中學生的創科創新能力。 2. 「非原創/抄襲」爭議:指控內容與比對案例 爭議緣起:就在「藥倍安心」奪獎消息公佈後不久,香港本地的社交媒體出現對該項目的質疑聲音。據報首先是在新興社交平台Threads上,有科技界網民發帖指出「藥倍安心」的系統可能並非學生團隊獨立原創,懷疑其在開發過程中另有外援。這則爆料隨即引發廣泛關注,相關討論串短時間內吸引大量轉發和評論,將事件推上風口浪尖。隨後,有香港討論區用戶更進一步提出質疑,稱該作品的技術水準遠超一般中四學生能力,懷疑背後存在「請槍」(找槍手)的情況,即由他人或外部機構代為撰寫主要程式和功能。一時間,「藥倍安心」是否真正由學生獨力研發、其原創性有無灌水,成為輿論熱議的焦點。 外國網站線索:媒體隨即跟進調查,很快發現了一條關鍵線索:一個外國網站的資訊顯示,有第三方參與了 Medisafe 平台的製作。據《明報》報道,該網站原先公開稱「用了8周時間協助製作 Medisafe 平台」。這暗示「藥倍安心」在短短兩個月內由外部人員開發完成,而非純粹出自學生之手。更值得注意的是,在爭議曝光後不久,該網站上的表述出現修改:改稱**「協助優化(optimise)一款以AI處方藥物的軟件,並將其商業化,以及改善該網頁的臨床可用性,解決原發明者的限制」。換言之,從最初暗示直接代為開發**,改口為僅僅在原創基礎上提供優化和商業化支持。這一前後說法的轉變,引起外界更大懷疑:有人質疑這可能是相關方在風波後緊急**「刪改紀錄」**,試圖淡化外援開發的痕跡。 涉嫌「請槍」與抄襲問題:綜合各方資訊,目前對「藥倍安心」原創性的質疑主要有兩方面:其一,程式開發上是否由學生獨自完成?現有證據(如上述網站線索)顯示,團隊很可能聘請了境外的技術人員或公司協助編寫了整個系統,這等同於在創科比賽中「請槍」,嚴重違反比賽要求的學生親自主創精神。有報導指涉事的外援來自美國公司(但另有討論指實為一名巴基斯坦自由程式員承接了此項目開發工作)。如果屬實,學生團隊很可能只是提供了構思,由外部專家實現技術細節,這顯然不符合「原創」的定義,屬於學術誠信問題。其二,概念抄襲與否?有觀點提出,「藥倍安心」的功能與一些已有的醫療AI輔助系統相仿,並非全新理念。例如,Google近期推出的Gemini就是一款功能強大的通用AI助理,可以結合多種資料為用戶提供智能建議。雖然Gemini並非專門用於處方核對,但其先進的自然語言理解與推理能力展示了大型AI平台的水準,令部分人士質疑中學生難以在短時間內獨立開發出類似水準的系統。有評論將「藥倍安心」類比於這類科技巨頭的AI產品,懷疑其創新程度不足,可能借鑒了現有開源資源或他人技術而未明確標註。然而,目前尚無證據顯示該學生項目直接抄襲了任何特定現有平台的原始碼或專利技術,爭議重點仍在於開發過程的原創性和自主性是否屬實。 爭議提出者:上述質疑最初並非由官方揭露,而是由民間科技愛好者透過網絡社群提出。據了解,最早對「藥倍安心」發難的可能是一名曾參與相關比賽的同儕或關注學生創科比賽的網民,她在Threads等平台分享了對該項目疑點的調查結果,引起媒體注意。隨後,多家媒體(如明報、香港01等)也派出記者蒐集資料,驗證了外國網站的線索並公諸於眾。在網絡討論區(如LIHKG連登)上,不少自稱業內人士或IT從業者也投入「開卷審視」,甚至有網友順藤摸瓜,查出疑似學生家庭背景與醫界人士相關(見下文評論部分),使整件事迅速升溫。可以說,此次「非原創」爭議的揭發與發酵,很大程度上是民間力量監督的結果。一開始的質疑者透過公開資訊比對,發現可疑之處並公之於眾,繼而傳統媒體跟進深挖,雙重推動下才讓真相逐步浮出水面。 3....
Google近期在Search Labs中進行了一項名為Audio Overviews的實驗性功能測試,這項創新服務旨在為用戶提供更便利的「語音版」搜尋結果,讓大家在忙碌或無法專注於手機屏幕時,也能輕鬆獲取資訊。Audio Overviews利用Google最新的Gemini AI模型,針對特定搜尋查詢產生簡短、對話式的語音摘要,讓用戶在烹飪、運動、散步或忙碌於其他事務時,只用耳朵就能「看」到世界的動態。這種全新體驗不僅僅是將文字轉為語音,更融入了「雙主持人對話」的設計,使得語音內容更像微型Podcast,聽起來親切又有趣[1][2][4]。 \n \nAudio Overviews的特色在於強調「互動性」與「資訊汲取便利性」。舉例來說,當用戶在Google搜尋中輸入某個話題——比如「降噪耳機如何運作」,若系統判定語言概覽有幫助,結果頁面上會出現「產生語音概覽」的按鈕。點擊後,用戶可以在40秒內獲得一個簡短的語音回應,有時內容長度更可達四分鐘以上,依據主題複雜度而定[4]。語音播放器提供標準的播放、暫停、音量調整、快速靜音,甚至可調整播放速度(0.25倍到2倍),讓用戶根據自身需求彈性操作[4]。 \n \n值得一提的是,Google此次實驗不僅限於簡單的語音朗讀。在語音播放過程中,頁面下方會同步顯示相關網頁連結,方便用戶隨時暫停、深入了解特定內容,這讓Audio Overviews兼具「口語資訊」與「深度探索」的雙重價值[1][2]。這種設計特別適合那些喜歡「邊聽邊查」或需要快速掌握某個主題「大方向」的用戶。 \n \n目前這項功能已於美國英文地區上線,支援手機及桌面裝置,用戶可選擇加入Search Labs實驗,搶先體驗這項未來感十足的服務[4]。Google也在持續優化功能,例如未來可能會增加更多的語言與地區支援,或是讓用戶與AI主持人即時互動、甚至針對特定話題進行「Deep Dive」深度討論[2]。 \n \n對香港及台灣用戶而言,這類語音資訊服務不僅代表科技進步,也大大提升了生活與工作的便利性。例如,當你在捷運上、健身房或超市購物時,隨時都能透過語音概覽快速獲取新知,不需低頭盯著螢幕,安全又高效。對於長者、有視力障礙或偏好聽力學習的族群來說,這項服務更是一大福音。 \n \n市場數據顯示,全球語音助理與Podcast用戶已突破十億人,語音搜尋的體驗需求逐年上升。Google Audio Overviews的推出,無疑是順應這一趨勢的創新嘗試。此外,Google也同步測試了其他AI功能,如AI Mode按鈕、AI生成圖表解答金融問題,以及Gen AI摘要強化天氣資訊等,足見Google正積極將AI技術融入到搜尋服務的每個角落...
美國紐約州於2025年6月13日通過了一項具有里程碑意義的法案,針對AI(人工智慧)系統,特別是來自OpenAI、Google、Anthropic等頂尖AI實驗室所開發的「前沿AI模型」進行嚴格規範。這項名為RAISE Act的法案,旨在避免AI技術引發的災難性事件,包括可能導致100人以上傷亡、或超過10億美元損失的大型意外。這是美國首個針對AI安全與透明度設立法定標準的州級法案,標誌著紐約在AI治理領域的領先地位。 根據法案內容,RAISE Act將強制要求大型AI開發商制定安全計畫,並在模型上線前,進行全面風險評估與危害預防措施。法案明確定義,若AI系統被判定可能引發廣泛危害或災難性後果,開發商必須立即向監管機構報告,並採取補救措施。這項規定大幅提升了AI產業的問責性,並為全球AI治理樹立新標竿。 值得注意的是,RAISE Act並非只針對技術層面,亦強調透明度與社會責任。法案要求AI開發商定期公開系統的運作情況、潛在風險及安全測試結果,以確保公眾利益與知情權。此外,法案特別關注AI在關鍵領域的應用,如醫療、金融、媒體等,避免因系統偏見或失誤,導致民眾權益受損。紐約州政府強調,這套制度將有效降低AI技術帶來的社會風險,同時激勵企業在安全框架下持續創新。 法案通過後,獲得學界與業界廣泛支持。包括諾貝爾獎得主Geoffrey Hinton、AI先驅Yoshua Bengio等知名專家,均對紐約州的立法行動表示讚賞。Hinton表示:「這是一項歷史性突破,顯示政府正視AI技術帶來的潛在風險,並積極回應社會期待。」Bengio則指出,RAISE Act將成為全球AI監管的參考範本,鼓勵其他地區跟進,共同維護公眾安全。 事實上,AI技術近年來快速發展,應用範圍涵蓋自動駕駛、醫療診斷、新聞媒體、金融決策等眾多領域。然而,缺乏監管的AI系統,亦可能因技術漏洞、訓練數據偏差或人為操作失誤,導致嚴重後果。例如,2020年代初期曾發生AI醫療系統誤判病患數據,導致治療方案嚴重偏差;另有金融機構利用AI自動批核貸款,卻因算法偏見,導致部分弱勢族群遭到歧視。 RAISE Act的通過,不僅強化對AI系統的規範,更明確了企業的責任義務。法案規定,若因AI系統導致公眾權益受損,企業需承擔法律責任,並支付相應賠償。這項規定直接提升了AI產業的合規意識,促進企業投入更多資源進行系統測試與風險控管。 對香港與台灣的用戶而言,RAISE Act的立法經驗,可作為本地AI治理的重要參考。兩地在AI應用上同樣蓬勃發展,特別是在金融科技、智慧醫療、社交媒體等領域,AI系統已深度融入日常生活。然而,現行法規多未針對AI技術進行特別規範,導致潛在風險難以管控。紐約的立法經驗,提醒兩地政府與企業,強化AI治理的迫切性。 展望未來,RAISE Act的實施將推動AI產業向更安全、更透明的方向發展。企業將更重視系統的安全性與公平性,民眾權益亦將獲得更多保障。對AI愛好者、開發者與一般用戶而言,這項法案無疑是一劑強心針,為AI時代的來臨奠定穩定的法治基礎。 #RAISEAct #AIGovernance #紐約AI法案 #AI風險管控 #人工智慧安全
近日,OpenAI的CEO Sam Altman發表了一篇題為《The Gentle Singularity》(溫和的奇點)的文章,探討了人工智能和數字超級智能的發展及其對人類社會的影響。這篇文章提出了人工智能發展的新視角,認為我們正步入一個新的科技革命時代,然而這個革命並非以劇烈的方式,而是以溫和的方式展開。 溫和的Singularity 所謂的Singularity,指的是人工智能超越人類智慧的時刻。這個概念在科幻中常被描述為一個機器智能超越人類的時刻,世界秩序因此發生天翻地覆的變化。然而,Sam Altman認為,現實中這個Singularity並非一場劇烈的爆炸,而是像一波溫和的潮水,正慢慢地改變著我們的世界。 我們已經在許多領域創造出了超越人類智慧的系統,例如GPT-4等AI系統。這些系統已經能夠顯著提升人類的工作效率,並開始在科學研究等領域提供幫助。雖然我們尚未達到完全的超級智能,但AI已經在各個方面展現出其巨大的潛力。 AI的發展與未來 Sam Altman指出,AI的發展並不像科幻中描繪的那樣快速且猛烈。相反,它是一個漸進的過程,科學家和工程師們在AI領域取得的進步是基於多年的努力和累積。例如,GPT-4的出現就代表了AI技術的一個重大里程碑,能夠在自然語言處理方面超越人類。 未來幾年內,AI可能會在更多領域取得突破。例如,2026年可能會出現能夠產生新見解的AI系統,2027年可能會有能夠執行現實世界任務的機器人。這些進步不僅會改善人類的生活質量,也會對科學和技術進步產生深遠影響。 安全與社會影響 當AI日益普及時,安全和社會影響問題也成爲了關注的焦點。Sam Altman強調,解決AI的安全問題不僅是技術層面的挑戰,也需要社會的參與和配合。這包括確保AI系統的對齊性,即AI系統能夠按照人類的長期目標運行,而不是被利用來滿足短期利益。 此外,AI的普及應該以促進社會公平為導向。這意味著應該盡量避免AI技術的集中化,讓更多的人能夠平等地享受AI帶來的益處。這樣,AI技術將不僅能夠提高人類的工作效率,也能夠促進社會的穩定和發展。 未來的展望 雖然AI的發展帶來了許多挑戰,但同時也充滿了希望。通過科學家和工程師們的努力,AI將在未來幾年內繼續推動人類社會的進步。這不僅會改善我們的生活質量,也會拓展人類的知識和創造力。 因此,Sam Altman的《The Gentle Singularity》不僅是一篇論文,更是一個號召,呼籲人們積極參與AI的發展,共同創造一個更加美好的未來。 #AI...
近來,蘋果公司針對AI的推理模型進行了一項研究,發現這些模型在複雜問題面前的表現令人意外地差勁。蘋果的研究團隊挑戰了各大公司的AI系統,包括OpenAI、Anthropic和Google,結果顯示這些模型在簡單問題上取得了令人印象深刻的成績,但面對更複雜的邏輯謎題時,卻遭遇了完全的邏輯崩潰。 AI推理模型的局限性 蘋果的研究人員設計了一系列受控的邏輯謎題環境,例如塔羅漢諾塔和河流過河問題,來評估AI模型的推理能力。通過這些實驗,他們發現盡管像Claude 3.7 Sonnet Thinking和DeepSeek-R1等大型推理模型(LRMs)在中等複雜度的任務上表現優於標準的大型語言模型(LLMs),但當問題複雜度進一步增加時,兩類型的模型都會完全失效,準確率下降到零。 蘋果的研究成果對於AI界的影響很大,特別是對於OpenAI、Google和Anthropic等公司的聲稱——這些公司一直在推崇自己的AI系統在複雜問題上具有優越的解決能力。蘋果的研究表明,這些模型在嚴格的邏輯檢驗下,仍然缺乏真正的推理能力,無法像人類一樣思考和解決問題。 邏輯謎題中的AI崩潰 在這項研究中,蘋果的團隊使用了多種邏輯謎題來評估AI模型的推理能力。他們發現,當問題的複雜度增加時,AI模型的推理努力會先增加,然後在接近失敗點時突然減少,儘管有足夠的計算資源。這種現象表明AI模型在邏輯計算方面存在著明顯的局限性,即使在具備正確算法的情況下,模型仍然無法可靠地執行步驟式指令。 此外,研究還發現AI模型的表現在熟悉和不熟悉的謎題之間會有顯著差異,這意味著模型的成功往往依賴於訓練數據的熟悉度,而不是真正的推理能力。蘋果的研究結果對於AI界來說是一個警醒,強調了在推理能力方面的研究仍有很長的路要走。 結論 蘋果的研究成果對於AI界的影響是深遠的。它們提醒我們,雖然AI模型在某些方面取得了令人印象深刻的成果,但仍然缺乏真正的推理能力和智慧。當前AI系統的發展仍然依賴於巨大的數據庫和計算力,但它們在邏輯推理和複雜問題解決方面仍有很大的局限性。 這項研究也為AI的未來發展提供了重要的啟示,鼓勵研究人員更加深入地探索AI模型的局限性,從而推動AI技術的進一步發展。蘋果的研究對於AI界來說是一個重要的警示,提醒我們不要過度高估AI的能力,而應該更好地理解其局限性,從而更好地利用AI技術來助力人類的智慧提升。 #ArtificialIntelligence #AI推理模型 #蘋果研究成果
Sam Altman,OpenAI的CEO,正在透過其公司World推動一項創新的生物識別技術,使用眼球掃描技術在英國推出。這項技術旨在幫助人們區分真人和AI生成的內容,特別是在AI深度偽造(Deepfakes)愈趨普遍的時代。World公司的核心產品是一種稱為Orb的球形裝置,能夠掃描人眼的虹膜並生成一個獨特的數字身份證明,稱為World ID。 這項技術的主要目的是為用戶提供一個安全的方式來證明自己是真人,而不是AI生成的機器人或深度偽造。通過Orb裝置,人們可以在不透露個人資料的情況下登入網絡應用程式,如Telegram、Minecraft、Reddit和Discord等。此外,使用者還會獲得一種名為Worldcoin的加密貨幣作為獎勵。 World公司選擇英國作為其技術的重要市場,並在倫敦開設多個地點。計劃在未來幾個月內將技術擴展到曼徹斯特、伯明翰、卡迪夫、貝爾法斯特和格拉斯哥等城市。這項技術在全球範圍內已經被約1300萬人使用,涉及多個國家,包括墨西哥、德國、日本、韓國、葡萄牙和泰國。 World公司的這項技術面臨著一些挑戰,尤其是在數據隱私方面。儘管公司聲稱不會儲存任何個人生物識別數據,並且所有身份驗證信息都保存在用戶的手機上,但仍有關注者對其隱私政策持謹慎態度。這項技術的推出對於人們在網絡上如何安全地識別身份提出了新的思考。 英國擁有高度數字化的社會結構,約75%的公民表示已經感受到AI的影響。因此,這項技術在英國的推出對於增強人們對AI的認識具有重要意義。同時,隨著AI生成的內容越來越難以區分,World公司的技術正嘗試解決這一問題,提供一個安全的方式來證明身份。 在未來,當全球對AI身份識別技術的需求日益增強時,World公司的這項技術將會在全球範圍內發揮重要作用。人們將在線上安全性和身份驗證方面有更多的選擇和保障。 #AI科技 #生物識別技術 #數字身份證明 #Worldcoin #WorldID #SamAltman