
(SeaPRwire) – 2025年,隨著人們努力理解人工智慧(AI)技術的快速發展與應用,關於AI的誤解層出不窮。以下是三個值得在新年拋棄的常見迷思。
AI模型發展已觸及瓶頸
當GPT-5於5月發布時,人們再次(並非首次)懷疑AI是否已觸及發展瓶頸。儘管命名有大幅升級,但其進步幅度看似僅是漸進式的。《紐約客》(The New Yorker)曾刊登一篇標題為「如果AI從此不再大幅進步怎麼辦?」的文章,聲稱GPT-5「是最新的跡象,顯示大型語言模型的發展已停滯」。
事實很快證明,儘管命名具有里程碑意義,GPT-5的核心其實是在降低成本的前提下提升效能。五個月後,OpenAI、Google與Anthropic皆推出了模型,在具經濟價值的任務上表現出顯著進展。「與『擴展時代已結束』的普遍看法相反,」Google DeepMind深度學習團隊負責人奧里奧爾·比尼亞爾斯(Oriol Vinyals)在Gemini 3發布後表示,「Google最新模型的效能躍升幅度『前所未見』。目前看不到任何瓶頸。」
的確有理由探討AI模型將如何具體進步。在取得訓練數據成本高昂的領域(例如將AI代理部署為個人購物顧問),進展可能較為緩慢。「也許AI會持續進步,同時也可能在某些重要方面依舊表現不佳,」安全與新興技術中心(Center for Security and Emerging Technology)臨時執行董事海倫·托納(Helen Toner)表示。但「發展停滯」的說法實難成立。
自駕車比人類駕駛更危險
當聊天機器人的AI發生故障時,通常只是使用者犯了個小錯,或是數錯「草莓」(strawberry)一詞中有幾個「r」。但當自駕車的AI故障時,可能會導致人們受傷。難怪許多人對這項新技術猶豫不前。
英國一項針對2000名成年人的調查顯示,僅22%的受訪者對乘坐無人駕駛汽車感到放心;美國的這一比例則為13%。10月,Waymo的自駕車在舊金山撞傷一隻貓,引發公憤。
然而,根據Waymo對1億英里無人駕駛里程數據的分析,自駕車在許多情況下已證明比人類駕駛更安全。Waymo的車輛造成人員受傷的事故率比人類駕駛低近五倍,造成「嚴重受傷或更糟」的事故率則低11倍。
AI無法創造新知識
2013年,數學家塞巴斯蒂安·布貝克(Sébastien Bubeck)在一本權威期刊上發表了一篇關於圖論的論文。「我們留下了幾個開放性問題,隨後我與普林斯頓大學(Princeton)的研究生一起攻關,」現任OpenAI研究員的布貝克表示,「我們解決了大部分問題,只剩一個懸而未決。」十多年後,布貝克將這個問題交給基於GPT-5構建的系統。
「我們讓它思考了兩天,」他說,「模型在其中發現了一個奇蹟般的恆等式,並實際解決了這個問題。」
批評者認為,像GPT-5這樣的大型語言模型(LLMs)無法產生任何原創內容,僅能複製訓練數據中的資訊——因此LLMs獲得了「」這一充滿諷刺的稱號。6月,蘋果(Apple)發表一份報告,聲稱LLMs的任何推理能力都是「幻覺」。
確實,LLMs生成回應的方式與人類推理不同。它們難以解讀簡單圖表,儘管能在頂級數學與程式競賽中奪得金牌,並「自主」提出「新穎的數學建構」。但在簡單任務上表現不佳,似乎並不妨礙它們提出有用且複雜的想法。
「LLMs確實能執行一系列邏輯步驟,解決需要演繹與歸納的問題,」AI安全中心(Center for AI Safety)執行董事丹·亨德里克斯(Dan Hendrycks)向《時代》(TIME)表示,「至於是否將此過程稱為『推理』,則取決於個人與詞典的定義。」
本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。
分類: 頭條新聞,日常新聞
SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。