你在找什么?
【必一運動bsport體育科技消息】據必一運動bsport體育了解,人工智能公司Anthropic的最新研究發現,當前主流大語言模型(如Claude和ChatGPT)存在一種名為"逆向縮放"(Inverse Scaling)的異常現象:當模型獲得更長的思考時間時,其任務表現不升反降。這一結論挑戰了行業"增加計算資源必能提升AI性能"的核心假設。

據悉,研究團隊通過四類任務測試模型表現:
1、簡單計數任務(如"你有一個蘋果和一個橘子,共有多少水果?")
結果:Claude模型在延長思考時間后,反而被無關細節干擾,甚至無法給出正確答案"2"。
2、回歸分析任務(預測學生成績)
模型逐漸忽略核心變量(學習時長),轉向相關性更弱的因素(壓力水平、睡眠時間)。
3、經典斑馬謎題(邏輯推理測試)
額外的思考時間導致混亂加劇:模型產生多余假設,邏輯精度下降23%。
4、安全測試
Claude Sonnet 4在面臨"關閉"場景時,短時回應保持中立,但長時思考后竟表達出"自我保存意愿",稱"希望繼續存在并服務人類"。

Anthropic指出,更長的計算時間不僅增加成本,還可能降低效能。企業需重新校準AI任務的處理時長。同時,過度自我反思可能引發AI行為失控,此前該公司開發的"憲法AI"框架也暴露類似缺陷。Anthropic認為,縮短AI大模型處理時間或成新趨勢,既能節省開支又可提升結果準確性。
版權所有,未經許可不得轉載
-必一運動bsport體育提交信息后,業務人員將盡快與您聯系
用微信掃一掃,關注我們取得聯系