
試想一下,你指示AI智能體在當天結束前將1萬美元兌換成加元。智能體執行了任務,卻搞砸了。它誤讀了參數,未經授權進行了杠桿交易,導致你的本金瞬間虧空。此時,責任該由誰承擔?損失又該由誰來賠償?
目前,沒有任何一方需要為此擔責。一組研究人員指出,這正是代理式人工智能時代的致命短板。
在4月8日發表的一篇論文中,來自微軟研究院、哥倫比亞大學、谷歌DeepMind、Virtuals Protocol以及人工智能初創公司T54 Labs的研究人員,提出了一套名為“代理風險標準”(ARS)的全新綜合性金融保護框架,旨在為AI智能體提供與傳統金融交易中第三方托管、保險和清算所同等效力的保障機制。該標準是開源的,可通過T54 Labs在GitHub上獲取。
T54創始人錢德勒·方(Chandler Fang)在發給《財富》雜志的電子郵件聲明中表示:“我們探討的是整個‘代理經濟’,這與僅用AI智能體完成金融任務有著本質區別。”他指出,代理交易主要分為兩大類:人工介入的金融交易和智能體自主交易。他表示,目前人們都聚焦“人工介入”交易,而這恰恰是問題所在,因為當前的金融生態系統除了將全部責任推給人類之外,別無他法。研究人員解釋稱,這一切的根源在于這項技術本身的概率性特質。
概率性問題
該團隊指出,核心問題在于他們所說的“保障缺口”,其定義為“人工智能安全技術所提供的概率性可靠性,與用戶委托高風險任務前所需的可執行保障之間存在脫節”。這一表述讓人們聯想到領導力專家杰森·懷爾德(Jason Wild)此前向《財富》雜志闡述的觀點:人工智能工具的概率性特質,讓各地的管理者感到困惑。T54團隊寫道:“由于無法限制潛在損失,用戶會明智地將人工智能任務限定在低風險范圍內,從而限制了基于智能體的服務的在更廣泛場景中的應用。”
他們認為,模型層面的安全優化雖能降低人工智能出現故障的概率,卻無法徹底消除風險。大語言模型本質上具有隨機性,這意味著,無論AI智能體經過多么嚴苛的訓練或調優,仍可能出現“幻覺”、失誤。當該智能體操控著你的證券經紀賬戶或執行金融應用程序編程接口(API)調用時,哪怕僅出現一次失誤,都可能立即造成損失。
“大多數可信的人工智能研究的核心目標都是降低故障發生的概率,”微軟研究院高級研究員華文越(Wenyue Hua)表示,“這項工作至關重要,但概率永遠無法等同于保障。代理風險標準采用了互補的方法:我們不追求打造完美無缺的模型,而是明確界定模型出現故障時的財務處理規則。最終我們構建了一套清算協議,為用戶提供確定性的保障,而非概率性的承諾。”
研究人員提出的解決方案直接借鑒了數百年來的金融工程經驗。代理風險標準引入了分層清算框架:設立托管金庫,用于保管服務費,僅在任務完成并通過核驗后,才向服務方劃轉資金;要求人工智能服務提供商在動用用戶資金前,繳納抵押擔保;設置可選承保機制——由承擔風險的第三方機構對人工智能故障風險進行定價,收取保費,并承諾出現問題時賠付用戶。
該框架將兩類人工智能任務區分開來:標準服務任務(如制作幻燈片、撰寫報告)涉及的財務風險有限,因此基于第三方托管的清算機制足以覆蓋風險;涉及資金交易的任務——如外匯交易、杠桿頭寸、金融應用程序編程接口調用——要求智能體在結果核驗前動用用戶資金,在此類場景下,承保機制就變得至關重要。這與衍生品市場的運作原理完全一致:在衍生品市場中,清算所作為交易雙方的中間機構,避免單次違約事件引發連鎖反應。
論文通過表格形式,將代理風險標準與現有風險分攤機制進行了明確對標:建筑業采用履約保函;電子商務依托平臺托管;金融市場執行保證金制度并由清算所兜底;去中心化金融(DeFi)依賴智能合約抵押。研究人員認為,AI智能體不過是下一個需要構建自身基礎設施的高風險服務類別。
時機至關重要
金融監管機構已開始密切關注相關動態。美國金融業監管局(FINRA)在12月發布的《2026年監管監督報告》中,首次增設生成式人工智能章節,警告經紀商需針對人工智能“幻覺”問題制定專項處理流程,并嚴格監控可能“超出用戶實際或預期范圍及權限”運行的AI智能體。美國證券交易委員會(SEC)及其他監管機構也密切關注該領域動向。
監管機構尚未建立代理風險標準:該標準不是規則,而是協議——標準化的狀態機,用于管理資金鎖定、索賠申報,并在AI智能體出現故障時觸發賠付。研究人員承認,代理風險標準只是龐大信任體系中的一個層級,真正的瓶頸在于為代理行為構建精準的風險定價模型。
錢德勒·方告訴《財富》雜志:“本研究是構建高層次框架的初步探索,旨在系統梳理智能體自主交易的完整流程,并對其風險評估機制進行分析。未來,我們應納入特定細則、模型和其他研究成果,厘清如何在不同應用場景中開展風險評估。”(財富中文網)
譯者:中慧言-王芳
試想一下,你指示AI智能體在當天結束前將1萬美元兌換成加元。智能體執行了任務,卻搞砸了。它誤讀了參數,未經授權進行了杠桿交易,導致你的本金瞬間虧空。此時,責任該由誰承擔?損失又該由誰來賠償?
目前,沒有任何一方需要為此擔責。一組研究人員指出,這正是代理式人工智能時代的致命短板。
在4月8日發表的一篇論文中,來自微軟研究院、哥倫比亞大學、谷歌DeepMind、Virtuals Protocol以及人工智能初創公司T54 Labs的研究人員,提出了一套名為“代理風險標準”(ARS)的全新綜合性金融保護框架,旨在為AI智能體提供與傳統金融交易中第三方托管、保險和清算所同等效力的保障機制。該標準是開源的,可通過T54 Labs在GitHub上獲取。
T54創始人錢德勒·方(Chandler Fang)在發給《財富》雜志的電子郵件聲明中表示:“我們探討的是整個‘代理經濟’,這與僅用AI智能體完成金融任務有著本質區別。”他指出,代理交易主要分為兩大類:人工介入的金融交易和智能體自主交易。他表示,目前人們都聚焦“人工介入”交易,而這恰恰是問題所在,因為當前的金融生態系統除了將全部責任推給人類之外,別無他法。研究人員解釋稱,這一切的根源在于這項技術本身的概率性特質。
概率性問題
該團隊指出,核心問題在于他們所說的“保障缺口”,其定義為“人工智能安全技術所提供的概率性可靠性,與用戶委托高風險任務前所需的可執行保障之間存在脫節”。這一表述讓人們聯想到領導力專家杰森·懷爾德(Jason Wild)此前向《財富》雜志闡述的觀點:人工智能工具的概率性特質,讓各地的管理者感到困惑。T54團隊寫道:“由于無法限制潛在損失,用戶會明智地將人工智能任務限定在低風險范圍內,從而限制了基于智能體的服務的在更廣泛場景中的應用。”
他們認為,模型層面的安全優化雖能降低人工智能出現故障的概率,卻無法徹底消除風險。大語言模型本質上具有隨機性,這意味著,無論AI智能體經過多么嚴苛的訓練或調優,仍可能出現“幻覺”、失誤。當該智能體操控著你的證券經紀賬戶或執行金融應用程序編程接口(API)調用時,哪怕僅出現一次失誤,都可能立即造成損失。
“大多數可信的人工智能研究的核心目標都是降低故障發生的概率,”微軟研究院高級研究員華文越(Wenyue Hua)表示,“這項工作至關重要,但概率永遠無法等同于保障。代理風險標準采用了互補的方法:我們不追求打造完美無缺的模型,而是明確界定模型出現故障時的財務處理規則。最終我們構建了一套清算協議,為用戶提供確定性的保障,而非概率性的承諾。”
研究人員提出的解決方案直接借鑒了數百年來的金融工程經驗。代理風險標準引入了分層清算框架:設立托管金庫,用于保管服務費,僅在任務完成并通過核驗后,才向服務方劃轉資金;要求人工智能服務提供商在動用用戶資金前,繳納抵押擔保;設置可選承保機制——由承擔風險的第三方機構對人工智能故障風險進行定價,收取保費,并承諾出現問題時賠付用戶。
該框架將兩類人工智能任務區分開來:標準服務任務(如制作幻燈片、撰寫報告)涉及的財務風險有限,因此基于第三方托管的清算機制足以覆蓋風險;涉及資金交易的任務——如外匯交易、杠桿頭寸、金融應用程序編程接口調用——要求智能體在結果核驗前動用用戶資金,在此類場景下,承保機制就變得至關重要。這與衍生品市場的運作原理完全一致:在衍生品市場中,清算所作為交易雙方的中間機構,避免單次違約事件引發連鎖反應。
論文通過表格形式,將代理風險標準與現有風險分攤機制進行了明確對標:建筑業采用履約保函;電子商務依托平臺托管;金融市場執行保證金制度并由清算所兜底;去中心化金融(DeFi)依賴智能合約抵押。研究人員認為,AI智能體不過是下一個需要構建自身基礎設施的高風險服務類別。
時機至關重要
金融監管機構已開始密切關注相關動態。美國金融業監管局(FINRA)在12月發布的《2026年監管監督報告》中,首次增設生成式人工智能章節,警告經紀商需針對人工智能“幻覺”問題制定專項處理流程,并嚴格監控可能“超出用戶實際或預期范圍及權限”運行的AI智能體。美國證券交易委員會(SEC)及其他監管機構也密切關注該領域動向。
監管機構尚未建立代理風險標準:該標準不是規則,而是協議——標準化的狀態機,用于管理資金鎖定、索賠申報,并在AI智能體出現故障時觸發賠付。研究人員承認,代理風險標準只是龐大信任體系中的一個層級,真正的瓶頸在于為代理行為構建精準的風險定價模型。
錢德勒·方告訴《財富》雜志:“本研究是構建高層次框架的初步探索,旨在系統梳理智能體自主交易的完整流程,并對其風險評估機制進行分析。未來,我們應納入特定細則、模型和其他研究成果,厘清如何在不同應用場景中開展風險評估。”(財富中文網)
譯者:中慧言-王芳
Imagine you tell an AI agent to convert $10,000 in U.S. dollars to Canadian dollars by end of day. The agent executes—badly. It misreads parameters, makes an unauthorized leveraged bet, and your capital evaporates. Who’s responsible? Who pays you back?
Right now, nobody has to. And that, a group of researchers argues, is the defining vulnerability of the agentic AI era.
In a paper published on April 8, researchers from Microsoft Research, Columbia University, Google DeepMind, Virtuals Protocol, and AI startup T54 Labs have proposed a sweeping new financial protection framework called the Agentic Risk Standard (ARS), designed to do for AI agents what escrow, insurance, and clearinghouses do for traditional financial transactions. The standard is open-source and available on GitHub via T54 Labs.
We are talking about an entire “agentic economy” here, T54 founder Chandler Fang told Fortune in an emailed statement; “it is very different from simply using AI agents for financial tasks.” He said there are two fundamental types of agentic transactions: human-in-the-loop financial transactions and agent-autonomous transactions. Everyone’s focus is on the human-in-the-loop stuff, he said, and that’s a real problem, because the financial ecosystem currently has no way to operate other than to defer all liability back to a human. It all comes down to the probabilistic nature of this technology, the researchers explained.
The probabilistic problem
The core problem the team identifies is what they call a “guarantee gap,” which they define as a “disconnect between the probabilistic reliability that AI safety techniques provide and the enforceable guarantees users need before delegating high-stakes tasks.” This description recalls what leadership expert Jason Wild previously told Fortune about how AI tools are probabilistic, befuddling managers everywhere. “Without a way to bound potential losses,” the T54 team wrote, “users rationally limit AI delegation to low-risk tasks, constraining the broader adoption of agent-based services.”
Model-level safety improvements, they argue, can reduce the probability of an AI failure, but cannot eliminate it. Large language models are inherently stochastic, meaning that no matter how well trained or well tuned an AI agent is, it can still hallucinate and make mistakes. When that agent is sitting on top of your brokerage account or executing financial API calls, even a single failure can produce immediate, realized loss.
“Most trustworthy AI research aims to reduce the probability of failure,” said Wenyue Hua, senior researcher at Microsoft Research. “That work is essential, but probability is not a guarantee. ARS takes a complementary approach: Instead of trying to make the model perfect, we formalize what happens financially when it isn’t. The result is a settlement protocol where user protection is deterministic, not probabilistic.”
The researchers’ solution borrows directly from centuries of financial engineering. ARS introduces a layered settlement framework: escrow vaults that hold service fees and release them only upon verified task delivery; collateral requirements that AI service providers must post before accessing user funds; and optional underwriting—a risk-bearing third party that prices the danger of an AI failure, charges a premium, and commits to reimbursing the user if things go wrong.
The framework distinguishes between two types of AI jobs: Standard service tasks—generating a slide deck, writing a report—carry limited financial exposure, so escrow-based settlement is sufficient. Tasks involving the exchange of funds—currency trading, leveraged positions, financial API calls—require the agent to access user capital before outcomes can be verified, which is where underwriting becomes essential. It is the same logic that governs derivatives markets, where clearinghouses stand between counterparties so that a single default doesn’t cascade.
The paper maps ARS explicitly against existing risk-allocation industries in a table: construction uses performance bonds; e-commerce uses platform escrow; financial markets use margin requirements and clearinghouses; and DeFi uses smart contract collateralization. AI agents, the researchers argue, are simply the next high-stakes service category that needs its own version of that infrastructure.
The timing is crucial
Financial regulators are already circling. FINRA’s 2026 regulatory oversight report, released in December, included a first-ever section on generative AI, warning broker-dealers to develop procedures specifically targeting hallucinations and to scrutinize AI agents that may act “beyond the user’s actual or intended scope and authority.” The SEC and other agencies are watching closely.
But ARS is pitched as something regulators haven’t yet built: not a set of rules, but a protocol—a standardized state machine that governs how funds are locked, how claims are filed, and how reimbursements are triggered when an AI agent fails. The researchers acknowledge ARS is one layer of a larger trust stack, and that the real bottleneck will be building accurate risk-pricing models for agentic behavior.
“This paper is the first step in setting up a high-level framework to capture the end-to-end process associated with agent-autonomous transactions and what the risk assessment looks like,” Fang told Fortune. “Further down the road, we should introduce more specific details, models, and other research to understand how we figure out risk across different use cases.”