來自美國NIST的人工智能風險管理框架旨在提高對人工智能的信任

通過帕特裏克·阿諾德

類別:
公司及產品資訊

美國商務部國家標準與技術研究所(NIST)發布了它的人工智能風險管理框架(AI RMF),這是一份指導文件,供設計、開發、部署或使用AI係統的組織自願使用,以幫助管理人工智能的許多風險人工智能風險管理人工智能技術。AI RMF遵循國會要求NIST開發框架的方向,並與私營和公共部門密切合作。

自願框架將有助於開發和部署人工智能技術,使美國和其他國家和組織能夠在管理風險的同時提高人工智能的可信度。與傳統軟件相比,人工智能帶來了幾種不同的風險。人工智能係統是根據數據進行訓練的,這些數據可能會隨著時間的推移而變化,有時會發生重大而意外的變化,從而以難以理解的方式影響係統。這些係統還受到社會動態和人類行為的影響。人工智能風險可能來自這些技術和社會因素的複雜相互作用。

該框架使組織能夠以不同的方式思考人工智能和風險。它促進了製度文化的變革,鼓勵組織以新的視角看待人工智能——包括如何思考、溝通、衡量和監控人工智能風險及其潛在的積極和消極影響。

該框架是NIST培養對人工智能技術信任的更大努力的一部分。它可以幫助任何行業或規模的組織增強其人工智能風險管理方法,並有望推動一套新的最佳實踐和標準的開發。

AI RMF分為兩部分。第一部分討論了組織如何構建與人工智能相關的風險,並概述了值得信賴的人工智能係統的特征。第二部分是框架的核心,描述了四個具體功能——治理、映射、測量和管理——以幫助組織在實踐中解決人工智能係統的風險。這些功能可以應用於特定於上下文的用例以及AI生命周期的任何階段。

NIST已經開發了18個月的AI RMF。該文件反映了NIST從240多個不同組織收到的關於框架草案版本的大約400組正式意見。此外,NIST計劃啟動一個值得信賴和負責任的AI資源中心,以幫助組織將AI RMF 1.0付諸實踐。

該框架是NIST日益增長的人工智能相關工作組合的一部分,其中包括基礎和應用研究,以及關注測量和評估、技術標準和對人工智能政策的貢獻。

Baidu
map