螞蟻集團、騰訊、百度等聯(lián)合編制大模型安全國際標準正式發(fā)布
4月17日消息,第 27 屆聯(lián)合國科技大會(the 27th UN CSTD Annual Meeting)正在瑞士日內瓦召開。大會期間,世界數(shù)字技術院(WDTA)發(fā)布了兩項國際標準:《生成式人工智能應用安全測試標準》、《大語言模型安全測試方法》。
這兩項國際標準是由 OpenAI、螞蟻集團、科大訊飛、谷歌、微軟、英偉達、百度、騰訊等數(shù)十家單位的多名專家學者共同編制而成。螞蟻集團牽頭編制《大語言模型安全測試方法》,并參與制定了《生成式人工智能應用安全測試標準》。
圖源:螞蟻集團公眾號
這次發(fā)布的兩項標準是大模型及生成式 AI 應用程序方面的安全性測試標準,有助于行業(yè)構建安全、可靠的人工智能生態(tài)系統(tǒng)。
《生成式人工智能應用安全測試標準》由 WDTA 作為牽頭單位,螞蟻集團等多家單位共同參與。這項標準為測試和驗證生成式 AI 應用的安全性提供了一個框架,特別是那些使用大語言模型(LLM)構建的應用程序。它定義了人工智能應用程序架構每一層的測試和驗證范圍,包括基礎模型選擇、嵌入和矢量數(shù)據(jù)庫、RAG 或檢索增強生成、AI 應用運行時安全等等。
《大語言模型安全測試方法》由螞蟻集團作為牽頭單位。這項標準則為大模型本身的安全性評估提供了一套全面、嚴謹且實操性強的結構性方案。它提出了大語言模型的安全風險分類、攻擊的分類分級方法以及測試方法,并率先給出了四種不同攻擊強度的攻擊手法分類標準,系統(tǒng)地提供了大語言模型抗攻擊測試的評估指標、能力分級、測試數(shù)據(jù)集構建要求和測試流程等。
WDTA 官網(wǎng)發(fā)布《大語言模型安全測試方法》標準 圖源:螞蟻集團公眾號
螞蟻集團機器智能部總經(jīng)理、螞蟻安全實驗室首席科學家王維強表示,生成式 AI 將釋放巨大的生產力,但也要對它帶來的新風險高度警惕。大型科技公司應在促進生成式 AI 安全和負責任的發(fā)展中有所擔當,利用其資源、專業(yè)知識和影響力推動最佳實踐,構建一個優(yōu)先考慮安全、隱私、可靠和倫理優(yōu)先的生態(tài)系統(tǒng)。
2、電商號平臺僅提供信息存儲服務,如發(fā)現(xiàn)文章、圖片等侵權行為,侵權責任由作者本人承擔。
3、如對本稿件有異議或投訴,請聯(lián)系:info@dsb.cn
