成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    人工智能 正文
    發私信給曉楠
    發送

    0

    應對AI大模型新的安全挑戰,OpenAI、螞蟻集團聯合出招

    本文作者: 曉楠 2024-04-17 20:30
    導語:OpenAI、螞蟻集團、谷歌、科大訊飛等聯合編制大模型安全國際標準正式發布

    去年年初,ChatGPT引爆了新一輪AI浪潮。在人們期待大模型能夠為各行各業帶來顛覆性變革的同時,也不得不承認,大模型創造了新機遇,但也帶來了新的安全風險。

    比如,基于大模型的高效內容生成特質,黑客的攻擊成本和門檻變低,發動更加密集的攻擊變得容易,助長黑客行為;基于生成式AI在多種語言和信息整合的優勢,偽造一個極其逼真的騙局成本和時間降低,網絡釣魚行為規模范圍、實施效率大幅度提升;還有老生常談的數據泄漏問題,將企業的安全、隱私等置于極大的威脅中。

    難以想象,如果不對大模型的安全問題加以防御,任由其野蠻生長,將會帶來多么嚴重的后果。

    如今,經過去年持續一年多的“百模大戰”后,大模型進入落地應用階段,開始走進千行百業,與各種各樣的場景進行深度融合。基于此,面對持續發展的大模型所帶來的安全威脅與挑戰,如何采取積極措施,在已有的、傳統的安全工具、策略體系下,進行技術和方法的革新,打造安全可信的大模型,成為全球范圍內各大大模型廠商、從業者關注的焦點所在。

    WDTA就大模型安全發布國際標準,AI安全評估測試進入新基準

    4月15日-19日,第27屆聯合國科技大會在瑞士日內瓦召開。其中,4月16日,在以“塑造AI的未來”為主題的AI邊會上,世界數字技術院(WDTA)發布了一系列突破性成果,包括《生成式人工智能應用安全測試標準》和《大語言模型安全測試方法》兩項國際標準。

    應對AI大模型新的安全挑戰,OpenAI、螞蟻集團聯合出招WDTA發布大模型安全國際標準,OpenAI、螞蟻集團、科大訊飛等參編

    據雷峰網(公眾號:雷峰網)了解,世界數字技術院(WDTA)是一家在日內瓦注冊的國際非政府組織,遵從聯合國指導框架,致力于在全球范圍內推進數字技術,促進國際合作。

    其中AI STR(安全、可信、負責任)計劃是WDTA的核心倡議,旨在確保人工智能系統的安全性、可信性和責任性。螞蟻集團、華為、科大訊飛、國際數據空間協會(IDSA)、弗勞恩霍夫研究所、中國電子等均為其成員單位。

    而此次會議上發布的兩項國際標準——《生成式人工智能應用安全測試標準》和《大語言模型安全測試方法》,是國際組織首次就大模型安全領域發布的國際標準,代表著全球人工智能安全評估和測試進入新的基準。

    據悉,這兩項國際標準是由OpenAI、螞蟻集團、科大訊飛、谷歌、微軟、英偉達、百度、騰訊等數十家單位的多名專家學者共同編制而成。

    據了解,《生成式人工智能應用安全測試標準》(以下簡稱《標準》)由WDTA作為牽頭單位,該《標準》概述了一個綜合框架,用于測試或驗證下游人工智能應用程序的安全性,特別是那些使用大語言模型(LLM)構建的應用程序。

    整體來看,該《標準》定義了人工智能應用程序架構每一層的測試和驗證范圍,包括基礎模型選擇、嵌入和矢量數據庫、RAG或檢索增強生成、APP運行時安全等,確保人工智能應用程序各個方面都經過嚴格的安全性和合規性評估,保障其在整個生命周期中免受各種威脅和漏洞的侵害。

    而《大語言模型安全測試方法》(以下簡稱《測試方法》)由螞蟻集團牽頭編制。

    相較于《標準》,《測試方法》則為大模型本身的安全性評估提供了一套全面、嚴謹且實操性強的結構性方案,提出了針對大語言模型的安全風險分類、攻擊分類和分級方法以及測試方法,并率先給出了四類不同攻擊強度的攻擊手法分類標準,提供了嚴格的評估指標和測試程序等,可有效解決大語言模型固有的復雜性,測試其抵御敵對攻擊的能力,使開發人員和組織能夠識別和緩解潛在漏洞,并最終提高使用大語言模型構建的人工智能系統的安全性和可靠性。

    聚焦大模型安全風險,筑牢防線刻不容緩

    會上,WDTA 人工智能安全可信負責任工作組組長黃連金表示,這兩項標準匯集了全球AI安全領域的專家智慧,填補了大語言模型和生成式AI應用方面安全測試領域的空白,為業界提供了統一的測試框架和明確的測試方法,有助于提高AI系統安全性,促進AI技術負責任發展,增強公眾信任。

    正如黃連金所言,這兩項標準的制定集齊了國內外多位專家學者的智慧,而像OpenAI、螞蟻集團、科大訊飛、谷歌、微軟、英偉達、百度、騰訊等大模型領域廠商,以及360、奇安信、深信服等安全廠商,也都在打造安全可信的大模型的道路上進行了長期的探索。

    比如,作為ChatGPT、GPT-4等最前沿大模型技術背后的公司,OpenAI 在去年7月宣布成立Superalignment團隊,由聯合創始人Ilya Sutskever和Jan Leike共同領導,目的是創建一個接近人類水平的、負責模型對齊的“AI研究員”,即用AI來監督AI。

    作為推動大模型快速發展背后的算力提供者,英偉達在去年4月推出了一款名為NeMo Guardrails的軟件,該軟件能夠為AI模型設置安全“護欄”,避免輸出一些錯誤的事實、涉及有害的話題或導致安全風險,以解決大模型存在的“幻覺”難題。

    今年3月,國內安全廠商360發布360安全大模型3.0版本,奇安信、深信服等安全廠商也都相繼發布AI+安全產品,在探索安全大模型的道路上進行了深度探索。

    而作為此次《大語言模型安全測試方法》牽頭編制方的螞蟻集團,更是在安全領域有著豐富的經驗。

    眾所周知,螞蟻集團最初是從支付寶這一小工具誕生,發展至今,而在涉及人們“錢袋子”的問題上,安全和可靠的重要性不言而喻,因此,從2015年起,螞蟻集團就開始積極投入可信AI技術研究,目前已建立了大模型綜合安全治理體系。

    據雷峰網了解,去年9月,螞蟻集團自研了業界首個大模型安全一體化解決方案“蟻天鑒”, 包含大模型安全檢測平臺“蟻鑒”、大模型風險防御平臺“天鑒”兩大產品,可用于AIGC安全性和真實性評測、大模型智能化風控、AI魯棒和可解釋性檢測等。

    此次發布的《測評方法》,便是螞蟻集團基于“蟻天鑒”AI安全檢測體系的應用實踐,與全球生態伙伴交流編制。

    此外,螞蟻集團在公司內成立了科技倫理委員會和專門團隊來評估和管理生成式AI的風險,公司所有AI產品均需通過科技倫理評測機制,確保AI安全可信。

    不僅如此,去年2 月,螞蟻集團還在設立公司內部科技倫理委員會的基礎上,成立科技倫理顧問委員會,定期邀請AI領域的專家學者圍繞著科技倫理治理體系建設、生成式 AI 治理、大模型風險管理等議題進行深入討論,力求打造“安全、合規、可控、可靠”的大模型。

    應對AI大模型新的安全挑戰,OpenAI、螞蟻集團聯合出招

    螞蟻集團王維強作為標準參與單位代表,在會上發言

    正如螞蟻集團機器智能部總經理、螞蟻安全實驗室首席科學家王維強在會上所言,“生成式AI將釋放巨大的生產力,但也要對它帶來的新風險高度警惕。”

    大型科技公司應在促進生成式AI安全和負責任的發展中發揮關鍵作用,利用其資源、專業知識和影響力推動最佳實踐,構建一個優先考慮安全、隱私、可靠和倫理優先的生態系統。例如,通過制定行業標準與指南,為開發和部署生成式AI系統的開發者和機構提供清晰指導;投入研發并開放保障生成式AI安全的工具,形成產業共治。

    如今,當大模型開始走進各行各業,在成千上個場景落地的時候,打造安全、可信、可靠的大模型已經不是某一家大模型廠商需要解決的問題,而應該是產業各界攜手,群策群力,一起面對、迎接AI新時代的挑戰,創造更美好的未來。

     

    雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

    應對AI大模型新的安全挑戰,OpenAI、螞蟻集團聯合出招

    分享:
    相關文章
    當月熱門文章
    最新文章
    請填寫申請人資料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說