最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

看實在RPA Agent智能體安全機制如何破解LLM應用謎題?

2023-11-14 15:01 作者:實在RPA_IPA  | 我要投稿

AI大模型席卷全球,為各個行業(yè)帶來了顛覆式創(chuàng)新機遇,同時也打開了未知的潘多拉魔盒。隨著大語言模型能力的不斷增強和適用范圍延伸,大模型本身帶來的隱私泄漏、數(shù)據(jù)安全等問題越發(fā)成為各大廠商關注的核心,引發(fā)了各界更多的思考與發(fā)聲,今天我們邀請到了王吉偉頻道創(chuàng)始人、AIGC&超自動化分析師王吉偉做客實在智能會客廳,開啟深度對話的共同探索之旅——Agents如何破解LLM應用安全謎題?

不少企業(yè)早已感受到了大模型驚艷四座的“陽面”能力,將其作為提升工作效率的工具,但對于大模型安全保護的“陰面”疑慮也是記憶猶新。 3月份ChatGPT發(fā)生了用戶隱私數(shù)據(jù)泄露事件,OpenAI聲明由于開源代碼庫中存在一個漏洞,使得部分用戶能夠看到另一個用戶的聊天標題記錄,并把ChatGPT短暫下線緊急修補了此漏洞。此事件,讓大家認識到大模型并不是“大安全”。 試想如果不加限制地使用LLM,隨著更多敏感數(shù)據(jù)被傳輸LLM服務器,并被用作模型訓練數(shù)據(jù)集,也就意味著競爭對手通過隨意的聊天對話就能獲悉了你的核心數(shù)據(jù)。如果競對用這些數(shù)據(jù)建模對你進行降維打擊,會對企業(yè)會造成多大損失?

“數(shù)據(jù)泄露會造成嚴重的企業(yè)的信任度降低,讓業(yè)務連續(xù)性受到影響,并可能會帶來一定的法律責任?!?/p>

王吉偉如是說。

實在AI?Agent-個人PC數(shù)字助理

??全球首個“實在RPA-Agent”生成式數(shù)字員工 ??“你說PC做,所說即所得” ??只需一句話,幫你操作電腦完成各種工作 ?

實在TARS-Agent智能體應用加速落地賦能行業(yè)安全運營

與此同時,隨著技術的不斷發(fā)展,LLM的應用也進入到了AI?Agent智能體階段。 AI?Agent正在快速與許多領域融合,超自動化領域尤為如是。目前廠商們都在積極引入或投入到自研大語言模型上去,并基于這些大語言模型打造自己的Agent,以從安全、易用性等各方面提升超自動化的應用效率。而實在智能在今年8月已發(fā)布在業(yè)界首發(fā)基于大模型的Agent智能體產(chǎn)品,即TARS-RPA-Agent——則是基于“TARS+ISSUT”雙模引擎,

有“大腦”,更有“眼睛和手腳”的超自動化智能體

。

實在TARS-Agent是由AI驅(qū)動的程序,當給定目標時,能夠自己創(chuàng)建任務、完成任務、創(chuàng)建新任務、重新確定任務列表的優(yōu)先級、完成新的頂級任務,并循環(huán)直到達到目標。只需輸入一句話或者更簡單的指令,就能通過理解與分析獲悉用戶的意圖,進而規(guī)劃并執(zhí)行一系列任務,最終輸出詳盡而具體的答案。不僅讓輸入更加簡單,也在一定程度上提高了安全系數(shù),有效避免了數(shù)據(jù)泄露的可能,還能最大限度發(fā)揮LLM的能力。 當然,超自動化Agent在數(shù)據(jù)安全方面遠不是減少提示詞輸入那么簡單。出于安全考慮,企業(yè)都希望在應用LLM時過濾內(nèi)部敏感信息。以實在智能與湘財證券共建的財經(jīng)行業(yè)大模型TARS-Finance-7B為例,一方面,金融領域的數(shù)據(jù)分散在各個金融機構,通用大模型缺少金融數(shù)據(jù)進行訓練,金融專業(yè)知識不足;另外一方面,如果從底層開始訓練大模型,所需要投入的算力成本非常高,比如千億級別的通用大模型,訓練一次需要付出幾千萬的成本。同時,金融是強監(jiān)管行業(yè),安全合規(guī)是大模型落地的前提條件和重要保障,金融大模型安全合規(guī)既需要監(jiān)管政策的約束,更需要大模型企業(yè)自身的主動作為,防范大模型的潛在合規(guī)風險成為不少類似金融行業(yè)落地應用的剛性需求。

想要實現(xiàn)LLM的安全使用,需要分析數(shù)據(jù)泄露的相關因素。從已經(jīng)發(fā)生的實踐案例來看,造成LLM數(shù)據(jù)泄露的主要原因,大概有這幾點:

用戶隱私泄露、內(nèi)部安全風險、系統(tǒng)漏洞。

理論上,只要我們針對性的解決這幾個問題,LLM的安全使用也就不在話下。現(xiàn)在,很多引入LLM的企業(yè)基本都建立了風控機制,按照LLM使用流程的先后順序,這些機制包括加強安全培訓、定期審查系統(tǒng)、加密處理敏感信息、使用可靠的人工智能服務提供商、建立應急預案等。 王吉偉認為,在這些安全措施中,

“使用可靠的人工智能服務提供商”

這一點最為重要,畢竟引入一個具備高度安全機制的LLM會事半功倍。其他幾點也能起到一定的作用,但多是為了防患于未然以及事后補救,并且其中的很多人為因素難以避免。

實在RPA?Agent智能體創(chuàng)新解決方案,有效避免LLM數(shù)據(jù)泄露

當然,凡事皆有利弊。雖然對話式交互的生成式AI會造成敏感數(shù)據(jù)泄露,但AI和自動化的使用,整體上正在降低數(shù)據(jù)泄露的成本。隨著大語言模型技術在各行各業(yè)的應用越來越多,傳統(tǒng)的安全工具、經(jīng)驗、策略將失去效力,企業(yè)急需重新構建能適應智能化時代的安全體系。 實在智能在服務眾多大型企業(yè)客戶的LLM實際落地中扮演著重要角色,著力打造

“更有效、安全、可信任、可落地”

、提供隱私保護和數(shù)據(jù)安全防護功能的創(chuàng)新解決方案,即業(yè)界首發(fā)的實在RPA?Agent智能體用以保障用戶數(shù)據(jù)安全,在超自動化領域通過AI?Agent破解LLM安全謎題、提升安全系數(shù)。 實在RPA?Agent智能體是基于實在智能自研垂直領域大模型TARS構建的RPA\超自動化智能體,是一種能夠自主拆解任務、感知當前環(huán)境、執(zhí)行并且反饋、記憶歷史經(jīng)驗的RPA全新模式。為了讓用戶更安全的使用AI智能體,實在RPA?Agent智能體在TARS大語言模型和RPA工具包都設置的多重安全機制。 TARS大語言模型的安全機制側(cè)重于敏感數(shù)據(jù)、內(nèi)部政策和提示檢查。在預訓練或SFT階段通過數(shù)據(jù)處理和文本分類算法刪除敏感數(shù)據(jù),在大模型的輸出結果之上疊加一個輔助安全模型,RLHF(人類反饋強化學習)階段使用內(nèi)部策略,檢查用戶查詢并添加安全提示等。這樣就能保證用戶輸入內(nèi)容的多層過濾,防止敏感數(shù)據(jù)的外露。

TARS大語言模型基于充分細致的語料收集和清洗、數(shù)據(jù)處理及標注,超千億Tokens的預訓練語料和超百萬條指令微調(diào)數(shù)據(jù),實在智能獨立完整復現(xiàn)大模型構建的預訓練、指令微調(diào)和RLHF三階段,使大模型具備完整能力。同時實在智能自主研發(fā)用于中文不當言論判別和生成終止的Detoxify系統(tǒng),也提升了TARS的安全性和無害性,讓大模型

“既懂事,又懂法”

。在RPA工具包上,TARS-RPA-Agent安全機制側(cè)重于機器人授權繼承和指揮官分配或分發(fā)授權:

實在TARS-Agent中的RPA安全機制“利器攻利器”

阻礙廣大企業(yè)應用大語言模型(LLM,Large?Langeuage?Models)的諸多因素中,無疑數(shù)據(jù)安全是最重要的。對于開發(fā)者和企業(yè)而言,大模型的開發(fā)與部署過程需要經(jīng)過嚴格的審查,對數(shù)據(jù)的處理要嚴格遵循隱私保護原則,確保每一位用戶的信息都得到妥善保管,確保其不會對用戶和企業(yè)造成傷害。 目前市面上的數(shù)據(jù)安全管理軟件,功能豐富但應用復雜且價格不菲。為了LLM數(shù)據(jù)過濾這種單一應用場景而斥巨資購買全數(shù)據(jù)監(jiān)控軟件,顯然過于浪費,并不是LLM數(shù)據(jù)過濾的最優(yōu)選。事實上,這類需求更適合LLM技術供應商基于大語言模型技術路徑去做。 需在其LLM產(chǎn)品體系中添加隱私數(shù)據(jù)過濾功能,為企業(yè)用戶開放不斷更新或增刪敏感數(shù)據(jù)庫內(nèi)容的權限。這種模式,不僅能為本身大語言模型提供過濾安全功能,還能用于企業(yè)所使用的第三方大語言模型,能夠在最大限度保護員工創(chuàng)造力的同時做好公司敏感數(shù)據(jù)的防護。這樣,企業(yè)就能實現(xiàn)花一份錢去保障更多LLM的安全。

實在TARS-Agent中的RPA安全機制正是采用這樣的解決之道:

首先,RPA機器人的授權均繼承自創(chuàng)建機器人的用戶,同時其權限范圍也和所在賬號的權限是一致的,不會獲取超出其權限范圍的信息; 其次,RPA指揮官可以分配和控制TARS-RPA-Agent的授權; 第三,在開發(fā)過程中,實在智能設計了一個易于處理敏感數(shù)據(jù)的模塊,使得敏感數(shù)據(jù)更易于通過配置、刪除、導入等方式進行設置。除了LLM和RPA,TARS-RPA-Agent還包含其他輔助模塊,其中的安全機制側(cè)重于內(nèi)部知識庫認證、內(nèi)部文檔訪問以及用戶確認。

有了實在智能面向LLM、RPA和輔助模塊的多重安全機制,在十幾層防護墻的共同作用下,想要泄露隱私數(shù)據(jù)都很難,徹底杜絕了前文所講的人為泄露數(shù)據(jù)的情況。再加上應對系統(tǒng)漏洞的相關安全機制,足以把LLM應用安全打造得固若金湯。當然,這還是直接使用TARS大模型或者調(diào)用API的情況。如果你是現(xiàn)金流充沛的企業(yè),采用本地部署大語言模型的方式,安全情況會更上一層樓,這種整體安全解決方案非常適用于一些大型企業(yè)的LLM應用安全過濾。 如果你的企業(yè)正在為LLM的應用安全及預算而發(fā)愁,不妨試試實在智能的這種創(chuàng)新安全解決方案,會讓你眼前一亮。實在智能從最初的大語言模型產(chǎn)品布局開始就

將企業(yè)客戶敏感數(shù)據(jù)的安全性防護列入了產(chǎn)品的SOP設計

當中,目前已經(jīng)為實在TARS垂直類大語言模型上了一道敏感數(shù)據(jù)過濾網(wǎng),能夠在源頭上將企業(yè)客戶的敏感數(shù)據(jù)進行過濾后再輸出給到安全的數(shù)據(jù),同時提供給企業(yè)客戶一個可以對敏感數(shù)據(jù)庫進行維護的權限,真正實現(xiàn)從企業(yè)客戶內(nèi)部就輕松實現(xiàn)數(shù)據(jù)安全的把控,讓企業(yè)真正放心將智能體引入到整個企業(yè)數(shù)字化轉(zhuǎn)型的各個階段。 當前的大模型發(fā)展得尚不成熟,面臨著諸多安全隱患與風險。隨著深度學習技術的發(fā)展和研究的深入,未來大模型的攻防將在動態(tài)抗衡中不斷升級,大模型需要應對的新型安全威脅將不斷涌現(xiàn)和升級,建立完善統(tǒng)一的大模型安全評估框架、探索有效的防御機制、實現(xiàn)?AI?大模型安全監(jiān)管和可控生成,以及促進大模型安全生態(tài)的建設等任務迫在眉睫,實在智能已在率先領跑的道路上邁著堅實的步伐,幫助企業(yè)解決數(shù)據(jù)安全和使用成本問題,助力越來越多的企業(yè)實現(xiàn)安全智能化轉(zhuǎn)型。

看實在RPA Agent智能體安全機制如何破解LLM應用謎題?的評論 (共 條)

分享到微博請遵守國家法律
深圳市| 泸西县| 和平区| 余干县| 剑阁县| 剑川县| 彝良县| 玉林市| 南开区| 多伦县| 密云县| 二手房| 柏乡县| 宜兰市| 西乌| 金川县| 牟定县| 集贤县| 永年县| 博湖县| 沙坪坝区| 阳江市| 常熟市| 长白| 东辽县| 嘉峪关市| 江北区| 类乌齐县| 孝感市| 石家庄市| 永德县| 缙云县| 杭锦旗| 新巴尔虎右旗| 临夏县| 锡林浩特市| 同仁县| 安岳县| 建宁县| 塔城市| 体育|