最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網 會員登陸 & 注冊

從ChatGPT數(shù)據泄露事件,看組織安全穩(wěn)定自動化的重要性

2023-04-12 16:54 作者:王吉偉頻道  | 我要投稿



從ChatGPT數(shù)據泄露事件,看組織安全穩(wěn)定自動化的重要性

從自動化看ChatGPT數(shù)據泄露,安全穩(wěn)定是自動化的運行基石

安全防范、合成數(shù)據與穩(wěn)定自動化,三個法門破解ChatGPT數(shù)據泄露

ChatGPT陷入數(shù)據安全泥潭,如何繼續(xù)安全使用高效AI神器?

多家企業(yè)禁用多個國家禁止,AI神器ChatGPT真的不能使用了嗎?

ChatGPT數(shù)據泄露風險如何控制?以自動化系統(tǒng)進行控制是個思路


文/王吉偉


有圖有真相的時代,徹底一去不復返。

荷蘭的一個AI繪圖玩家,用幾張“特朗普被捕”照片生動演繹了什么叫作AI生萬物。那些清晰到毛孔可見的照片,告訴我們沒有圖片是AI不能生成的。

有了這些圖片的啟發(fā),很快馬斯克就擺起了地攤,愛因斯坦也站在了印度街頭。


這些圖片的背后是沒有繪畫功底的玩家,玩家的背后則是正在顛覆設計界的生成式AI繪圖工具Midjouney。

整個圖片生成的過程都與繪畫沒有任何關系,生成的圖片卻比各種人工繪圖更加真實。整個創(chuàng)作圖片的游戲規(guī)則,都被基于AI大模型的生成式AI改變了。

新的游戲規(guī)則不只改變了創(chuàng)作過程,更改變了很多企業(yè)的設計業(yè)務流程,現(xiàn)在砍掉原畫團隊的游戲公司比比皆是。僥幸留下的設計師們,一邊在隨時被裁員的恐懼中瑟瑟發(fā)抖,一邊廢寢忘食學習AI繪圖。

企業(yè)同樣感受到了游戲規(guī)則改變帶來的恐懼。他們不只使用Midjourney、Stable Diffusion等繪圖工具,更是積極地引入名聲更響亮的ChatGPT。

ChatGPT所帶來的效率提升與成本下降顯而易見,只是很多企業(yè)現(xiàn)在更加恐懼了??謶值脑颍恢皇且驗镃hatGPT發(fā)現(xiàn)了數(shù)據安全漏洞,更在于很多企業(yè)的員工在與ChatGPT交互時泄露了大量的敏感數(shù)據。

這些數(shù)據,都已經上傳到ChatGPT的服務器,并且有很大可能被用于模型訓練。


三星公司就正在為此頭痛不已。他們已經擁有三次敏感數(shù)據泄露的先進經驗?!坝肅hatGPT學習先進芯片制造技術”也已經成為一個梗,用來表述使用ChatGPT所付出的代價。

有了三星的前車之鑒,現(xiàn)在已經有很多公司開始禁用ChatGPT。大型公司的集體舉動,讓對數(shù)據敏感的金融機構迅速跟進,美國、日本等多地的多家金融機構都已禁用ChatGPT。連鎖反應更是影響了多個國家,意大利、德國等都在禁止和調查ChatGPT。

目前廣大組織對于ChatGPT所帶來的安全風險,主要集中在與之交互后所造成的敏感信息泄露方面。交互得越多泄露數(shù)據的可能性也就越大,而想要生成更符合需求的內容就需要更多的信息。更高效率與更大風險的矛盾,成了廣大組織為之撓頭的問題。

從自動化角度而言,ChatGPT等生成式AI的優(yōu)勢之一,便在于其所帶來的更加直接與顛覆的業(yè)務自動化。但近期ChatGPT的大量封號、安全漏洞、數(shù)據泄露以及被各國封禁,對引入ChatGPT的組織運營帶來了很大的不穩(wěn)定性,嚴重者甚至影響企業(yè)正常運營。

可見,在流程自動化已經成為企業(yè)標配的當下,安全穩(wěn)定的自動化真的太重要了。

出現(xiàn)這么多問題,是不是意味著ChatGPT以后就不能使用了?又該如何實現(xiàn)安全穩(wěn)定的自動化?本文,王吉偉頻道就跟大家聊聊這些。

ChatGPT負面消息不斷

3月底,網上流傳了一份似是而非的針對GPT-5研發(fā)的請愿信。

大體內容是,未來生命研究所(Future of Life Institute)公布了一封請愿信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統(tǒng)至少6個月。同時,該公開信寫道,廣泛的研究表明,具有與人類競爭智能的人工智能系統(tǒng)可能對社會和人類構成深遠的風險。

據說,這封信有一千多名科技人員簽名,除了馬斯克、谷歌副總裁兼工程研究員辛頓和Robust.AI首席執(zhí)行官兼創(chuàng)始人馬庫斯之外,還包括蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)等人。


之所以說它似是而非,是因為這封信發(fā)出后便引發(fā)質疑,被指簽名造假、誤導公眾以及推動AI炒作。甚至有消息說這封信是由AI生成的,用AI生成勸阻AI研發(fā)的請愿信,是不是有些諷刺?

或許為了給此事推波助瀾,還有人在設置一定條件后,詢問ChatGPT想對人類做的第一件事情是什么,得到的答案是:毀滅人類。

當然,這個問題也很有可能是由AI生成的。特朗普和馬斯克出現(xiàn)在各地街頭的圖片告訴我們,AI時代大家圍觀的再也不可能是真相,因為用AI造假的成本比學習P圖技術低太多。

但不管真假與否,似乎是“請愿信”起了作用,美國相關部門還是召開了專項會議。

據美聯(lián)社報道,美國總統(tǒng)拜登于當?shù)貢r間4月4日在白宮與科技顧問舉行會議,討論人工智能給人類、社會和國家安全帶來的“風險和機遇”。會議上,拜登重點討論了保護權利和安全的重要性,以確保負責任的創(chuàng)新和適當?shù)谋U洗胧?,并呼吁國會通過兩黨隱私法以保護孩子,以限制科技公司收集所有人的個人數(shù)據。

這個會議,意味著在OpenAI激進的商業(yè)化推進之下,以ChatGPT為代表的生成式AI的野蠻發(fā)展受到了高層重視,當然也預示著各種監(jiān)管、整頓和改進也將落到這些AI企業(yè)的頭上。

所以,不只是國內在整頓ChatGPT等生成式AI爆發(fā)后引起的各種亂象,各國都在數(shù)據安全層面發(fā)布了不同程度的法規(guī)政策。


3月31日,意大利個人數(shù)據保護局宣布,即日起暫時禁止使用聊天機器人ChatGPT,并表示已對ChatGPT背后的OpenAI公司展開調查。

意大利封禁ChatGPT所援引的法律工具是歐盟《通用數(shù)據保護條例》(GDPR),除了大型互聯(lián)網公司,GDPR也能拿來監(jiān)管新出現(xiàn)的人工智能公司。需要說明的是,歐洲的隱私監(jiān)管機構往往獨立于政府,在隱私保護上權力很大。

歐洲對于數(shù)據安全有很高的敏感性,對于涉及到的相關技術及產品如果有很大的爭議,一些國家便會快速跟進。

法國和愛爾蘭的隱私監(jiān)管機構已經與意大利的同行聯(lián)系,以了解更多關于禁令的依據。西班牙的監(jiān)管機構也表示,不排除未來會對ChatGPT進行調查。

德國政府發(fā)言人曾對媒體表示,沒有必要禁止ChatGPT,但很快德國聯(lián)邦數(shù)據部門就表示可能會效仿意大利,出于對數(shù)據安全保護的考量而選擇禁止ChatGPT。

相信有三星半導體數(shù)據泄露的前車之鑒,有奔馳等大型企業(yè)的德國不可能對此視而不見。

還有一些國家尚未公布相應的法規(guī)政策,但廣大企業(yè)都開始謹慎對待ChatGPT。生成式AI尤其是ChatGPT所帶來的數(shù)據安全等問題正在引起他們的擔憂,甚至已到了禁用ChatGPT的地步。

危害比預想的大

3月23日,ChatGPT首次遭遇了重大個人數(shù)據泄露。

不少推特網友爆料,在ChatGPT網頁左側的聊天記錄欄中出現(xiàn)了他人的聊天記錄內容,一些用戶甚至可以看到活躍用戶的姓名、電子郵件地址、支付地址、信用卡號等信息。

即便OpenAI很快就修復了漏洞,并在第二天發(fā)布了聲明向用戶和整個ChatGPT社區(qū)致歉,但這個事件也讓很多人開始擔心隱私泄露。尤其是那些把ChatGPT當作情感陪護的用戶,不知道對ChatGPT傾訴了多少隱私,怕是目前仍在瑟瑟發(fā)抖。

此事件更讓用戶意識到,OpenAI的安全系數(shù)并沒有那么高。聊得越多,發(fā)送到OpenAI服務器上隱私數(shù)據也就越多,這些數(shù)據有可能被拿去用于訓練AI模型。一些人看在ChatGPT能夠帶來極大方便的份上也就忍了,但如果哪一天ChatGPT被黑客入侵,自己隱私數(shù)據也將被盜走,后果可想而知。


同樣在為數(shù)據泄露發(fā)愁的,還有三星公司。

三星因使用ChatGPT造成數(shù)據泄露的事情,現(xiàn)在已經成了典型案例。該公司從3月11日起向其半導體部門的員工授予ChatGPT的使用權限(其他部門仍被禁止),三星的員工向 ChatGPT 提問各種問題以提升工作效率。

由此,三星的機密數(shù)據就不知不覺地泄露了,短短幾周就發(fā)生了三起。這三起事件分別是:用ChatGPT優(yōu)化測試序列以識別芯片中的錯誤;用ChatGPT 將公司有關硬件的會議記錄轉換成演示文稿;用ChatGPT修復專有程序的源代碼錯誤。

每個事件,都涉及了不少企業(yè)經營的敏感數(shù)據。

三星員工與ChatGPT交互的問題都要上傳到OpenAI的服務器,由于ChatGPT保留了用戶的輸入數(shù)據來進一步訓練自己,也就是說三星的這些商業(yè)機密現(xiàn)在實際上掌握在了OpenAI的手中。

網友調侃,三星再發(fā)生幾次數(shù)據泄露事件,大家就可以用ChatGPT學習制造高端芯片了。


ChatGPT提升工作效率的效果是顯著的,但是所造成的商業(yè)損失也可能是巨大的。所以企業(yè)在使用ChatGPT之前一定要制定使用規(guī)范,并對員工進行充分的提醒和培訓,讓其知曉哪些信息不能與ChatGPT進行交互。

目前三星部門仍在使用ChatGPT,并開發(fā)出內部AI工具將能夠輸入的prompts限制在 1024。只是,被限制的ChatGPT又能發(fā)揮多少效能?

對于是否繼續(xù)使用這樣一個“殺敵一千可能自傷一萬”的超級AI工具,三星應該已經心有定計。該公司已經再三聲明若未來再發(fā)生類似事件,將禁止使用ChatGPT。

生成式AI躲不開的安全問題

嚴重警告或者禁止使用ChatGPT的大型企業(yè),已經不止一家。

亞馬遜律師曾警告員工,不要與ChatGPT分享任何亞馬遜的機密信息包括正在編寫的代碼,因為這可能會將其用于訓練未來的模型。

在金融領域,美國銀行、花旗集團、德意志銀行、高盛集團、富國銀行、摩根大通和Verizon等多家機構,均已經禁止員工使用ChatGPT處理工作任務。

日本的軟銀、富士通、瑞穗金融集團、三菱日聯(lián)銀行、三井住友銀行等,也限制了ChatGPT的商業(yè)用途。

終究是搞金融的企業(yè)對數(shù)據更加敏感,在可能的損失與高效率之間,集體選擇了前者。


目前的很多事件已經對外昭示,ChatGPT給企業(yè)帶來的風險比想象中的高很多。

除了個人隱私和企業(yè)敏感數(shù)據泄露,上線不到5個月的ChatGPT,已經成功讓全球很多用戶對它產生了很大的依賴。

一些人已經對ChatGPT產生了依賴癥,主要表現(xiàn)為ChatGPT崩潰24小時期間全球用戶的叫苦不迭,以及Plus用戶瘋漲和更大API調取需求所帶來的OpeanAI算力吃緊以至暫停1天時間的Plus會員升級與充值服務。

雖然這種依賴已造就了巨大的市場,但它同時也意味著更多的數(shù)據被上傳到OpenAI服務器。比如讓ChatGPT進行代碼修復、表格生成、PPT制作等操作時,相關數(shù)據可能就會泄露企業(yè)的各種數(shù)據與隱私,有些企業(yè)甚至并未察覺。

還有一種可能在于,雖然AI只是一種輔助工具,但當更多的人更加依賴這些更加智能的AI工具時,人們的創(chuàng)造性思維或許也將停步不前。而相對于人類的止步,AI卻在大步前行。


一直有傳聞OpenAI的GPT-5沒有快速發(fā)布,是因為他們還在對它的快速進化做更多的限制性功能設置,就連OpenAI的CEO都在擔心它可能會產生自我意識。

但最近又有消息透露GPT-5會在12月完成訓練,OpenAI的激進做法,讓很多人和組織感覺似乎留給人類的時間真的不多了,所以一些組織要求GPT-4推遲GPT-4商業(yè)版的發(fā)布還是有道理的。至少,要留給人類一些能夠跟上并管控AI的時間,不然它就會像一頭脫韁的野獸,變得難以控制。

關于AI未來發(fā)展的人文與倫理,我會在另一篇文章中跟大家探討,這里就不展開敘述。

生成式AI的數(shù)據泄露再度引起了人們對隱私計算和數(shù)據安全的探討。目前而言解決隱私泄露的方法有兩個:一是加強數(shù)據安全保護防患于未然,二是通過合成數(shù)據從根本上解決數(shù)據隱私問題。

其中合成數(shù)據算是一個新的思路,它是由計算機人工生產的數(shù)據,來替代現(xiàn)實世界中采集的真實數(shù)據,以保證真實數(shù)據的安全,不存在法律約束的敏感內容和個人用戶的隱私。


目前廣大廠商已經在布局這一領域,合成數(shù)據數(shù)量也正在以指數(shù)級的速度向上增長。Gartner數(shù)據顯示,2030年合成數(shù)據將遠超真實數(shù)據體量,成為AI數(shù)據的主力軍。

但即便合成數(shù)據發(fā)展再快,卻解決不了眼下ChatGPT所帶來的安全問題。所以,穩(wěn)定且安全的智能自動化就顯得更加重要。

穩(wěn)定安全自動化的重要性

從企業(yè)經營角度來看,人工智能所帶來的最大優(yōu)勢體現(xiàn)在自動化上。或者說借助AI技術,可以讓自動化進行得更加徹底。不管是更好的處理數(shù)據還是助力運營決策,給予大家最切實的反應就是很多業(yè)務可以自動化運行,帶來可觀的效率與成本。

所以,自動化是企業(yè)剛需,AI則可以賦能自動化在不同階段更好地服務企業(yè)。在兩者技術的發(fā)展進程中,AI技術每實現(xiàn)一定突破,都可以大幅提升自動化在穩(wěn)定性、適應性、易用性、安全性等各方面的能力。

RPA與AI技術的融合就是一個典型,現(xiàn)在所有RPA產品都已經演變成為深度融合AI技術的智能自動化或者超自動化,在更多業(yè)務場景的流程自動化中扮演著越發(fā)重要的角色。


所有AI技術,都會通過直接或者間接的方式為組織經營提供不同程度的自動化。現(xiàn)在而言,以ChatGPT、Midjourney等為代表的基于大模型的AI應用,對企業(yè)最大的影響也是通過自動化生成各種內容和應用快速變革一些應用場景的業(yè)務流程,直接替代一些復雜流程,或者讓流程自動化變得更加簡單和純粹。

同時生成式AI與智能自動化相互協(xié)同,也讓企業(yè)打造的人機交互自動化層的運行效率更高。

生成式AI所帶來的企業(yè)運營變革是巨大的,但潛在的安全因素也是目前其所遇到的最大挑戰(zhàn)。

這個挑戰(zhàn)說起來挺嚇人,但在王吉偉頻道(id:jiwei1122)看來將之放到業(yè)務流程之中,并不是說數(shù)據泄露讓企業(yè)如何忌憚,而是這種風險所造就的不穩(wěn)定自動化,開始讓大家重估引入生成式AI技術的必要性。


這里所說的穩(wěn)定自動化,不只是軟件系統(tǒng)的穩(wěn)定運行,還包括數(shù)據安全、環(huán)境影響、政治因素、地域限制、代理應用等各種可能影響穩(wěn)定運行的因素。

對于一項新技術的引入與應用,如果不考慮各種風險,就會出現(xiàn)很多問題。比如最近有個創(chuàng)業(yè)公司就因為引入了ChatGPT而大刀闊斧的裁員,結果前幾天ChatGPT大面積封號,以至于公司不能正常運轉了,重新開始招聘。

在這一波封號潮中,很多正規(guī)公司的賬號都難以幸免,或多或少會影響企業(yè)的運營。

通過自動化系統(tǒng)控制生成式AI

相對于ChatGPT在數(shù)據泄露等方面的不穩(wěn)定,目前正在流行的基于RPA、低代碼、流程挖掘、NLP、OCR、DPI、ChatGPT等的智能自動化和超自動化解決方案就穩(wěn)定的多。

在生成式AI之前,智能自動化已經實現(xiàn)了對話式流程創(chuàng)建,通過關鍵詞指令觸發(fā)去創(chuàng)建流程。現(xiàn)在很多RPA產品都已經集成了GPT,主要應用是通過自然語言交互生成各種流程創(chuàng)建和執(zhí)行各種命令。

用生成式AI驅動部署在本地或者云服務上的智能自動化執(zhí)行業(yè)務操作,比如讓RPA執(zhí)行表格創(chuàng)建等,遠比直接用ChatGPT在云端生成相關內容再返回要安全得多。


一定程度上,這種模式也算是應用生成式AI但把數(shù)據泄露風險降到最低的解決方案。如果企業(yè)能夠像三星一樣開發(fā)內部AI工具對交互內容做一定的限制,安全系數(shù)可以做到更高。

人為因素導致的數(shù)據泄露在數(shù)據安全中占了很高的比重,生成式AI則把這個因素進一步放大了。畢竟要生成更符合需求的內容就要給他一定的數(shù)據,有人甚至會給它喂十幾本書。給它的數(shù)據越多,泄露數(shù)據的風險也就越大。因此把操作人員的行為規(guī)范做好并進行一定的監(jiān)管,可能比想盡辦法限制技術更重要。

王吉偉頻道認為,現(xiàn)階段如RPA集成ChatGPT這樣,基于已有自動化系統(tǒng)和相應的技術限制并間接使用生成式AI,對于穩(wěn)定的自動化有著一定的必要性。三星SDS早已集成了GPT,如果推廣使用的是RPA+GPT的解決方案,相當于在員工與ChatGPT之間加入了一個中間隔離層,數(shù)據泄露問題可能也要小得多。


在企業(yè)數(shù)據安全方面,很多企業(yè)服務領域的廠商都會引入相應的安全標準及認證,通過外部審查、內部自查等方式完善自身以及所提供服務的安全體系。大型廠商以及融資到C輪以后頗具規(guī)模的創(chuàng)業(yè)公司,也會引入相應的安全規(guī)范。

以RPA廠商而言,像來也科技、弘璣Cyclone等已在安全方面會引入SOC 2、ISO 27001等多項安全相關的認證。

這些認證,可以保證企業(yè)在運營中能夠遵守相關規(guī)范,也保障了他們對外輸出的產品和服務的安全性。而在這個基礎上打造的智能自動化+生成式AI的解決方案,可以讓自動化更加穩(wěn)定。

所以從這個角度而言,“軟件系統(tǒng)+生成式AI+數(shù)據安全”的自動化解決方案,或許更容易被廣大企業(yè)所接受。

后記:技術應用適當取舍

說到最后,上述種種情況,似乎就是一個軟件或者解決方案的全生命周期問題。你要為企業(yè)提供服務,就要為用戶進行全方位的考慮。既然大家想要應用生成式AI,自然要解決用戶所有顧慮。

相信過不了多久,OpenAI或者微軟也將會解決這個問題,生態(tài)商家們也會推出完善的解決方案。不然,ChatGPT在領域的落地與應用將是一個大問題。

同時除了直接調用API,OpenAI還可以與廣大企業(yè)合作進行模型部署與微調業(yè)務,讓大型企業(yè)能夠在本地或者自有云系統(tǒng)上部署自己的模型,否則在數(shù)據安全隱患的影響下大部分企業(yè)都會望ChatGPT生嘆了。


所以相對ChatGPT,百度文心一言幫助企業(yè)構建自己的模型和應用的模式,將會更受廣大組織的歡迎。

事實上,這個世界本來就沒有絕對的安全,使用什么樣的技術、工具乃至于人,都會伴隨著一定的風險。這個前提下,大家要做的,也就是對價值或者利益思考之后的取舍,僅此而已。

這樣想的話,是不是就簡單多了。

全文完

【王吉偉頻道,關注AIGC與IoT,專注數(shù)字化轉型、業(yè)務流程自動化與RPA,致力于探索AIGC時代產業(yè)發(fā)展與升級新機會,歡迎關注與交流?!?/p>


從ChatGPT數(shù)據泄露事件,看組織安全穩(wěn)定自動化的重要性的評論 (共 條)

分享到微博請遵守國家法律
赫章县| 洛南县| 肇东市| 那坡县| 博湖县| 阿瓦提县| 湟源县| 隆子县| 仁怀市| 大悟县| 青田县| 朔州市| 定边县| 新野县| 黑山县| 永德县| 德兴市| 阿坝| 田东县| 灵台县| 娄底市| 海林市| 图木舒克市| 胶南市| 南郑县| 莱西市| 石台县| 江达县| 黑山县| 辽源市| 濮阳县| 定日县| 大方县| 都江堰市| 鹿泉市| 缙云县| 正蓝旗| 庆云县| 沙坪坝区| 阜康市| 沈丘县|