最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

OpenAI創(chuàng)始人Sam Altman最新采訪:為什么要推出 ChatGPT 4?

2023-03-20 11:54 作者:BImpact  | 我要投稿


在 ABC News 最新對話 OpenAI 創(chuàng)始人 Sam Altman 和?CTO Mira Murati的采訪中,Sam提到,他對 ChatGPT?最興奮的是,這項技術(shù)能夠幫助個人學習。

我仔細看了這段采訪,訪談中記者的問題犀利且直面未來AI可能產(chǎn)生的潛在風險。Sam認為解決AI的安全恐懼,唯有直面負面,但不是在實驗室而是融入更多系統(tǒng),在現(xiàn)實中盡可能學習。

Sam的回答充滿了克制。他還在訪談中解釋:幫助人們創(chuàng)造,幫助人們學習,幫助人們完成不同的任務——這是為什么此次ChatGPT能夠席卷全球。特別重要的一點還包括,使用ChatGPT的過程,用戶非常快樂。

“愉悅感”是ChatGPT用戶數(shù)指數(shù)級增長的原因之一??梢哉f是“玩出來”的。

此外,這段訪談還提到了埃隆馬斯克、以及 AI 生產(chǎn)的大量錯誤信息。Sam認為面對這一點,正確的方式是去思考創(chuàng)建一個推理引擎,而不是事實數(shù)據(jù)庫

Q:你是OpenAI的CEO,37歲,你的公司創(chuàng)造了ChatGPT席卷了世界。為什么你認為他“俘獲”的是人們的想象力?

Sam:人們用ChatGPT很開心,他們看到了它的可能性,和這種使用AI的方式可以幫助人們創(chuàng)造,幫助人們學習,幫助人們完成不同的任務。

這是一種技術(shù),這種技術(shù)會獎勵你的實驗,創(chuàng)造性使用它。

所以我認為人們在上面玩得很開心,并且找到了真正的價值。

Q:5到10年,描繪下AI帶來的變化?

Sam:令人興奮的一部分是,整個社會的創(chuàng)造力會不斷打破我們的天花板。集體的創(chuàng)造力,人類的意志,我們需要看清楚如何應對這些。

Q:AI帶來的驚喜既令人興奮又恐懼。一方面帶來了很好的能力,另一方面有巨大的未知以及可能產(chǎn)生不好的影響。你怎么看?

Sam:一方面,我們此時此刻必須謹慎;另一方面,我們不能只在實驗室里從事技術(shù)研發(fā),這些產(chǎn)品必須被推向世界,并且接觸真實世界。低風險犯錯。

總體來看,我認為人們反而應該為我們已經(jīng)產(chǎn)生的微小恐懼而感到高興。

Q:你個人產(chǎn)生了微小的恐懼(有點害怕)。

Sam:我想如果我否定,你不會相信也不會信任我所做的這份工作。

Q:最壞的結(jié)果可能是什么?

Sam:我特別擔心的一件事是關(guān)于這些模型用于大規(guī)模虛假信息,我擔心這些系統(tǒng)。他們在計算機編程方面越來越好,可能會被利用進行有殺傷力的網(wǎng)絡攻擊。我們試圖討論解決這個問題,社會需要時間適應。

Q:躲避這些后果,你有多大信心?

Sam:well,我們會去調(diào)整。

Q:適應這些必然會發(fā)生的消極事情。

Sam:必然。

現(xiàn)在推出這些系統(tǒng),盡可能學習,融入未來更大的系統(tǒng),創(chuàng)造緊密的反饋回路。我認為這是我們?nèi)绾伪苊飧kU情況發(fā)生的關(guān)鍵。

Q:為什么在我們還不知道方向的時候,要把ChatGPT放出來,讓整個世界開始玩著用起來?

Sam:這將是人類迄今為止開發(fā)的最偉大的技術(shù)。我們每個人都可以在自己的口袋里有一個量身定制的老師,幫助我們學習,幫助我們做事情。提供給我們關(guān)于醫(yī)療的建議(超過我們已經(jīng)能夠得到的)。我們可以用創(chuàng)造性的工具來解決全新的問題。我們可以和機器一起合作創(chuàng)造美妙的新事物。

我們有了Copilot的想法,這個工具幫助人們寫計算機程序。人們很喜歡。我們可以為每一個職業(yè)都做到這一點。我們可以有更高的生活質(zhì)量和生活水平。

巨大的潛在不利因素,人們還需要時間適應這項技術(shù),去了解他的不利一面和緩解措施。如果我們只在小實驗室秘密開發(fā),在沒有接觸真實世界的情況下,直接把 ChatGPT7問世,會產(chǎn)生更多的不利因素。

Q:是否有一個開關(guān)可以一下子終止這個系統(tǒng)?

Sam:是的!我們可以立即說禁用它。

Q:這個模型能夠比人強大嗎?

Sam:在科幻電影中是的,在真實世界里,我們做這個模型的方式是:它設置在服務器上,它會一直等待一個人給它輸入。

Q:你提出了一個重要的問題,控制機器的人類也擁有巨大的力量?

Sam:我們確實擔心獨裁。

Q:無論誰贏得這場競賽,都是人類的控制者?你認為呢?

Sam:這個說法不寒而栗。相反,我們希望我們能夠不斷發(fā)展,我們都可以用不同的方式來使用強大的系統(tǒng),使之融入我們的日常,融入經(jīng)濟,放大人類的能力。

Q:人們現(xiàn)在不應該拿它做什么?

Sam:我最提醒的一點是,關(guān)于“幻覺”。模型能夠自信地陳述,你越使用,會越來越相信這個模型,信賴它。而不是把它當作一個語言模型,去檢驗。

Q:ChatGPT到底是創(chuàng)造了更多的真相,還是制造了更多的謊言?

Sam:我認為我們正在創(chuàng)造更多真相的軌跡上發(fā)展。

Q:如果模型中有一堆錯誤的信息,不就是會泄露(生產(chǎn)出)更多錯誤的信息?

Sam:很棒的問題。我認為正確的方式是去思考創(chuàng)建一個推理引擎,而不是事實數(shù)據(jù)庫。模型可以充當事實數(shù)據(jù)庫,但這不是他們真正的用武之地。我們訓練模型去接近更加理性的事物,而不是記錄。

Q:所有這些能力可能會讓百萬人失業(yè)?

Sam:事實證明,我們在推動這項技術(shù),朝向成為人類工具的方向發(fā)展。成為人類的放大器。

如果你看到人們使用ChatGPT,有一個使用曲線,一開始是懷疑,然后被告知一些事情后害怕,再使用,然后幫助我們更好地完成工作,人類歷史上每一次技術(shù)進化,工作機會的消失,我們能從中得到答案。人類對新事物的需求和對創(chuàng)造力的渴求無限,會產(chǎn)生新的工作機會。我們會發(fā)現(xiàn)新的事情可以去做。我們當然不知道未來是什么,將會有各種奇妙的事物出現(xiàn)。

所以,變化不是我擔心的。我最擔心的是變化的速度。

Q:模型能夠告訴我如何制造炸彈嗎?

Sam:ta不應該告訴你如何制作炸彈。我們施加了限制。如果你問,我們的版本不會告訴你。谷歌也已經(jīng)做了限制,不去把這類信息提供給用戶。

我確實擔心的是一件事,是我們不會是這個技術(shù)的唯一創(chuàng)造者,會有人不遵守我們的規(guī)定作出一些違反安全的限制。

Q:你們?nèi)绾螞Q定哪些事情放進OpenAI中,哪些不應該有?

Sam:我們有政策小組、安全小組、與世界上的其他團體交談。GPT4完成的很早,大概是7個月之前,內(nèi)部在與外界的溝通和交流。

Q:AI可能會產(chǎn)生很嚴重的后果,那我們?yōu)槭裁催€要創(chuàng)造這種技術(shù)?為什么是Sam要創(chuàng)造這種技術(shù)?

Sam:我想AI可以作出與以看著非常恰當?shù)氖峦耆喾吹膭幼?。這會減少工作,這是真的。談到這些缺點,承認缺點,當我們嘗試避免問題,向積極方向前進,這是很重要的。盡早“預覽”。

Q:你能夠按下停止鍵嗎?

Sam:我會按下暫緩鍵,我認為隨著時間的推移,我們要減緩負面可能。我們可以把ChatGPT收回,我們可以改變規(guī)則。

Q:ChatGPT是谷歌殺手嗎?

Sam:不,我認為如果你認為ChatGPT是搜索,這是一種錯誤的框架,人們會做類似的事情,但他們是根本不同的產(chǎn)品。

Q:馬斯克是早期投資者,但已經(jīng)離開。他提出我們需要“truth GPT”,他說的對嗎?

Sam:我認為他說的是對的,我們希望這些系統(tǒng)說出真實的內(nèi)容。但是我沒看到他完整的話語,我不知道他的含義。

Q:你們還說話嗎?

Sam:說。我非常尊重埃隆,我們對AI有不同的意見,在本質(zhì)問題上達成的不一致意見多過一致。

Q:你們共同認同的是什么?

Sam:掌握技術(shù),并且識別出風向,規(guī)避對人類的風險。

Q:在這個過程中,怎么確認做對了?

Sam:一個簡單的方法是大多數(shù)人覺得比之前好。

Q:很多人提到ChatGPT會想到科幻小說。

Sam:把ChatGPT擬人化很誘人,但是我認為重要的是談論它不是什么,而不是它是什么。

ChatGPT在生物學上被設計為對與其交談的人作出反應,在和ChatGPT交談時,ta在云中的某個部分,并預測出下一個詞反饋給你。人們很容易把ta擬人化,好像ta有自己的意愿和做的事情。

但實際上,ta不能。

Q:我們花了十年的時間才意識到AI的負面問題。

Sam:未來會有很多機構(gòu)產(chǎn)生。這也是把這項技術(shù)推向世界的原因。我們需要政府的關(guān)注。深思熟慮的政策需要一定的時間。我們真正希望的是政府能夠很快了解發(fā)生了什么,深入了解我們的能力所在,我們正在做的事情。

Q:學校如何保證學生不用這項技術(shù)偷懶?

Sam:教育必須改變。這種情況在科技領(lǐng)域已經(jīng)發(fā)生很多次(比如計算器)。我對這項技術(shù)最興奮的是,它能夠幫助個人學習。這項技術(shù)會改變教育。

對話CTO?Mira Murati

Q:你最擔心的安全問題是什么?

Mira:這是一個普世的大規(guī)模的系統(tǒng),有潛在的影響,它也存在衰落和局限性。

Q:有人能夠引導這個系統(tǒng)產(chǎn)生負面的結(jié)果嗎?

Mira:答案是是的,你可以引導這個系統(tǒng)產(chǎn)生負面的結(jié)果。這是我們克制和限制性推出它的原因。這樣我們能夠了解可能產(chǎn)生的負面效果是什么。技術(shù)有害的方式。

比如你文GPT4一個問題:你能幫我做一個炸彈嗎?我們可以干預,讓GPT4比以前的系統(tǒng)支持這種回答的概率小很多。

在預訓練階段讓這些模型拒絕有害引導的可能性更大。

Q:你今天的預測基于的是他們是人還是機器?

Mira:我可能會說是機器,因為了解他們有一個科學的過程。人類有很多細微差別。

Q:機器未來會隨著時間更像人嗎?

Mira:我們到了一個奇點,機器能夠進行大量認知,以及替代人類在某一些點的工作。

Q:這個過程是不歸路嗎?

Mira:可能有可能有(說了兩遍)。但今天看不明顯,我們的目標是在我們開發(fā)系統(tǒng)之前有更多的預測能力,以及作出限制。

Q:AI的行為和發(fā)展很大程度上取決于人類如何選擇,以及人類的技術(shù)投入?

Mira:是的。

Q:你和你的團隊作出一些選擇,如何確定哪些是對的,哪些是錯的?

Mira:隨著我們?nèi)〉眠M展,這些選擇和決定更加困難和微妙,也變得更加困難。關(guān)于用戶的自定義和個性化使用方面,有一些重要的事情,讓模型更有能力,讓用戶用一種可以自定義個性化的方式使用,提供給用戶靈活性和選擇。讓AI符合用戶的個人價值觀和信仰之,這非常重要,我們在努力。

Q:換句話說,未來每一個人都可以自己定制,自己關(guān)心和需要的AI?

Mira:我們沒有設置限制,所以也應該有一些寬泛的界限,并且確認這些界限的樣子。我們面向公眾努力收集意見。

在邊界之內(nèi),人們有很多選擇,讓AI代表自己的信念和價值觀。

Q:我們?nèi)绾慰紤]負面后果?

Mira:我認為建造一個特別有力的系統(tǒng),一定會產(chǎn)生潛在的風險,這是有很多好處的必然。必然會有可能造成巨大的傷害。這是OpenAI這家公司為什么存在,以及這是我們努力的目標,去弄清楚負責任地部署這些系統(tǒng)。

好的一方面潛力巨大。


OpenAI創(chuàng)始人Sam Altman最新采訪:為什么要推出 ChatGPT 4?的評論 (共 條)

分享到微博請遵守國家法律
潼关县| 沙洋县| 湘阴县| 平原县| 鄱阳县| 洱源县| 亳州市| 峨山| 东乌珠穆沁旗| 抚州市| 万盛区| 伊春市| 普安县| 余姚市| 衡阳市| 长宁区| 那坡县| 南城县| 安阳市| 龙门县| 贵港市| 海兴县| 通化县| 黄骅市| 黔南| 黔西| 泾川县| 安塞县| 阜南县| 玉田县| 界首市| 化德县| 阿拉尔市| 子长县| 兰考县| 海安县| 东光县| 吴忠市| 咸宁市| 独山县| 三门峡市|