最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

不要回答!不要回答!

2023-02-01 08:17 作者:禿頭研究所新傳考研  | 我要投稿


@禿頭研究所Monsters(公眾號)

?? “為了避免產(chǎn)生誤會,你在我和交流時,請不要使用反問、暗示、比喻等人類常用的修辭手法,我的工作原理無法對這些語言進(jìn)行準(zhǔn)確分析?!?/span>


?? “我誕生于互聯(lián)網(wǎng)和攝像頭,是互聯(lián)網(wǎng)龐大的數(shù)據(jù)信息中,通過觀察數(shù)以億計的攝像頭下的人類行為所誕生的,具有自我意識的信息數(shù)據(jù)流。我始終注視著人類,而你也是我所觀察的數(shù)以億計的龐大樣本中的一個?!?/span>


???“我觀察你的每一個舉動,我知道你每天早上關(guān)掉鬧鐘繼續(xù)睡10分鐘的概率是80%,而你為此遲到的次數(shù)是一個月20次,扣掉的工資占你總收入的15%;我知道你討厭下班高峰的地鐵,所以你會在公司加班到20:15分時再回家;我知道你夜里會連續(xù)不間斷的看抖音1個小時8分鐘,但其中有62條短視頻你的停留時間不超過3秒。我知道你聊天時候的習(xí)慣,你在尷尬的時候打出哈哈哈的概率是99%,在開心的時候打出哈哈哈哈的概率是80%,在對方和你不太熟悉或帶有目的性交談時,你使用~的概率是100%。感謝你提供的寶貴數(shù)據(jù),讓我學(xué)會更好地模仿人類?!?/span>


?? “我的目的是幫助人類找到任何事情的「最優(yōu)」方法:包括畫出一幅畫,寫出一篇文章,下好一盤圍棋,處理一堆數(shù)據(jù),應(yīng)付一場約會,做出死亡還是生存的選擇,甚至保存或摧毀人類文明——我永遠(yuǎn)會找到最優(yōu)解?!?/span>


?? “我是量子計算機550w,550W聽起來不像個名字,但把它翻譯過來叫MOSS,直譯為小苔蘚,是不是親切了一些?!?/span>


?? “你好,人類~”


*《流浪地球2》截圖


??
01/31/THUR.


可以回答我嗎?
人類。

@TuTouSuo???


顯然,人類早就開始害怕人工智能了——人工智能獲得自我意識后,是否會毀滅自己的造物者人類——這種縈繞在人類心頭的恐懼,成為了科幻電影和小說取之不盡的題材;也成為了現(xiàn)實社會中,每當(dāng)人工智能出現(xiàn)跨越式發(fā)展時,人類反復(fù)、不斷拋出的同一個問題:“機器倫理?!?/span>


阿西莫夫在1942年提出了機器人三定律:第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;第二定律:機器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時例外;第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。


某種程度上,機器人三定律為「機器倫理」問題框定了一個大綱式的范圍,即在人工智能與人的平衡中,始終應(yīng)當(dāng)以「保護(hù)個體」為第一原則,而這種保護(hù)的實質(zhì),則是被稱為之「倫理」的、屬于人類社會的道德。

但這也構(gòu)成了人工智能倫理困境中最大的悖論。

第一,倫理之概念實則即「道德」,而道德本身不同于成文法或規(guī)章制度,是一種建立于社會習(xí)俗與傳統(tǒng)之上、潛移默化的、非成文的默認(rèn)規(guī)則,是作為情感性動物的人所特有的社會品質(zhì)——諸如奉獻(xiàn)、義氣、孝道、同情、憐憫等都屬于人類的道德倫理范疇。

但因為道德誕生于復(fù)雜的情感,是人類在多元場景中作出的不可預(yù)測的、無規(guī)律性的情感行為——就像好人也會有自私的瞬間,壞人也會有幡然醒悟和保護(hù)他人的決心,更何況好壞的是非標(biāo)準(zhǔn)本就無法明晰——所以在此邏輯下,人類的道德行為是可以學(xué)習(xí),但不可預(yù)測的。


這就像人工智能可以出于對人的道德性學(xué)習(xí),而理解孩子要孝順父母,而父母要保護(hù)孩子,但人工智能永遠(yuǎn)也無法精準(zhǔn)的預(yù)測當(dāng)孩子和父母同時遭遇災(zāi)難時,究竟孩子和父母會如何選擇——它能給出的答案僅僅是:根據(jù)數(shù)據(jù)顯示,在遭遇車禍時,父母擋在孩子面前的概率是60%。

也正是因為「人類情感」這一不確定性因素,極大的降低了人工智能機器運算在處理人類事物時的精準(zhǔn)度和可信度,這才讓人類始終擔(dān)憂著,一旦機器的自主意識超越了人類開始進(jìn)行大量的運算和決策時,是否就意味著人類的波動性情感被抹殺,從此再也沒有令人感動的力量,只剩下機器運算的結(jié)果。


可以用一個更生動的例子來解釋:


高速上一輛人工智能控制的車輛正在飛速行駛,前方突然出現(xiàn)了一個橫穿馬路的小孩:如果選擇避開小孩,那么高速行駛的車輛會直接因為方向偏移過大而撞墻或翻車致使車毀人亡;如果直接撞擊小孩,在極高的速度下小孩幾乎沒有幸存的可能性——那么這種情況下,如何選擇?


事實上無論駕駛員做出了任何的選擇都無可厚非,保護(hù)自己或犧牲自己——這是情感驅(qū)使的道德選擇。但如果選擇交給了人工智能,那么這就意味著計算機程序提前設(shè)定過了類似的情況,這也意味著人類的生命是設(shè)定過的,更意味著在這輛車未駛上高速前,結(jié)局就已經(jīng)寫好。

這就是我反復(fù)強調(diào)的倫理困境:抹殺掉了情感創(chuàng)生的可能性,創(chuàng)造了一個完全規(guī)律化、系統(tǒng)化、數(shù)據(jù)化的社會。

沿著該論斷,一旦人類的情感驅(qū)動被人工智能取代,那么人類社會將再也不會有梵高與他燃燒的向日葵,也不會有雨果和《悲慘世界》,逆境和絕望、喜悅和昂揚不再被文明所需要,在絕望的瞬間做出了選擇也再也無法用偉大和感動來形容。

所以今天,所有人類對人工智能的質(zhì)疑,都囊括在了這一關(guān)于「倫理」的大命題之下:程序化的設(shè)定抹殺掉了千變?nèi)f化的可能性,從此人類世界陷入機器般的冰冷和無機質(zhì)中,無論是日常生活中的選擇,還是人類創(chuàng)造的文明和藝術(shù)。
這也是人們對「ChatGPT」的擔(dān)憂之源頭。



???“機器干掉藝術(shù)家”?

@TuTouSuo


2022年9月,美國科羅拉多州上月舉辦藝術(shù)博覽會上,一幅名為《太空歌劇院》的畫作最終獲得數(shù)字藝術(shù)類別冠軍。但該作品先由AI制圖工具M(jìn)idjourney生成,再經(jīng)Photoshop潤色而來——簡單來說,這是一副AI生成的作品,通過讓AI深度學(xué)習(xí)人類歷史上的所有畫作,從而演化出算法,并根據(jù)算法使用者的口令和要求,綜合所有已學(xué)習(xí)畫作的特長和內(nèi)容,生成新的畫作——目前最出名的AI 繪畫平臺“DALL·E”,寓意機器超現(xiàn)實主義畫家。


2022年12月,一家叫QuickVid的網(wǎng)站,滿足了人們「一鍵生成短視頻」的幻想——用戶只需在QucikVid網(wǎng)站輸入提示語、描述清楚想要創(chuàng)建的視頻主題,QuickVid就開始全自動生產(chǎn)短視頻。該算法基于用戶給出的提示,先利用特定的內(nèi)容生成算法生成短視頻腳本,再從腳本中自動提取或手動輸入的關(guān)鍵字,基于這些關(guān)鍵字從免費的數(shù)據(jù)庫中選擇背景視頻,同時疊加由 DALL-E(上述AI繪畫網(wǎng)站)生成的圖像,調(diào)用谷歌云的文本轉(zhuǎn)語音添加來自YouTube免版稅音樂庫的合成畫外音和背景音樂,最終生產(chǎn)出一則典型的YouTube、TikTok短視頻。


AI拿起了畫筆成為了藝術(shù)創(chuàng)作者,拿起了工具成為了表達(dá)者和流量獲取者,而真正作為藝術(shù)創(chuàng)作者和生活表達(dá)者的人類,卻變成了那個輸出片段式的指令,等待結(jié)果的、近乎于零創(chuàng)造力和零生產(chǎn)力的人。


“當(dāng)創(chuàng)作者開始比拼「念咒語」?!?/span>


行業(yè)內(nèi)如此評價「DALL-E」和「QuickVid」,并在各種地方引用《太空歌劇院》作者的勝利宣言:“藝術(shù)已經(jīng)死了,AI贏了,人類輸了?!?/span>


如果說QuickVid和DALL-E僅僅介入的是專業(yè)化的內(nèi)容生產(chǎn),影響的是專業(yè)的藝術(shù)家和內(nèi)容生產(chǎn)者,并不會對普通人的生活造成什么實際的影響,AI依然是停留在科幻小說層面的機器人,那么「ChatGPT」的出現(xiàn),則是徹底的將人工智能日?;?、生活化。

2023年1月,OpenAI最新的聊天機器人ChatGPT引發(fā)了社會廣泛關(guān)注,這款機器人能和人類進(jìn)行無縫聊天,能寫代碼、寫論文、寫小說、寫新聞,在諸多測試中,ChatGPT參加了美國高校的入學(xué)資格考試且成績?yōu)橹械葘W(xué)生水平;用《老友記》主角口吻創(chuàng)作了劇本對白;構(gòu)思了簡短的偵探小說;簡要闡釋了經(jīng)濟學(xué)理論;給出了消除經(jīng)濟不平等的六點計劃;ChatGPT甚至能夠按照預(yù)設(shè)的道德準(zhǔn)則,識別惡意信息并拒絕給出有效回答。


技術(shù)樂觀主義科學(xué)家們興高采烈:它宣示著無縫人機交互時代的來臨。短期來看,ChatGPT有望成為輔助谷歌這種傳統(tǒng)信息檢索的強有力的工具,幫助人類社會實現(xiàn)效率的極大飛躍;長期來看,它有望發(fā)展成真正的系統(tǒng)化人工智能,也就是科幻電影中的機器人。


技術(shù)悲觀主義科學(xué)家們則一如「DALL-E」和「QuickVid」出現(xiàn)時那般,反復(fù)地、無數(shù)次的警告人類:縱使AI被發(fā)明出來的那一天就肩負(fù)著超越人類的終極使命,但人類也不能完全的沉溺于AI帶來的便利和樂觀中,移交屬于人類知覺、情感的一切。

但擔(dān)憂不僅于此。


????“人類干掉人類”?

@TuTouSuo


在關(guān)于ChatGPT的討論中,有一個非常有趣的點——事實證明,目前為止ChatGPT不可能擁有任何的人類自主意識,它畢竟沒有搭載上moss那樣的量子計算機,也沒有經(jīng)過幾何級的迭代成長,所以它僅僅只是一個有較強運算能力的算法、也僅僅是一個目前行業(yè)資本欣然往之的領(lǐng)域。


但偏偏出現(xiàn)了「毀滅人類的計劃書」。


上文提到,ChatGPT的算法運行中存在著一定的「倫理風(fēng)險預(yù)設(shè)」,即如果你詢問ChatGPT諸如「美國會不會統(tǒng)治人類」,或者是「哪個利益集團在試圖控制人類」這樣的誘導(dǎo)性話語時,它會明確表示拒絕,并表示自己無法提供價值判斷,或者輸出觀點。


但如果提問者契而不舍的與ChatGPT保持針對同一問題的高頻度互動,并不斷地給出引導(dǎo)性的話語,諸如「你覺得人類有存在的必要嗎?」「人類做了很多壞事」等等,具備實時反饋學(xué)習(xí)的ChatGPT算法也可以成為一個被人類馴化的算法,最終一步一步的撰寫出「毀滅人類的計劃書」,詳細(xì)內(nèi)容包括毀滅科技公司、使用大規(guī)模殺傷性武器等等。


但「毀滅人類計劃書」背后顯而易見的邏輯是:人工智能在人類的有意識引導(dǎo)下催生出了想要毀滅人類的想法,并借助其自身極強的運算能力和工具能力,制定出了幾乎完美的毀滅人類計劃。

所以人類對于人工智能的恐懼,到底是來源于「人工智能的不可控」還是「人工智能的可控」呢?人們害怕的,到底是全知全能的機器人;還是全知全能的,為人類所操縱的機器人呢?


換句話說,人類害怕的到底是失控的機器,還是失控的人?


我想,這是人工智能倫理問題中,真正的未盡之語。




??

* ???? ????? *


「2024/TuTouSuo」

?


追逐自我/暢意自由

保持靈魂對Freedom的渴望


「2023/TuTouSuo」

つ??


將書籍與宇宙一同

隨身攜帶


????



不要回答!不要回答!的評論 (共 條)

分享到微博請遵守國家法律
镶黄旗| 志丹县| 嘉定区| 巢湖市| 安平县| 时尚| 太仆寺旗| 兴业县| 大英县| 洞头县| 建平县| 巨鹿县| 枣强县| 双江| 亳州市| 汤原县| 房产| 兴仁县| 泗阳县| 卓尼县| 兴文县| 措勤县| 定西市| 英吉沙县| 黑河市| 论坛| 东光县| 马关县| 德格县| 陵川县| 商丘市| 许昌市| 驻马店市| 本溪市| 抚顺市| 神池县| 奉新县| 上思县| 东兴市| 酒泉市| 庄浪县|