最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

時尚科技 | 生成式人工智能(GenAI)將具體如何幫助時尚業(yè)發(fā)展?

2023-12-13 20:01 作者:冷蕓時尚圈  | 我要投稿


▼ 以下的冷蕓時尚圈討論是就行業(yè)問題的討論及總結(jié)。這些分享屬于集體智慧的結(jié)晶。(它們并不代表冷蕓個人觀點)。希望通過此種方式能讓更多行業(yè)人士受益!



一、GenAI 相關(guān)背景


1.ChatGPT與MidJourney為標(biāo)志性開端的GenAI浪潮

人們對AI的理解主要集中在人機(jī)對話、人臉識別等應(yīng)用場景上。這些都是AI技術(shù)在不同領(lǐng)域的具體應(yīng)用。然而,AI的核心要素可以概括為三個部分:數(shù)據(jù)、算法和算力。


當(dāng)我們談?wù)揂I,可以將其比作烹飪一道美味的菜肴。AI的三大要素就像烹飪中不可或缺的元素一樣。


首先,數(shù)據(jù)就像是食材,是我們開始制作美食的原材料。沒有高質(zhì)量的數(shù)據(jù),就像沒有新鮮的食材,我們無法制作出口感好的料理。


其次,算法就像是菜譜,它指導(dǎo)我們?nèi)绾问褂眠@些數(shù)據(jù)來達(dá)到特定的目標(biāo)。就像一本烹飪書告訴我們應(yīng)該如何處理食材以制作一道美味佳肴,算法告訴AI如何處理數(shù)據(jù)以實現(xiàn)特定任務(wù)。


最后,算力就像是我們用來烹飪的鍋碗瓢盆。它代表了我們需要的計算資源和硬件設(shè)備(GPU),以便將算法應(yīng)用于數(shù)據(jù),從而創(chuàng)建出強(qiáng)大的AI系統(tǒng)。


大家剛剛其實也提到了各類 AI 的應(yīng)用場景,那里面哪些算是生成式 AI 呢?


生成式 AI(Generative AI,簡稱 GenAI) , GenAI 是 AI 的子集,同樣也是由三要素組成的:

1)數(shù)據(jù)上:

- AI:傳統(tǒng)AI算法通常需要大量標(biāo)記好的數(shù)據(jù)來進(jìn)行監(jiān)督學(xué)習(xí)或其他類型的學(xué)習(xí)。這些數(shù)據(jù)通常需要專家手動標(biāo)注,這使得數(shù)據(jù)獲取和準(zhǔn)備成本較高。

- GenAI:生成式AI也需要大量數(shù)據(jù),但它通常更側(cè)重于無監(jiān)督學(xué)習(xí),自監(jiān)督學(xué)習(xí)或強(qiáng)化學(xué)習(xí)。這意味著生成式AI可以從更多類型的數(shù)據(jù)中學(xué)習(xí),包括未標(biāo)記的數(shù)據(jù),圖片、文本等。


2)算法上:

- AI:傳統(tǒng)AI算法包括決策樹、支持向量機(jī)、神經(jīng)網(wǎng)絡(luò)等,通常是手工設(shè)計的特征和模型結(jié)構(gòu)。

- GenAI:生成式 AI 往往使用深度神經(jīng)網(wǎng)絡(luò)模型(很多層、參數(shù)量龐大的神經(jīng)網(wǎng)絡(luò)),如目前圖像生成采用的主流算法是擴(kuò)散模型(Diffusion)、目前文本生成上的主流模型是 Transformer。這些模型可以自動從海量數(shù)據(jù)中提取特征,因此不需要手動設(shè)計特征。


3)算力上:

- AI:傳統(tǒng)AI算法通常可以在標(biāo)準(zhǔn)硬件上運(yùn)行,不需要大規(guī)模的計算資源。

- GenAI:生成式AI,特別是大型模型如GPT-3,需要大規(guī)模的計算資源,通常在分布式系統(tǒng)上運(yùn)行,使用多個GPU或TPU進(jìn)行訓(xùn)練和推理。


GenAI 的特點主要有產(chǎn)品的使用門檻低、可用性高、通用性強(qiáng)。

1)低門檻:MJ、ChatGPT等產(chǎn)品擁有龐大的用戶群體,這得益于其用戶友好的界面和易用性。無需深入的技術(shù)背景,普通用戶也能夠輕松使用這些產(chǎn)品來生成文本、圖像或音頻內(nèi)容。

2)可用性:生成的內(nèi)容越來越難以辨別是真人所做還是 AI 所做,也說明這些生成的內(nèi)容是能夠真正可以在各種工作場景中運(yùn)用,真正提升大家的生產(chǎn)效率。

3)通用性:生成式 AI 產(chǎn)品的用途是非常廣泛的,它們能夠在多種任務(wù)中發(fā)揮作用,以 ChatGPT 類的文本生成 AI為例,無論是在商務(wù)領(lǐng)域需要回復(fù)客戶郵件,還是在學(xué)術(shù)界需要撰寫研究論文,生成式AI都能成為你的得力助手。此外,如果你是一名創(chuàng)作者,它還能幫你生成小說、詩歌、歌詞等藝術(shù)作品。



2.文本生成:ChatGPT 類對話產(chǎn)品與 LLM 大語言模型


除了文本生成的產(chǎn)品之外,當(dāng)然還有圖像生成、音樂生成、視頻生成、代碼生成等等,當(dāng)然今天主要是討論文本生成和圖像生成這兩類最為廣泛的應(yīng)用。


首先 ChatGPT 是產(chǎn)品,Chat 是指交互方式,GPT 則是指這款產(chǎn)品背后的模型。

當(dāng)我們談到GPT(Generative Pre-trained Transformer)時,它其實是建立在一個非常強(qiáng)大的算法框架上的,那就是Transformer。Transformer 這個框架是由Google于2017年提出的,它的應(yīng)用領(lǐng)域非常廣泛,不僅僅是在自然語言處理中,還包括計算機(jī)視覺和其他領(lǐng)域。所以,當(dāng)你聽到GPT時,不要忘記這個基礎(chǔ),它是讓AI變得更智能和強(qiáng)大的關(guān)鍵算法框架之一,而GPT則是在這個基礎(chǔ)上進(jìn)一步發(fā)展和優(yōu)化的。


我們先簡要看看GPT的歷史:


1)GPT-1:發(fā)布于2018年,是GPT系列的第一個模型。它擁有大約125M(M=百萬)個參數(shù),使用了較小的文本語料庫進(jìn)行預(yù)訓(xùn)練。雖然在當(dāng)時取得了不錯的結(jié)果,但參數(shù)量相對較小,限制了其性能。


2)GPT-2:于2019年發(fā)布,GPT-2擁有大約1.5B(B=十億)個參數(shù),是GPT-1參數(shù)數(shù)量的12倍,需要更多的計算資源,包括多個GPU或TPU。它使用大規(guī)模的互聯(lián)網(wǎng)文本數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,表現(xiàn)出色,并引發(fā)了擔(dān)憂,因為它有潛力生成誤導(dǎo)性信息。


3)GPT-3:在2020年發(fā)布,它包含了巨大的參數(shù)數(shù)量,達(dá)到了1750B(B=十億)個,相較于GPT-2大了1167倍,需要極大的計算資源,在大規(guī)模分布式計算環(huán)境中進(jìn)行訓(xùn)練。GPT-3的表現(xiàn)在多種自然語言處理任務(wù)上都非常出色,但也引發(fā)了有關(guān)倫理和安全問題的討論,因為其能力可能被濫用。


4)ChatGPT(GPT-3.5):于 2022 年發(fā)布,它是在 GPT-3 上建立的一款對話機(jī)器人產(chǎn)品。借助GPT-3的巨大參數(shù)數(shù)量和卓越的語言理解能力,ChatGPT能夠模擬人類對話,回答問題,提供解釋,生成文本以及執(zhí)行各種自然語言處理任務(wù)。它被廣泛用于在線聊天機(jī)器人、智能助手、客戶支持系統(tǒng)等應(yīng)用中,為用戶提供智能而自然的對話體驗。


5)GPT-4:于 2023 年發(fā)布的一種大規(guī)模多模態(tài)語言模型,它可以接受圖像和文本作為輸入,生成文本作為輸出。GPT-4相比前一代GPT-3.5,在許多專業(yè)和學(xué)術(shù)的評測上表現(xiàn)出了人類水平的性能,例如在模擬律師考試中得分位于前10%的水平,而GPT-3.5則位于后10%。GPT-4還具有更高的創(chuàng)造力和可靠性,可以處理更復(fù)雜和細(xì)致的指令,例如寫歌詞或劇本。GPT-4還通過了對事實、可控性和安全性的測試,雖然仍然不完美,但比以往的模型有了明顯的改進(jìn)。


為什么 GenAI 要單拎出來講呢?是因為大模型有一些原先小模型不具備的能力。比如大型語言模型(LLM,Large Language Models)具有三個主要特點,包括規(guī)模定律、涌現(xiàn)能力和工具調(diào)用能力。


1)規(guī)模定律:即其性能隨著參數(shù)數(shù)量的增加而逐漸提高。這意味著增加模型的參數(shù)量通常會導(dǎo)致更好的性能,例如更準(zhǔn)確的文本生成和自然語言處理任務(wù)執(zhí)行。然而,這種提升并非線性的,而是遞減的,因此在性能和計算成本之間需要權(quán)衡。


可以想象一輛汽車的油箱。初始時,每增加一加侖的汽油,你的車可以行駛更遠(yuǎn)的距離,性能逐漸提高。然而,隨著汽油的不斷添加,每加侖所能行駛的額外距離逐漸減小。


2)涌現(xiàn)能力:模型在規(guī)模達(dá)到一定程度時,表現(xiàn)出一些較小的模型不具備的能力,例如在復(fù)雜的語言理解、生成、推理等任務(wù)上有顯著的提升。這種能力可以看作是由模型中的大量參數(shù)和數(shù)據(jù)相互作用,在宏觀層面上產(chǎn)生的一種特殊現(xiàn)象,類似于自然界中的涌現(xiàn)現(xiàn)象。


就像人腦中的神經(jīng)元在互相連接和相互作用時,產(chǎn)生了智力和創(chuàng)造力,大型語言模型中的數(shù)百萬(甚至數(shù)十億)參數(shù)互相作用,產(chǎn)生了出人意料的文本和任務(wù)執(zhí)行能力。這些出人意料的結(jié)果是模型內(nèi)部復(fù)雜性的產(chǎn)物,就像人腦中的思維和創(chuàng)意也是神經(jīng)元相互作用的產(chǎn)物。


3)工具調(diào)用能力:大模型的工具調(diào)用能力是指大模型可以通過調(diào)用外部的 API 或服務(wù),來實現(xiàn)一些自身無法完成的功能,如圖像處理、語音識別、數(shù)據(jù)分析等。這種能力可以讓大模型擴(kuò)展自己的應(yīng)用范圍,提高自己的效率和效果。調(diào)用外部工具、并且擁有記憶機(jī)制的 LLM 也被稱作 AI Agent(智能體)。



3.圖像生成:MidJourney 類產(chǎn)品與模型


主流的圖像生成產(chǎn)品 MJ、SD 和 DALL·E:


MJ(MidJourney)是于2022 年 7 月12 日進(jìn)入公開測試的產(chǎn)品,由于是商業(yè)軟件,背后算法沒有開源。


SD(Stable Diffusion)最開始是 Stability 公司贊助的開源模型 Latent Diffusion。這個模型是由慕尼黑工業(yè)大學(xué)團(tuán)隊發(fā)表在 CVPR 2022(計算機(jī)視覺相關(guān)的人工智能頂級會議)2022 年 6 月的論文,而通常大家使用的 SD WebUI 則是一位社區(qū)開發(fā)者基于這個模型設(shè)計了一個開源的 UI 讓大家更好使用這個模型。


DALL·E 最初于 2021年1月5日由OpenAI發(fā)布,它是基于GPT-3的多模態(tài)語言模型,共擁有120億個參數(shù),使用從網(wǎng)絡(luò)上收集的文本和圖像對進(jìn)行訓(xùn)練。然后 DALL·E 2 在2022年4月發(fā)布,但是一直沒有公開使用,它是基于GPT-4的多模態(tài)語言模型,聲稱它可以從文本描述中生成照片般逼真的圖像,另外還有一個允許對輸出進(jìn)行簡單修改的編輯器。DALL·E 3在2023年9月21日發(fā)布,并與ChatGPT集成,基于用戶提供的自然語言文本來生成圖像。由于也是商業(yè)軟件,并沒有開源。


圖像生成的 GenAI 產(chǎn)品的特點是極大降低創(chuàng)作門檻,目前的趨勢是可控性逐步增強(qiáng)、使用門檻還會進(jìn)一步降低。


1)低門檻:


- 根據(jù)用戶的輸入或指令,生成新的圖像的產(chǎn)品。這些產(chǎn)品可以讓用戶無需具備專業(yè)的繪畫技能或軟件工具,就可以輕松地創(chuàng)造出想象中的畫面,或者對現(xiàn)有的圖像進(jìn)行修改和優(yōu)化。這些產(chǎn)品在藝術(shù)、設(shè)計、娛樂等領(lǐng)域有廣泛的應(yīng)用。


- 個人感覺很類似于智能手機(jī)讓人人都可以攝影。像手機(jī)的拍照功能越來越強(qiáng)大、越來越低門檻一樣,人人都可以隨時隨地拍攝和編輯自己喜歡的照片。這類創(chuàng)意工具的普及和發(fā)展,也是科技進(jìn)步和文化變革的體現(xiàn)之一。


2)可控性逐步增強(qiáng):


- 通過使用 ControlNet、Lora 等插件模型作為圖像生成模型的輔助工具,用戶可以對生成結(jié)果進(jìn)行更細(xì)致和靈活的控制。


- 例如,ControlNet 可以讓輸入一些特定條件圖,這些控制單純通過文本很難被精細(xì)化描述。


3)門檻還將進(jìn)一步降低


OpenAI 官網(wǎng)的介紹:DALL·E 3 比我們以前的系統(tǒng)了解更多的細(xì)微差別和細(xì)節(jié),使您能夠輕松地將您的想法轉(zhuǎn)化為異常準(zhǔn)確的圖像,也就是文本到圖像模型的提示詞跟隨能力大幅改善,目前已對 ChatGPT Plus 和企業(yè)版用戶開放使用。


個人認(rèn)為DALL·E3 約等于 LLM(文本生成模型) + SD(圖像生成模型),其中 LLM 幫用戶將更加自然的需求轉(zhuǎn)化為 SD 更好理解的 prompt。DALL·E3的優(yōu)點是可以結(jié)合 GPT-4 的多模態(tài)能力和SD的快速采樣能力,讓用戶無需等待長時間,就可以得到滿意的生成結(jié)果。




二、GenAI在時尚行業(yè)的應(yīng)用案例


1.時尚設(shè)計與產(chǎn)品開發(fā)


接下來和大家一起討論 GenAI 在時尚行業(yè)里有哪些具體的應(yīng)用案例、產(chǎn)品,我們先從3個應(yīng)用較多的方向來討論。我個人看到的 GenAI 主要應(yīng)用在:


1)創(chuàng)意靈感圖生成

2)款式設(shè)計(成衣、鞋子、包袋、配飾等等)

3)印花設(shè)計


后面兩類會要求較高的精準(zhǔn)度、可用性,創(chuàng)意靈感圖生成則會需要較好的發(fā)散性、創(chuàng)意性。就“時尚設(shè)計、產(chǎn)品開發(fā)”這個應(yīng)用場景,大家有沒有想到或者看到一些別的細(xì)分應(yīng)用環(huán)節(jié)呢?


GenAI 在服裝設(shè)計上的優(yōu)缺點

缺點:

1)精細(xì)化的修改仍需大量手工調(diào)整;

2)只能生成二維圖像而非完整服裝(版型、工藝);

3)好的生成效果非常依賴于提示詞。


優(yōu)點:

1)優(yōu)化流程,先預(yù)訂再生產(chǎn);

2)可以快速創(chuàng)造大量的新穎設(shè)計。


GenAI 在設(shè)計上的案例(國外):


AI Fashion Week 是由Maison Meta舉辦的時尚活動(2023年4月于紐約舉辦),它展示了各類由人工智能技術(shù)生成的服裝設(shè)計。AI Fashion Week的目的是通過鼓勵設(shè)計師使用新的工具和方法,來突破時尚界的可能性和創(chuàng)新性。


AI Fashion Week 同時也是比賽,參賽者的作品不僅僅存在于虛擬世界中,也將會通過觀眾投票和專家評審,來決定最終的三名獲勝者。這些獲勝者的作品將由電子商務(wù)平臺 Revolve 實際生產(chǎn)并銷售。



線上零售商 Revolve 發(fā)布了由 AI 生成的限量膠囊系列及單品該活動開始接受預(yù)訂,為消費(fèi)者提供了機(jī)會購買由生成式人工智能設(shè)計的衣服。此外,國內(nèi)的針對時尚行業(yè)的 MJ 已經(jīng)出來了很多家產(chǎn)品,包括不限于(歡迎大家補(bǔ)充):POP趨勢的AI智繪,蝶訊AI設(shè)計師,知衣科技的fashion diffusion,Style3d的AI功能,F(xiàn)abrie的AI功能等等…



2.市場營銷,視覺與文案內(nèi)容


GenAI在市場營銷上的細(xì)分應(yīng)用場景是視覺廣告、廣告文案、產(chǎn)品文案等等。蕓友Iyrin認(rèn)為產(chǎn)品文案比較合適,因為一般的產(chǎn)品文案都相對客觀和具體。但是廣告文案就需要更多的場景參與情緒參與以及個性賣點價值觀的輸出,這個感覺現(xiàn)有的AI獨立比較難完成。的確,GenAI在這一場景下應(yīng)用的缺點在于生成內(nèi)容可能存在數(shù)據(jù)偏見,導(dǎo)致缺乏多樣性和包容性;其優(yōu)點主要在于可大大節(jié)省降低人力成本、時間成本。


下面我提供了一個GenAI在時尚營銷上的營銷案例:GUCCI與佳士得在 2023 年 6 月共同啟動了“未來頻率:生成藝術(shù)與時尚的探索”,委托了來自多位 AI 藝術(shù)創(chuàng)作者的 21 件藝術(shù)作品,以 NFT 藏品的形式登上了拍賣界巨頭佳士得的拍賣臺。根據(jù)GUCCI官網(wǎng)介紹,每位藝術(shù)家的任務(wù)是“創(chuàng)造不同生態(tài)的融合”——即,將服裝設(shè)計和制造的工業(yè)領(lǐng)域與生成藝術(shù)和人工智能的科技世界融合在一起。



3.電子商務(wù)和消費(fèi)者體驗


GenAI在消費(fèi)者體驗上的主要細(xì)分應(yīng)用場景:AI 模特、個性化 AI 客服、虛擬試衣。

1)優(yōu)點:降低成本,提升效率。

2)缺點:生成的圖像和實際產(chǎn)品之間可能存在偏差。


AI 模特案例:


個性化客服案例:

2023年4月歐洲的知名時尚電商平臺 zalando 在其應(yīng)用程序和網(wǎng)絡(luò)平臺上推出由 ChatGPT 支持的時尚助手。時尚助手可以根據(jù)具體的應(yīng)用場景進(jìn)行推薦商品、基于商品推薦搭配、基于需求重新推薦商品等等個性化服務(wù)。


圖片里的內(nèi)容有應(yīng)用場景進(jìn)行推薦商品:用戶說自己在7月要在圣托尼亞參加婚禮,然后 AI會根據(jù)時間地點,推理出相應(yīng)的天氣情況,再推薦服裝款式。




莊主總結(jié)


一、GenAI相關(guān)背景


1.ChatGPT與MidJourney為標(biāo)志性開端的GenAI浪潮

GenAI更側(cè)重于使用更多類型的數(shù)據(jù)進(jìn)行無監(jiān)督學(xué)習(xí),采用深度神經(jīng)網(wǎng)絡(luò)模型(Diffusion、Transformer)來自動提取特征,但需要更大規(guī)模的計算資源。GenAI 的特點是使用門檻低、可用性高、通用性強(qiáng)。


2.文本生成:ChatGPT類對話產(chǎn)品與LLM大語言模型

大型語言模型(LLM,Large Language Models)具有三個主要特點,包括規(guī)模定律、涌現(xiàn)能力和工具調(diào)用能力。


3.圖像生成:MidJourney類產(chǎn)品與模型

圖像生成的GenAI產(chǎn)品的特點是極大降低創(chuàng)作門檻,目前的趨勢是可控性逐步增強(qiáng)、使用門檻還會進(jìn)一步降低。



二、GenAI在時尚行業(yè)的應(yīng)用


1.時尚設(shè)計與產(chǎn)品開發(fā)

主要應(yīng)用在:創(chuàng)意靈感圖生成、款式設(shè)計(成衣、鞋子、包袋、配飾等等)和印花設(shè)計,后面兩類會要求較高的精準(zhǔn)度、可用性,創(chuàng)意靈感圖生成則會需要較好的發(fā)散性、創(chuàng)意性。


2.市場營銷,視覺與文案內(nèi)容

市場營銷上的細(xì)分應(yīng)用場景是視覺廣告、廣告文案、產(chǎn)品文案等等。


3.電子商務(wù)和消費(fèi)者體驗

消費(fèi)者體驗上的主要細(xì)分應(yīng)用場景:AI 模特、個性化 AI 客服、虛擬試衣。




文字整理:張懷楷

文字編輯:陳暢

美術(shù)編輯:李寧

時尚科技 | 生成式人工智能(GenAI)將具體如何幫助時尚業(yè)發(fā)展?的評論 (共 條)

分享到微博請遵守國家法律
新巴尔虎右旗| 古浪县| 耿马| 营山县| 平果县| 临颍县| 丹阳市| 金坛市| 贵州省| 昌乐县| 边坝县| 郧西县| 林芝县| 庆城县| 万全县| 宜都市| 赤水市| 瑞丽市| 和龙市| 凤阳县| 邓州市| 保靖县| 清原| 巢湖市| 华阴市| 皋兰县| 佛冈县| 桂东县| 常熟市| 武功县| 伊金霍洛旗| 桂平市| 承德县| 炉霍县| 简阳市| 泗洪县| 江西省| 肇东市| 赤壁市| 东辽县| 永嘉县|