最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

學(xué)人工智能必知的英文單詞

2023-06-22 16:36 作者:道口劉玉書  | 我要投稿

轉(zhuǎn)自推特@Will 3.6-6.16 硅谷。

【1】Accelerator 加速器:一類為加速AI應(yīng)用而設(shè)計的微處理器。

【2】Agents 代理: 可以獨立并主動地執(zhí)行某些任務(wù)的軟件,無需人類干預(yù),通常利用一套工具如計算器或網(wǎng)絡(luò)瀏覽器。

【3】AGI (Artificial General Intelligence) AGI(人工通用智能): 盡管并未廣泛達(dá)成一致,但微軟的研究人員已將AGI定義為在任何智力任務(wù)上都能與人類匹敵的人工智能。

【4】Alignment 對齊: 確保AI系統(tǒng)的目標(biāo)與人類價值觀相符的任務(wù)。

【5】ASI (Artificial Super Intelligence) ASI(人工超級智能): 盡管存在爭議,ASI通常被定義為超越人類思維能力的人工智能。

【6】Attention 注意力機制: 在神經(jīng)網(wǎng)絡(luò)的上下文中,注意力機制幫助模型在產(chǎn)生輸出時專注于輸入的相關(guān)部分。

【7】Back Propagation 反向傳播: 在訓(xùn)練神經(jīng)網(wǎng)絡(luò)中常用的一種算法,指計算損失函數(shù)相對于網(wǎng)絡(luò)權(quán)重的梯度的方法。

【8】Bias 偏見 AI模型對數(shù)據(jù)做出的假設(shè)。"偏見方差權(quán)衡"是需要達(dá)成的平衡,即模型對數(shù)據(jù)的假設(shè)和模型的預(yù)測在不同訓(xùn)練數(shù)據(jù)下的變化程度之間的平衡。歸納偏見是機器學(xué)習(xí)算法對數(shù)據(jù)底層分布的一組假設(shè)。

【9】Chain of Thought 思維鏈條: 在AI中,這個術(shù)語通常用來描述AI模型用來做出決策的一系列推理步驟。

【10】Chatbot 聊天機器人: 一種通過文本或語音交互模擬人類對話的計算機程序。聊天機器人通常使用自然語言處理技術(shù)來理解用戶輸入并提供相關(guān)的回應(yīng)。

【11】ChatGPT :OpenAI開發(fā)的一種大規(guī)模的AI語言模型,可以生成類人的文本。

【12】CLIP (Contrastive Language–Image Pretraining) CLIP(對比語言-圖像預(yù)訓(xùn)練): OpenAI開發(fā)的一種AI模型,可以連接圖像和文本,使其能夠理解和生成圖像的描述。

【13】Compute 計算 在訓(xùn)練或運行AI模型中使用的計算資源(如CPU或GPU時間)。

【14】Convolutional Neural Network (CNN) 卷積神經(jīng)網(wǎng)絡(luò)(CNN) 一種深度學(xué)習(xí)模型,通過應(yīng)用一系列過濾器來處理具有網(wǎng)格狀拓?fù)浣Y(jié)構(gòu)的數(shù)據(jù)(例如,圖像)。這樣的模型通常用于圖像識別任務(wù)。

【15】Data Augmentation 數(shù)據(jù)增強:通過添加對現(xiàn)有數(shù)據(jù)的輕微修改的副本,增加用于訓(xùn)練模型的數(shù)據(jù)量和多樣性的過程。

【16】Deep Learning 深度學(xué)習(xí): 機器學(xué)習(xí)的一個子領(lǐng)域,專注于訓(xùn)練具有多層的神經(jīng)網(wǎng)絡(luò),從而實現(xiàn)復(fù)雜模式的學(xué)習(xí)。

【17】Diffusion 擴散: 在AI和機器學(xué)習(xí)中,一種通過開始使用一部分真實數(shù)據(jù)并添加隨機噪聲來生成新數(shù)據(jù)的技術(shù)。擴散模型是一種生成模型,在該模型中,神經(jīng)網(wǎng)絡(luò)被訓(xùn)練以預(yù)測當(dāng)隨機噪聲被添加到數(shù)據(jù)時的反向過程。擴散模型被用來生成與訓(xùn)練數(shù)據(jù)相似的新數(shù)據(jù)樣本。

【18】Double Descent 雙下降:機器學(xué)習(xí)中的一種現(xiàn)象,其中模型性能隨著復(fù)雜性的增加而提高,然后惡化,然后再次提高。

【19】Embedding 嵌入: 數(shù)據(jù)的新型表示,通常是向量空間。相似的數(shù)據(jù)點具有更相似的嵌入。

【20】Emergence/Emergent Behavior (“sharp left turns,” intelligence explosions) 出現(xiàn)/新興行為(“急轉(zhuǎn)彎”,智力爆炸):在AI中,新興行為指的是從簡單的規(guī)則或交互中產(chǎn)生的復(fù)雜行為?!凹鞭D(zhuǎn)彎”和“智力爆炸”是AI發(fā)展突然并急劇變化的推測性場景,通常與AGI的到來有關(guān)。

【21】End-to-End Learning 端到端學(xué)習(xí): 一種機器學(xué)習(xí)模型,無需手動設(shè)計特征。模型只需輸入原始數(shù)據(jù),并從這些輸入中學(xué)習(xí)。

【22】Expert Systems 專家系統(tǒng):應(yīng)用人工智能技術(shù)為特定領(lǐng)域內(nèi)的復(fù)雜問題提供解決方案。

【23】Explainable AI (XAI) 可解釋AI(XAI): 專注于創(chuàng)建提供明確和可理解的決策解釋的透明模型的AI子領(lǐng)域。

【24】Fine-tuning 微調(diào) :采取一個已經(jīng)在大數(shù)據(jù)集上預(yù)訓(xùn)練的模型,然后在特定的、更小的數(shù)據(jù)集上進(jìn)行二次訓(xùn)練以適應(yīng)特定的任務(wù)或問題。

【25】Forward Propagation 正向傳播 在神經(jīng)網(wǎng)絡(luò)中,正向傳播是將輸入數(shù)據(jù)輸入到網(wǎng)絡(luò)并通過每一層(從輸入層到隱藏層,最后到輸出層)傳遞以產(chǎn)生輸出的過程。網(wǎng)絡(luò)應(yīng)用權(quán)重和偏置到輸入,并使用激活函數(shù)生成最終輸出。

【26】Foundation Model 基礎(chǔ)模型: 在廣泛數(shù)據(jù)上訓(xùn)練的大型AI模型,用于適應(yīng)特定任務(wù)。

【27】General Adversarial Network (GAN) 生成對抗網(wǎng)絡(luò)(GAN) 一種用于生成與某些現(xiàn)有數(shù)據(jù)相似的新數(shù)據(jù)的機器學(xué)習(xí)模型。它將兩個神經(jīng)網(wǎng)絡(luò)互相對抗:一個“生成器”創(chuàng)建新數(shù)據(jù),一個“判別器”試圖區(qū)分該數(shù)據(jù)和真實數(shù)據(jù)。

【28】Generative AI 生成型AI: 一個專注于創(chuàng)建可以基于現(xiàn)有數(shù)據(jù)的模式和示例生成新的、原創(chuàng)的內(nèi)容(如圖像、音樂或文本)的模型的AI分支。

【29】GPT (Generative Pretrained Transformer) GPT(生成預(yù)訓(xùn)練變壓器) 由OpenAI開發(fā)的大型AI語言模型,可以生成類似人類的文本。

【30】GPU (Graphics Processing Unit) GPU(圖形處理單元): 一種專用的微處理器類型,主要設(shè)計用于快速渲染圖像以輸出到顯示器。GPU還非常有效地執(zhí)行訓(xùn)練和運行神經(jīng)網(wǎng)絡(luò)所需的計算。

【31】Gradient Descent 梯度下降:在機器學(xué)習(xí)中,梯度下降是一種優(yōu)化方法,通過根據(jù)其損失函數(shù)的最大改善方向逐漸調(diào)整模型的參數(shù)。例如,在線性回歸中,梯度下降通過反復(fù)調(diào)整線的斜率和截距來尋找最佳擬合線,以最小化預(yù)測錯誤。

【32】Hallucinate/Hallucination 幻覺/幻想:在AI的上下文中,幻想指的是模型生成的內(nèi)容不基于實際數(shù)據(jù)或與現(xiàn)實大相徑庭的現(xiàn)象。

【33】Hidden Layer 隱藏層:在神經(jīng)網(wǎng)絡(luò)中,隱藏層是人工神經(jīng)元的層,這些神經(jīng)元并未直接連接到輸入或輸出。

【34】Hyperparameter Tuning 超參數(shù)調(diào)優(yōu):選擇機器學(xué)習(xí)模型的超參數(shù)(數(shù)據(jù)未學(xué)習(xí)的參數(shù))的適當(dāng)值的過程。

【35】Inference 推理:用已訓(xùn)練的機器學(xué)習(xí)模型進(jìn)行預(yù)測的過程。

【36】Instruction Tuning 指令調(diào)優(yōu): 一種機器學(xué)習(xí)技術(shù),其中模型根據(jù)數(shù)據(jù)集中給出的特定指令進(jìn)行微調(diào)。

【37】Large Language Model (LLM) 大型語言模型(LLM):一種可以生成類人類文本的AI模型,訓(xùn)練在廣泛的數(shù)據(jù)集上。

【38】Latent Space 潛在空間: 在機器學(xué)習(xí)中,這個術(shù)語指的是模型(如神經(jīng)網(wǎng)絡(luò))創(chuàng)建的數(shù)據(jù)的壓縮表示。相似的數(shù)據(jù)點在潛在空間中更接近。

【39】Loss Function (or Cost Function) 損失函數(shù)(或成本函數(shù)) 機器學(xué)習(xí)模型在訓(xùn)練期間試圖最小化的函數(shù)。它量化了模型預(yù)測與真實值的差距。

【40】Machine Learning 機器學(xué)習(xí) 一種人工智能類型,使系統(tǒng)能夠在無需明確編程的情況下自動學(xué)習(xí)并從經(jīng)驗中改進(jìn)。

【41】Mixture of Experts 專家混合 一種機器學(xué)習(xí)技術(shù),其中訓(xùn)練了幾個專門的子模型(“專家”),并且他們的預(yù)測是以取決于輸入的方式組合的。

【42】Multimodal 多模態(tài) 在AI中,這指的是可以理解和生成跨多種數(shù)據(jù)類型(如文本和圖像)的信息的模型。

【43】Natural Language Processing (NLP) 自然語言處理(NLP) 一個關(guān)注計算機和人類通過自然語言進(jìn)行交互的AI子領(lǐng)域。NLP的最終目標(biāo)是閱讀,解讀,理解,并以有價值的方式理解人類語言。

【44】NeRF (Neural Radiance Fields) NeRF(神經(jīng)輻射場): 使用神經(jīng)網(wǎng)絡(luò)從2D圖像創(chuàng)建3D場景的方法。它可以用于照片真實的渲染,視圖合成等等。

【45】Neural Network 神經(jīng)網(wǎng)絡(luò):一種受人腦啟發(fā)的AI模型。它由連接在一起的單位或節(jié)點組成——稱為神經(jīng)元——這些神經(jīng)元按層次組織。神經(jīng)元接收輸入,對它們進(jìn)行一些計算,并產(chǎn)生輸出。

【46】Objective Function 目標(biāo)函數(shù): 機器學(xué)習(xí)模型在訓(xùn)練期間試圖最大化或最小化的函數(shù)。

【47】Overfitting 過擬合:當(dāng)一個統(tǒng)計模型或機器學(xué)習(xí)算法無法充分捕獲數(shù)據(jù)的基礎(chǔ)結(jié)構(gòu)時發(fā)生的建模錯誤。

【48】Parameters 參數(shù):在機器學(xué)習(xí)中,參數(shù)是模型用來做預(yù)測的內(nèi)部變量。它們在訓(xùn)練過程中從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)。例如,在神經(jīng)網(wǎng)絡(luò)中,權(quán)重和偏差就是參數(shù)。

【49】Pre-training 預(yù)訓(xùn)練: 訓(xùn)練機器學(xué)習(xí)模型的初始階段,其中模型從數(shù)據(jù)中學(xué)習(xí)通用特征、模式和表示,而不需要具體了解將來將應(yīng)用的任務(wù)的具體知識。這種無監(jiān)督或半監(jiān)督的學(xué)習(xí)過程使模型能夠發(fā)展出對基礎(chǔ)數(shù)據(jù)分布的基礎(chǔ)理解,并提取出可以用于特定任務(wù)的后續(xù)微調(diào)中的有意義的特征。

【50】Prompt 提示: 設(shè)置任務(wù)或查詢模型的初始上下文或指示。

【51】Regularization 正則化 在機器學(xué)習(xí)中,正則化是一種用于防止過擬合的技術(shù),通過在模型的損失函數(shù)中添加一個懲罰項。這個懲罰阻止模型過度依賴訓(xùn)練數(shù)據(jù)中的復(fù)雜模式,從而提倡更具普遍性和不易過擬合的模型。

【52】Reinforcement Learning 強化學(xué)習(xí): 一種機器學(xué)習(xí)類型,其中一個代理通過在環(huán)境中采取行動來最大化某些獎勵來學(xué)習(xí)做決策。

【53】RLHF (Reinforcement Learning from Human Feedback) RLHF(來自人類反饋的強化學(xué)習(xí)): 一種通過學(xué)習(xí)人類對模型輸出給予的反饋來訓(xùn)練AI模型的方法。

【54】Singularity 奇點:在AI的上下文中,奇點(也被稱為技術(shù)奇點)指的是一個假設(shè)的未來時點,當(dāng)時技術(shù)增長變得無法控制和不可逆轉(zhuǎn),導(dǎo)致對人類文明的不可預(yù)見的變化。

【55】Supervised Learning 監(jiān)督學(xué)習(xí):一種機器學(xué)習(xí)類型,在該類型中,模型被提供帶有標(biāo)簽的訓(xùn)練數(shù)據(jù)。

【56】Symbolic Artificial Intelligence 符號人工智能: 一種利用符號推理解決問題和表示知識的AI類型。

【57】TensorFlow :由Google開發(fā)的用于構(gòu)建和訓(xùn)練機器學(xué)習(xí)模型的開源機器學(xué)習(xí)平臺。

【58】TPU (Tensor Processing Unit) TPU(張量處理單元):Google專門開發(fā)的用于加速機器學(xué)習(xí)工作負(fù)載的一種微處理器類型。

【59】Training Data 訓(xùn)練數(shù)據(jù):用于訓(xùn)練機器學(xué)習(xí)模型的數(shù)據(jù)集。

【60】Transfer Learning 遷移學(xué)習(xí): 機器學(xué)習(xí)中使用預(yù)訓(xùn)練模型用于新問題的一種方法。

【61】Transformer:主要用于處理自然語言等序列數(shù)據(jù)的一種特定類型的神經(jīng)網(wǎng)絡(luò)架構(gòu)。由于一種叫做“注意力”的機制,Transformer模型能夠處理數(shù)據(jù)中的長距離依賴關(guān)系,這種機制允許模型在產(chǎn)生輸出時權(quán)衡不同輸入的重要性。

【62】Underfitting 欠擬合: 當(dāng)統(tǒng)計模型或機器學(xué)習(xí)算法不能充分捕獲數(shù)據(jù)的基礎(chǔ)結(jié)構(gòu)時發(fā)生的建模錯誤。

【63】Unsupervised Learning 無監(jiān)督學(xué)習(xí):一種機器學(xué)習(xí)類型,其中模型并未提供帶標(biāo)簽的訓(xùn)練數(shù)據(jù),而必須自行識別數(shù)據(jù)中的模式。

【64】Validation Data 驗證數(shù)據(jù):機器學(xué)習(xí)中用于調(diào)整超參數(shù)(即,架構(gòu),而非權(quán)重)的模型的數(shù)據(jù)集子集,該子集與訓(xùn)練和測試數(shù)據(jù)集分開。

【65】XAI (Explainable AI) XAI(可解釋的AI): 一種AI子領(lǐng)域,專注于創(chuàng)建提供其決策的清晰和可理解解釋的透明模型。

【66】Zero-shot Learning 零樣本學(xué)習(xí): 一種機器學(xué)習(xí)類型,其中模型對在訓(xùn)練期間未見過的條件進(jìn)行預(yù)測,無需任何微調(diào)。



學(xué)人工智能必知的英文單詞的評論 (共 條)

分享到微博請遵守國家法律
区。| 壤塘县| 新巴尔虎左旗| 曲水县| 闽清县| 天台县| 威海市| 遵化市| 汉川市| 会昌县| 秦安县| 广汉市| 濮阳县| 博爱县| 黑山县| 巴东县| 邢台县| 日喀则市| 云和县| 缙云县| 南木林县| 佳木斯市| 钟祥市| 北京市| 大名县| 永定县| 襄垣县| 遂平县| 平舆县| 依兰县| 三明市| 洪湖市| 墨竹工卡县| 凯里市| 泉州市| 刚察县| 阳谷县| 武鸣县| 德惠市| 称多县| 关岭|