2023年最新300+AI工具匯總
今天分享一個在notion.so上,AI tools list 300+這個項目,囊括了網(wǎng)上幾乎所有的AI工具及應(yīng)用。
在分享這個300+AI工具項目之前先簡單介紹一下,notion.so
notion.so 是一個多功能的協(xié)作工具,可以用于筆記、項目管理、任務(wù)列表、數(shù)據(jù)庫、文檔等等。自己可以創(chuàng)建頁面、添加文本、圖片、鏈接、表格、嵌入式文件等等,還可以設(shè)置權(quán)限和共享頁面,通過瀏覽器或移動應(yīng)用程序訪問 Notion。
我們來看一下這個項目截圖:


從category(類別)上可以看到AI在各個領(lǐng)域都有應(yīng)用,包括了數(shù)據(jù)庫,圖像生成,大數(shù)據(jù),視頻,游戲,設(shè)計,音樂,即時翻譯等。分別對每個應(yīng)用列舉了詳細的描述,分類,子分類,價格和鏈接。直觀而又方便地查詢自己需要的AI應(yīng)用。
我們隨便點開一個鏈接查看一下:DPTH

原來是一個增加照片景深和3D效果的app應(yīng)用。
我們再看另外一個網(wǎng)站,Designify – Turn any photo into awesome

是一個將照片變得更加出色的網(wǎng)站,關(guān)鍵是免費。上傳一張圖片測試一下效果。

再看一個AI聲音生成的網(wǎng)站。AI Voice Generator: Versatile Text to Speech Software | Murf AI

測試了一下它的聲音,簡直完全聽不出來AI生成的聲音與人類聲音的區(qū)別,太令人難以置信了。
上面的三個網(wǎng)站感興趣的同學(xué)可以嘗試一下,我也只是列舉了其中的冰山一角,不難想象其中不乏有趣令人驚嘆的AI應(yīng)用。需要這個項目的同學(xué)可以在我的主頁里復(fù)制收藏。
最后分享一個51.8k個star的大模型項目。https://github.com/ghostgorge/funNLP
大模型內(nèi)容包括中英文敏感詞、語言檢測、中外手機/電話歸屬地/運營商查詢、名字推斷性別、手機號抽取、身份證抽取、郵箱抽取、中日文人名庫、中文縮寫庫、拆字詞典、詞匯情感值、停用詞、反動詞表、暴恐詞表、繁簡體轉(zhuǎn)換、英文模擬中文發(fā)音、汪峰歌詞生成器、職業(yè)名稱詞庫、同義詞庫、反義詞庫、否定詞庫、汽車品牌詞庫、汽車零件詞庫、連續(xù)英文切割、各種中文詞向量、公司名字大全、古詩詞庫、IT詞庫、財經(jīng)詞庫、成語詞庫、地名詞庫、歷史名人詞庫、詩詞詞庫、醫(yī)學(xué)詞庫、飲食詞庫、法律詞庫、汽車詞庫、動物詞庫、中文聊天語料、中文謠言數(shù)據(jù)、百度中文問答數(shù)據(jù)集、句子相似度匹配算法集合、bert資源、文本生成&摘要相關(guān)工具、cocoNLP信息抽取工具、國內(nèi)電話號碼正則匹配、清華大學(xué)XLORE:中英文跨語言百科知識圖譜、清華大學(xué)人工智能技術(shù)系列報告、自然語言生成、NLU太難了系列、自動對聯(lián)數(shù)據(jù)及機器人、用戶名黑名單列表、罪名法務(wù)名詞及分類模型、微信公眾號語料、cs224n深度學(xué)習(xí)自然語言處理課程、中文手寫漢字識別、中文自然語言處理 語料/數(shù)據(jù)集、變量命名神器、分詞語料庫+代碼、任務(wù)型對話英文數(shù)據(jù)集、ASR 語音數(shù)據(jù)集 + 基于深度學(xué)習(xí)的中文語音識別系統(tǒng)、笑聲檢測器、Microsoft多語言數(shù)字/單位/如日期時間識別包、中華新華字典數(shù)據(jù)庫及api(包括常用歇后語、成語、詞語和漢字)、文檔圖譜自動生成、SpaCy 中文模型、Common Voice語音識別數(shù)據(jù)集新版、神經(jīng)網(wǎng)絡(luò)關(guān)系抽取、基于bert的命名實體識別、關(guān)鍵詞(Keyphrase)抽取包pke、基于醫(yī)療領(lǐng)域知識圖譜的問答系統(tǒng)、基于依存句法與語義角色標注的事件三元組抽取、依存句法分析4萬句高質(zhì)量標注數(shù)據(jù)、cnocr:用來做中文OCR的Python3包、中文人物關(guān)系知識圖譜項目、中文nlp競賽項目及代碼匯總、中文字符數(shù)據(jù)、speech-aligner: 從“人聲語音”及其“語言文本”產(chǎn)生音素級別時間對齊標注的工具、AmpliGraph: 知識圖譜表示學(xué)習(xí)(Python)庫:知識圖譜概念鏈接預(yù)測、Scattertext 文本可視化(python)、語言/知識表示工具:BERT & ERNIE、中文對比英文自然語言處理NLP的區(qū)別綜述、Synonyms中文近義詞工具包、HarvestText領(lǐng)域自適應(yīng)文本挖掘工具(新詞發(fā)現(xiàn)-情感分析-實體鏈接等)、word2word:(Python)方便易用的多語言詞-詞對集:62種語言/3,564個多語言對、語音識別語料生成工具:從具有音頻/字幕的在線視頻創(chuàng)建自動語音識別(ASR)語料庫、構(gòu)建醫(yī)療實體識別的模型(包含詞典和語料標注)、單文檔非監(jiān)督的關(guān)鍵詞抽取、Kashgari中使用gpt-2語言模型、開源的金融投資數(shù)據(jù)提取工具、文本自動摘要庫TextTeaser: 僅支持英文、人民日報語料處理工具集、一些關(guān)于自然語言的基本模型、基于14W歌曲知識庫的問答嘗試–功能包括歌詞接龍and已知歌詞找歌曲以及歌曲歌手歌詞三角關(guān)系的問答、基于Siamese bilstm模型的相似句子判定模型并提供訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集、用Transformer編解碼模型實現(xiàn)的根據(jù)Hacker News文章標題自動生成評論、用BERT進行序列標記和文本分類的模板代碼、LitBank:NLP數(shù)據(jù)集——支持自然語言處理和計算人文學(xué)科任務(wù)的100部帶標記英文小說語料、百度開源的基準信息抽取系統(tǒng)、虛假新聞數(shù)據(jù)集、Facebook: LAMA語言模型分析,提供Transformer-XL/BERT/ELMo/GPT預(yù)訓(xùn)練語言模型的統(tǒng)一訪問接口、CommonsenseQA:面向常識的英文QA挑戰(zhàn)、中文知識圖譜資料、數(shù)據(jù)及工具、各大公司內(nèi)部里大牛分享的技術(shù)文檔 PDF 或者 PPT、自然語言生成SQL語句(英文)、中文NLP數(shù)據(jù)增強(EDA)工具、英文NLP數(shù)據(jù)增強工具 、基于醫(yī)藥知識圖譜的智能問答系統(tǒng)、京東商品知識圖譜、基于mongodb存儲的軍事領(lǐng)域知識圖譜問答項目、基于遠監(jiān)督的中文關(guān)系抽取、語音情感分析、中文ULMFiT-情感分析-文本分類-語料及模型、一個拍照做題程序、世界各國大規(guī)模人名庫、一個利用有趣中文語料庫 qingyun 訓(xùn)練出來的中文聊天機器人、中文聊天機器人seqGAN、省市區(qū)鎮(zhèn)行政區(qū)劃數(shù)據(jù)帶拼音標注、教育行業(yè)新聞?wù)Z料庫包含自動文摘功能、開放了對話機器人-知識圖譜-語義理解-自然語言處理工具及數(shù)據(jù)、中文知識圖譜:基于百度百科中文頁面-抽取三元組信息-構(gòu)建中文知識圖譜、masr: 中文語音識別-提供預(yù)訓(xùn)練模型-高識別率、Python音頻數(shù)據(jù)增廣庫、中文全詞覆蓋BERT及兩份閱讀理解數(shù)據(jù)、ConvLab:開源多域端到端對話系統(tǒng)平臺、中文自然語言處理數(shù)據(jù)集、基于最新版本rasa搭建的對話系統(tǒng)、基于TensorFlow和BERT的管道式實體及關(guān)系抽取、一個小型的證券知識圖譜/知識庫、復(fù)盤所有NLP比賽的TOP方案、OpenCLaP:多領(lǐng)域開源中文預(yù)訓(xùn)練語言模型倉庫、UER:基于不同語料+編碼器+目標任務(wù)的中文預(yù)訓(xùn)練模型倉庫、中文自然語言處理向量合集、基于金融-司法領(lǐng)域(兼有閑聊性質(zhì))的聊天機器人、g2pC:基于上下文的漢語讀音自動標記模塊、Zincbase 知識圖譜構(gòu)建工具包、詩歌質(zhì)量評價/細粒度情感詩歌語料庫、快速轉(zhuǎn)化「中文數(shù)字」和「阿拉伯數(shù)字」、百度知道問答語料庫、基于知識圖譜的問答系統(tǒng)、jieba_fast 加速版的jieba、正則表達式教程、中文閱讀理解數(shù)據(jù)集、基于BERT等最新語言模型的抽取式摘要提取、Python利用深度學(xué)習(xí)進行文本摘要的綜合指南、知識圖譜深度學(xué)習(xí)相關(guān)資料整理、維基大規(guī)模平行文本語料、StanfordNLP 0.2.0:純Python版自然語言處理包、NeuralNLP-NeuralClassifier:騰訊開源深度學(xué)習(xí)文本分類工具、端到端的封閉域?qū)υ捪到y(tǒng)、中文命名實體識別:NeuroNER vs. BertNER、新聞事件線索抽取、2019年百度的三元組抽取比賽:“科學(xué)空間隊”源碼、基于依存句法的開放域文本知識三元組抽取和知識庫構(gòu)建、中文的GPT2訓(xùn)練代碼、ML-NLP – 機器學(xué)習(xí)(Machine Learning)NLP面試中??嫉降闹R點和代碼實現(xiàn)、nlp4han:中文自然語言處理工具集(斷句/分詞/詞性標注/組塊/句法分析/語義分析/NER/N元語法/HMM/代詞消解/情感分析/拼寫檢查、XLM:Facebook的跨語言預(yù)訓(xùn)練語言模型、用基于BERT的微調(diào)和特征提取方法來進行知識圖譜百度百科人物詞條屬性抽取、中文自然語言處理相關(guān)的開放任務(wù)-數(shù)據(jù)集-當前最佳結(jié)果、CoupletAI – 基于CNN+Bi-LSTM+Attention 的自動對對聯(lián)系統(tǒng)、抽象知識圖譜、MiningZhiDaoQACorpus – 580萬百度知道問答數(shù)據(jù)挖掘項目、brat rapid annotation tool: 序列標注工具、大規(guī)模中文知識圖譜數(shù)據(jù):1.4億實體、數(shù)據(jù)增強在機器翻譯及其他nlp任務(wù)中的應(yīng)用及效果、allennlp閱讀理解:支持多種數(shù)據(jù)和模型、PDF表格數(shù)據(jù)提取工具 、 Graphbrain:AI開源軟件庫和科研工具,目的是促進自動意義提取和文本理解以及知識的探索和推斷、簡歷自動篩選系統(tǒng)、基于命名實體識別的簡歷自動摘要、中文語言理解測評基準,包括代表性的數(shù)據(jù)集&基準模型&語料庫&排行榜、樹洞 OCR 文字識別 、從包含表格的掃描圖片中識別表格和文字、語聲遷移、Python口語自然語言處理工具集(英文)、 similarity:相似度計算工具包,java編寫、海量中文預(yù)訓(xùn)練ALBERT模型 、Transformers 2.0 、基于大規(guī)模音頻數(shù)據(jù)集Audioset的音頻增強 、Poplar:網(wǎng)頁版自然語言標注工具、圖片文字去除,可用于漫畫翻譯 、186種語言的數(shù)字叫法庫、Amazon發(fā)布基于知識的人-人開放領(lǐng)域?qū)υ挃?shù)據(jù)集 、中文文本糾錯模塊代碼、繁簡體轉(zhuǎn)換 、 Python實現(xiàn)的多種文本可讀性評價指標、類似于人名/地名/組織機構(gòu)名的命名體識別數(shù)據(jù)集 、東南大學(xué)《知識圖譜》研究生課程(資料)、. 英文拼寫檢查庫 、 wwsearch是企業(yè)微信后臺自研的全文檢索引擎、CHAMELEON:深度學(xué)習(xí)新聞推薦系統(tǒng)元架構(gòu) 、 8篇論文梳理BERT相關(guān)模型進展與反思、DocSearch:免費文檔搜索引擎、 LIDA:輕量交互式對話標注工具 、aili – the fastest in-memory index in the East 東半球最快并發(fā)索引 、知識圖譜車音工作項目、自然語言生成資源大全 、中日韓分詞庫mecab的Python接口庫、中文文本摘要/關(guān)鍵詞提取、漢字字符特征提取器 (featurizer),提取漢字的特征(發(fā)音特征、字形特征)用做深度學(xué)習(xí)的特征、中文生成任務(wù)基準測評 、中文縮寫數(shù)據(jù)集、中文任務(wù)基準測評 – 代表性的數(shù)據(jù)集-基準(預(yù)訓(xùn)練)模型-語料庫-baseline-工具包-排行榜、PySS3:面向可解釋AI的SS3文本分類器機器可視化工具 、中文NLP數(shù)據(jù)集列表、COPE – 格律詩編輯程序、doccano:基于網(wǎng)頁的開源協(xié)同多語言文本標注工具 、PreNLP:自然語言預(yù)處理庫、簡單的簡歷解析器,用來從簡歷中提取關(guān)鍵信息、用于中文閑聊的GPT2模型:GPT2-chitchat、基于檢索聊天機器人多輪響應(yīng)選擇相關(guān)資源列表(Leaderboards、Datasets、Papers)、(Colab)抽象文本摘要實現(xiàn)集錦(教程 、詞語拼音數(shù)據(jù)、高效模糊搜索工具、NLP數(shù)據(jù)增廣資源集、微軟對話機器人框架 、 GitHub Typo Corpus:大規(guī)模GitHub多語言拼寫錯誤/語法錯誤數(shù)據(jù)集、TextCluster:短文本聚類預(yù)處理模塊 Short tex
看這個鏈接涵蓋的內(nèi)容就知道有多夸張了…………