最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

貓先生の【長文】| 作為一名醫(yī)學(xué)編輯,ChatGPT初體驗(yàn)...

2023-02-23 16:50 作者:貓先生的茶話會  | 我要投稿

最近全網(wǎng)風(fēng)靡的ChatGPT火了,火出圈了,這股紅紅火火的熱風(fēng)也吹到了醫(yī)藥圈子。作為一名資深醫(yī)學(xué)編輯,自然也想對這個(gè)新興技術(shù)在醫(yī)藥領(lǐng)域的應(yīng)用進(jìn)行一番探索和討論。(新人up,蹭蹭余溫:P)

圖1:Source:https://openai.com/blog/chatgpt/

簡單而言,ChatGPT是一個(gè)聊天機(jī)器人(Chatbot),本質(zhì)是一種基于人工智能的自然語言生成技術(shù)。它在自然語言處理領(lǐng)域的表現(xiàn)已經(jīng)備受贊譽(yù),但其在醫(yī)藥領(lǐng)域的應(yīng)用卻并不是那么簡單。醫(yī)藥一直以來都是信息量大、專業(yè)度高、處理難度大的領(lǐng)域。ChatGPT可以自動化生成各種醫(yī)療信息,包括醫(yī)學(xué)文獻(xiàn)、病例報(bào)告、藥品說明書等。越來越多的醫(yī)療機(jī)構(gòu)和醫(yī)生開始使用它來提高信息處理效率和準(zhǔn)確性,緩解醫(yī)務(wù)人員的工作負(fù)擔(dān)[1]。但是,其在真實(shí)醫(yī)學(xué)場景下應(yīng)用如何?又能帶給我們醫(yī)學(xué)相關(guān)工作者什么樣的體驗(yàn)?是否會真的讓編輯失業(yè)呢?我們帶著這些問題一起來看一下。

圖2:Source:Google Image with adjusted

隨著這兩天對于ChatGPT的重度使用以及經(jīng)驗(yàn)總結(jié);結(jié)合在PubMed,Google Scholar,MedRxiv,BioRxiv數(shù)據(jù)庫中,以“ChatGPT”、“Medical”為關(guān)鍵詞進(jìn)行的綜合檢索(截至2023年2月21日),我們總結(jié)出了目前為止經(jīng)發(fā)表的ChatGPT在醫(yī)藥領(lǐng)域的“擅長”點(diǎn):

  • 醫(yī)學(xué)寫作(Writing)

  • 醫(yī)學(xué)問答(Q&A)

  • 醫(yī)學(xué)翻譯(Translation)

  • 代碼編寫(Coding)

首先,我們想通過循證——文獻(xiàn)檢索的方式找一些研究實(shí)例或者數(shù)據(jù),但鑒于目前已發(fā)表的關(guān)于ChatGPT用于醫(yī)學(xué)場景實(shí)例的內(nèi)容并不多。通過Google或者Pubmed找到的大部分文章屬于圍繞ChatGPT的綜述,評論和新聞稿,并且也指向寥寥幾篇預(yù)印版的研究文獻(xiàn)。最終,我們統(tǒng)計(jì)了來自生物醫(yī)藥預(yù)印本平臺MedRxiv和BioRxiv共13篇研究文獻(xiàn),發(fā)現(xiàn)其應(yīng)用均集中在醫(yī)學(xué)寫作問答方面(以下匯總并列出證據(jù)):


醫(yī)學(xué)寫作(Writing)

  • Catherine A. Gao等人嘗試用ChatGPT生成科學(xué)摘要(abstracts)[1]。他們收集了來自JAMA、新英格蘭醫(yī)學(xué)雜志、BMJ、柳葉刀和自然醫(yī)學(xué)等期刊上發(fā)表文章摘要50篇,另通過ChatGPT根據(jù)期刊和文章標(biāo)題自動生成摘要50篇,并接受抄襲檢測。結(jié)果發(fā)現(xiàn):ChatGPT生成的摘要在抄襲檢測中通過了檢查。專門檢測AI生成文本的檢測器僅僅能篩出66%的AI生成摘要;并且人類評審的表現(xiàn)也差強(qiáng)人意,他們僅正確識別出68%的生成摘要和86%的真實(shí)摘要(并且人類評審錯(cuò)誤地將32%的生成摘要認(rèn)為是真實(shí)的,將14%的真實(shí)摘要認(rèn)為是生成的)。

  • James R. A. Benoit等人嘗試用ChatGPT生成或重寫臨床案例(clinical vignettes)[2]。研究人員預(yù)定義了 10個(gè)常見的兒童疾病以及相應(yīng)癥狀,并給予ChatGPT不同的提示和要求。ChatGPT最終生成或重寫了共45個(gè)臨床案例,最后再由ChatGPT根據(jù)案例來診斷疾病。結(jié)果發(fā)現(xiàn):ChatGPT可以根據(jù)給定疾病、癥狀的定義或要求,快速生成臨床案例,但是會過分傾向于其中的某些癥狀描述。針對不同角色視角的案例重寫也能發(fā)揮作用。根據(jù)案例診斷疾病時(shí),ChatGPT能夠以75.6%(95%CI:62.6%至88.5%)的首次診斷準(zhǔn)確率和57.8%(95%CI:42.9%至72.7%)的分類準(zhǔn)確率識別疾病。

  • Francesco Sanmarchi等人研究了ChatGPT如何支持科研人員進(jìn)行流行病學(xué)研究的設(shè)計(jì)[3]。研究者使用ChatGPT將STROBE建議轉(zhuǎn)化為問題清單(checklist),并對轉(zhuǎn)化結(jié)果的連貫性和相關(guān)性進(jìn)行了質(zhì)性評估。結(jié)果發(fā)現(xiàn):ChatGPT可以作為支持科研人員進(jìn)行流行病學(xué)研究的有價(jià)值工具。針對ChatGPT給出的問題清單,評估連貫性的平均得分為3.6/5.0,評估相關(guān)性的平均得分為3.3/5.0,得分具有異質(zhì)性,其中圍繞“研究方法”給出的檢查清單得分最低。

醫(yī)學(xué)問答(Q&A)

  • Arya Rao等人嘗試用ChatGPT為乳腺癌篩查和乳房疼痛患者的影像學(xué)分診提供臨床決策支持[4]。由ChatGPT根據(jù)患者信息選擇合適的影像學(xué)服務(wù),研究者將ChatGPT的回答與美國放射學(xué)學(xué)院(ACR)的適宜性標(biāo)準(zhǔn)進(jìn)行比較,以評估ChatGPT選擇的影像學(xué)服務(wù)的合規(guī)性。結(jié)果發(fā)現(xiàn):ChatGPT在乳腺癌篩查提示中,模擬患者交互的平均得分為1.83(滿分為2),模擬ACR指南應(yīng)用的平均正確率為88.9%;而在乳房疼痛提示中,模擬患者交互的平均得分為1.125(滿分為2),模擬ACR指南應(yīng)用的平均正確率為58.3%。

  • Yee Hui Yeo等人檢查了ChatGPT在回答與肝硬化和肝細(xì)胞癌相關(guān)的知識、管理和情感支持方面的準(zhǔn)確性和可重復(fù)性[5]。研究者使用了164個(gè)問題來測試ChatGPT的性能。結(jié)果發(fā)現(xiàn):ChatGPT表現(xiàn)出廣泛的肝硬化和肝細(xì)胞癌知識,在基本知識、生活方式和治療方面的表現(xiàn)比在診斷和預(yù)防醫(yī)學(xué)領(lǐng)域更好。ChatGPT對肝硬化管理的26項(xiàng)問題的回答正確率為76.9%,但未能指定決策的時(shí)間點(diǎn)和治療持續(xù)時(shí)間。與醫(yī)生/培訓(xùn)醫(yī)生相比,ChatGPT缺乏對區(qū)域指南變化(如HCC篩查標(biāo)準(zhǔn))的了解。然而,對于患者和照顧者有關(guān)下一步行動和適應(yīng)新診斷的實(shí)用和多方面建議,ChatGPT提供了更多的情感支持。

  • Fares Antaki等人嘗試用ChatGPT回答眼科領(lǐng)域的問題,并且對其準(zhǔn)確性進(jìn)行了測試[6]。測試采用了2個(gè)用于高風(fēng)險(xiǎn)眼科知識評估計(jì)劃 (OKAP) 考試的多項(xiàng)選擇題庫,測試集難度適中,話題廣泛,包括記憶,解釋,實(shí)踐和臨床決策問題,共2 x 260題。結(jié)果發(fā)現(xiàn):ChatGPT 在這兩個(gè)260道試題的模擬考試中分別達(dá)到了55.8%和42.7%的準(zhǔn)確率。其表現(xiàn)在不同的眼科分支領(lǐng)域有所不同,總體醫(yī)學(xué)的表現(xiàn)最好,而神經(jīng)眼科、眼科病理學(xué)和眼內(nèi)腫瘤的表現(xiàn)最差。

  • Tiffany H. Kung等人研究了ChatGPT在美國醫(yī)學(xué)執(zhí)照考試(USMLE)中的表現(xiàn)[7],該考試包括三個(gè)考試科目:Step 1(初級醫(yī)學(xué)生用),Step 2CK(四年級醫(yī)學(xué)生用)和Step 3(畢業(yè)后的醫(yī)生用)。結(jié)果發(fā)現(xiàn):ChatGPT在三個(gè)考試科目中的正確率(統(tǒng)計(jì)完全正確和中等正確的答案)分別約為68.0%,58.3%和62.4%,表現(xiàn)接近或達(dá)到及格門檻,并且無需任何專門的培訓(xùn)或強(qiáng)化學(xué)習(xí)。

  • Aidan Gilson等人同樣評估了ChatGPT在美國醫(yī)學(xué)執(zhí)照考試(USMLE)Step 1和Step 2范圍內(nèi)問題上的表現(xiàn)[8],并分析了其回答的可解釋性。研究使用了兩個(gè)不同的問題集進(jìn)行評估,形成共4個(gè)問題集,分別是AMBOSS-step1,AMBOSS-step2,NBMEFree-step1,NBMEFree-step2。結(jié)果發(fā)現(xiàn):ChatGPT在四個(gè)數(shù)據(jù)集上的準(zhǔn)確率分別為44%,42%,64.4%和57.8%,在NBMEFree-step1數(shù)據(jù)集上表現(xiàn)優(yōu)秀。并且ChatGPT能夠提供推理和信息上下文。

  • Dat Duong等人評估了ChatGPT在遺傳學(xué)問題上的表現(xiàn),并將其與人類回答同一組問題的表現(xiàn)進(jìn)行比較[9]。結(jié)果發(fā)現(xiàn):總的回答正確率,ChatGPT為68.2%,人類為79.3%(p=0.8145);記憶性問題正確率,ChatGPT為80.3%,人類為74.0%(p=0.2635);批判性思維問題正確率,ChatGPT為26.3%,人類為48.6%(p=0.06513);而ChatGPT本身,相較于回答批判性思維問題,更擅長處理記憶性問題(<.001)??傮w而言,ChatGPT在記憶性問題上表現(xiàn)得更好,而在需要進(jìn)行批判性思考的問題上表現(xiàn)得不如人類,且在同一問題被問到多次時(shí)往往會給出不同的答案。但ChatGPT的表現(xiàn)與人類回答者并沒有顯著的統(tǒng)計(jì)學(xué)差異,并且在提供正確和錯(cuò)誤答案的合理解釋方面表現(xiàn)得很好。

  • Oded Nov等人評估了ChatGPT或類似的基于AI的聊天機(jī)器人(Chatbot)在醫(yī)患交流中的可行性[10],特別是患者是否能夠區(qū)分Chatbot和醫(yī)療服務(wù)提供者的回答,以及患者對Chatbot功能的信任程度。研究采用了一項(xiàng)調(diào)查,通過給430例參與者展示10個(gè)醫(yī)患互動問題的回答(5個(gè)由人類回答,5個(gè)由ChatGPT生成),來評估參與者是否能夠正確識別回答的來源。結(jié)果發(fā)現(xiàn):對于不同的問題,ChatGPT被參與者正確識別的比例在49.0%~85.7%。ChatGPT的回答在可行性上與人類的回答沒有顯著區(qū)別。并且,隨著問題難度的提高,參與者對Chatbot的信任度下降。

  • Jun-hee Kim等人評估了ChatGPT 在肩峰下卡壓綜合征(SIS,常稱為肩卡壓)方面提供醫(yī)療信息和治療選擇的能力[11]。研究人員嘗試讓ChatGPT回答與 SIS 相關(guān)的問題,分析了由ChatGPT提供的醫(yī)療信息和治療選擇。結(jié)果發(fā)現(xiàn):ChatGPT可以完整提供SIS的定義、患病率、危險(xiǎn)因素、癥狀、類似癥狀的疾病、矯形測試等相關(guān)信息,并列出治療選項(xiàng)和鍛煉方式??傮w而言,ChatGPT 可以為對 SIS 不熟悉的患者提供有用的醫(yī)療信息和治療選項(xiàng),但需要注意其可能存在的偏見或不當(dāng)信息。

  • David M Levine等人研究比較了ChatGPT,對比互聯(lián)網(wǎng)上的普通人以及臨床醫(yī)生對病例的診斷和分級(嚴(yán)重程度)表現(xiàn)[12]。研究人員給出了48個(gè)從常規(guī)疾?。ㄈ绮《靖腥荆┑絿?yán)重疾病(心肌梗塞)的臨床病例。結(jié)果發(fā)現(xiàn):在診斷方面,ChatGPT能夠正確診斷88%的病例,比普通人(54%,p<0.001)強(qiáng),但比醫(yī)生(96%,0.0354)差;在分級方面,ChatGPT正確分類(71%),與普通人(74%,p=0.73)相似,但都比醫(yī)生差(91%,p<0.01)。

  • Adam Hulman等人嘗試用 ChatGPT來回答關(guān)于糖尿病的常見問題[13]。研究者通過一項(xiàng)類圖靈測試和非劣效試驗(yàn)的閉合電子調(diào)查,讓參與者辨別出ChatGPT 生成的回答和人工專家提供的回答。183例來自丹麥一家大型糖尿病中心的員工參與了本次調(diào)查。結(jié)果顯示:59.5%的參與者能夠區(qū)分 ChatGPT 生成的回答和人工專家的回答,但這種區(qū)分的效果更多依賴于語言特征,而非回答的內(nèi)容。相比之前未有ChatGPT使用經(jīng)驗(yàn)的人,有使用過ChatGPT的人更容易辨別出答案來源(OR=1.52,95%CI:1.16-2.00)。

由此看出,ChatGPT在處理基于文本類的工作,例如撰寫文章、報(bào)告、病例,以及回答各學(xué)科的問題等,都有不輸于人類的表現(xiàn),但同時(shí)也沒有表現(xiàn)絕對的更優(yōu)。畢竟,ChatGPT的特征是語言生成語言處理;但是,其輸出往往會有所側(cè)重(這可能由于訓(xùn)練集的偏倚導(dǎo)致),有時(shí)甚至?xí)o出不恰當(dāng)?shù)男畔?,涉及專業(yè)場景,表現(xiàn)并沒有顯著優(yōu)于專業(yè)的醫(yī)療工作者。另外,對于批判性、創(chuàng)造性的問題,ChatGPT表現(xiàn)似乎尚且欠佳

有學(xué)者對ChatGPT撰寫出可信的科學(xué)摘要表示擔(dān)心,關(guān)于如何使用類似ChatGPT的大型語言模型(LLM)協(xié)助科學(xué)寫作的道德和界限變得模糊了。將來,科學(xué)家所瀏覽的研究文獻(xiàn),其真實(shí)性也將受到挑戰(zhàn)(圖3)[1, 14]。讓ChatGPT來寫學(xué)術(shù)摘要,確實(shí)到了可以以假亂真的地步,但這是由于摘要本身具有相對固定的范式(即模板化),機(jī)器易于習(xí)得其規(guī)律。并且,摘要往往是總結(jié)性質(zhì)的,討論偏宏大、寬泛。真實(shí)的研究,數(shù)據(jù),以及背后更加深刻的討論,機(jī)器并不會表現(xiàn)得很好。因此,我個(gè)人并不擔(dān)心機(jī)器或者算法,真的可以代替研究者去完成完整的學(xué)術(shù)創(chuàng)作,至少短期內(nèi)不太可能實(shí)現(xiàn)。但同時(shí),又對此持謹(jǐn)慎態(tài)度,ChatGPT具備撰寫學(xué)術(shù)摘要的能力確實(shí)值得讓學(xué)術(shù)圈子敲響警鐘。學(xué)術(shù)創(chuàng)作,終歸是不可交給一個(gè)不能承擔(dān)任何責(zé)任、不受任何道德約束的機(jī)器去完成的。

圖3:Nature新聞:ChatGPT撰寫的學(xué)術(shù)摘要愚弄了學(xué)者,研究人員無法辨別原創(chuàng)摘要和AI生成的摘要

撇開科研學(xué)術(shù)不談,對于我們醫(yī)學(xué)編輯(Medical Writer)而言,類似的語言生成式AI是否會讓我們丟了工作呢?其實(shí),我們文章的開頭也是ChatGPT生成的(圖4),是不是看著還挺像模像樣的。我的工作僅僅是在此基礎(chǔ)上做了一點(diǎn)調(diào)整和改寫,再加了一個(gè)略微“生硬”的引子,一篇推文的開頭就做好了。

但是,人類的優(yōu)勢就在這一點(diǎn)點(diǎn)修改和調(diào)整上。首先,ChatGPT對于生成的文本可能存在偏見,誤導(dǎo),甚至錯(cuò)誤。例如,我們希望ChatGPT提供我們一些其觀點(diǎn)的出處,或者某些可供參考書籍,綜述,研究論文等。過程中我們發(fā)現(xiàn)ChatGPT會反饋一些“編造”出來的文獻(xiàn),看似有模有樣,甚至能給出具體網(wǎng)頁鏈接,作者,期刊名,甚至是DOI。但其實(shí)這一切都是由機(jī)器或者算法“生成”的。其本質(zhì)原因在于,ChatGPT是通過學(xué)習(xí)巨量的在線文本語言來得到模型參數(shù),由算法模型輸出“最有可能的”答案,類似這樣的模式來運(yùn)作的;而這些被學(xué)習(xí)的文本中,對于專業(yè)性質(zhì)的文本有限,其中甚至可能存在一些偏見,虛假或者已經(jīng)過時(shí)的信息[15]。其次,ChatGPT缺乏“創(chuàng)造力”,它基于訓(xùn)練的數(shù)據(jù)生成文本,并不會超出訓(xùn)練習(xí)得的經(jīng)驗(yàn)。并且,ChatGPT在特定專業(yè)領(lǐng)域的理解和應(yīng)用是不如人類的,它看似能“找”到規(guī)律,但并不會活用規(guī)律。最后,若是將AI完全代替人類,可能會道德和法律(例如版權(quán))的問題[16]。因此,將AI作為工具就好,他能夠輔助我們醫(yī)學(xué)編輯完成一些任務(wù),但同樣需要我們的監(jiān)管和優(yōu)化。

圖4:以“寫一段關(guān)于ChatGPT在醫(yī)藥領(lǐng)域應(yīng)用的議論文開頭”為問題,ChatGPT的回答節(jié)選


醫(yī)學(xué)翻譯(Translation)

在翻譯方面,不敢說一定強(qiáng)于人工翻譯吧,但其表現(xiàn)確實(shí)要比市面上常用的醫(yī)學(xué)翻譯工具要高出一大截。目前我們的醫(yī)學(xué)翻譯模式,通常是“機(jī)器翻譯+人工校準(zhǔn)”,或者純“人工翻譯”,為什么脫離不了人呢?因?yàn)獒t(yī)學(xué)翻譯中,往往有特別多的專業(yè)詞匯,并且非常強(qiáng)調(diào)語境理解(意譯),另外有涉及到學(xué)術(shù)推廣,患者教育的場合。機(jī)器并不會像人一樣思考,所以很容易被看出是機(jī)。ChatGPT的翻譯優(yōu)勢總結(jié)下來有2點(diǎn):

1、不僅翻譯,還給注釋;

2、人機(jī)交互,即時(shí)優(yōu)化。


圖5:Google(上)、DeepL(中)、ChatGPT(下)對于“clinical vignettes”一詞的翻譯

在上面的例子中,我們要翻譯一個(gè)醫(yī)學(xué)專業(yè)詞匯??梢钥吹紺hatGPT的翻譯本身就是最準(zhǔn)確的,即使在沒有提供任何語境的前提下,它“預(yù)判”了我們的語境。雖然它沒有像DeepL一樣給出多種翻譯選擇,但是它給到了補(bǔ)充信息和注釋,這對于醫(yī)學(xué)編輯來說很有幫助,可以直接當(dāng)百科來使用。因?yàn)橥鶎τ趯I(yè)詞匯,即便我們知道了中文也不一定知道其含義,或者沒有辦法確定機(jī)器給的翻譯是否正確。而一出現(xiàn)的解釋說明文字,則能很好地起到佐證的作用。

另外,由于Chatbot的可交互性,你可以即時(shí)地向ChatGPT提出例如潤色,換個(gè)說話等要求,它同樣會給出多種翻譯選擇?;蛘吣阆駽hatGPT輸入更豐富的上下文,場景描述等,它可以輕松判斷出是普通翻譯,還是學(xué)術(shù)語境,能夠?qū)崿F(xiàn)更準(zhǔn)確的翻譯。因此,“機(jī)器翻譯+人工校準(zhǔn)”可以直接一次性在一個(gè)界面完成,聽起來是不是很棒。(聽起來值得調(diào)用一下ChatGPT的API來自制一個(gè)翻譯小程序了!)

反過來的中譯英同樣如此,例如,我寫了一個(gè)中文的research protocol,打算嘗試投稿給Trails或者BMJ系列的期刊,需要翻譯成英文,我可以要求ChatGPT翻譯成該雜志的格式,再進(jìn)行潤色。但仍需要注意的是,ChatGPT同樣會犯一些術(shù)語和本地化常識向的錯(cuò)誤,因此,我們不可忽略對于譯文進(jìn)行“人工校準(zhǔn)”的重要性!


圖6:讓ChatGPT根據(jù)Trials期刊的寫作要求完成中翻英。由于篇幅原因這里并沒有給出翻譯實(shí)例,各位可以自行嘗試


代碼編寫(Coding

寫代碼,應(yīng)該也是一個(gè)經(jīng)常被論及的場景,個(gè)人使用下來發(fā)現(xiàn)(僅測試R的代碼編寫):ChatGPT對于簡單的,任務(wù)目標(biāo)明確的代碼編輯工作,確實(shí)可以代替人工完成(圖7)。它不僅能提供代碼,還會給予解釋說明;如果報(bào)錯(cuò),你還可以反饋給它報(bào)錯(cuò)信息,它會來個(gè)在線debug(可交互性)。用于對分析、開發(fā)編程過程中的頭腦風(fēng)暴或者參考,體驗(yàn)還不錯(cuò);但是對于復(fù)雜的需求,ChatGPT確實(shí)應(yīng)付不了,甚至?xí)o出錯(cuò)誤的答案。去年12月,Stack Overflow(一個(gè)程序員互問互答的論壇)就臨時(shí)禁用了ChatGPT,因?yàn)樘嘤脩羯蟼饔蒀hatGPT生成的答案,而這些答案,大部分是錯(cuò)誤的。如果將來再由搜索引擎?zhèn)鞑ソo更多人,后果將不堪設(shè)想。

圖7:讓ChatGPT寫一段生成箱型圖的R代碼,ChatGPT會直接給出代碼示例和注釋,并且代碼可以R中正確執(zhí)行

誠然,ChatGPT的橫空出世,讓不少人重新認(rèn)識了AI,關(guān)注上了AI;其火出圈,也讓不少人開始重新思考,AI如何才能結(jié)合到自己的領(lǐng)域,發(fā)揮其助力。同時(shí),也不斷冒出一些諸如AI替寫作業(yè),AI替寫論文等灰色事件,引發(fā)圍繞學(xué)術(shù)道德的討論;以及“AI可以替代人類,編輯要失業(yè)啦”之流的言論??傮w而言,有人炒作,更多人關(guān)注,開啟更多思考和討論,只要監(jiān)管在線和言論得當(dāng),并不是壞事。

至于ChatGPT在目前醫(yī)藥領(lǐng)域的應(yīng)用,我只是通過分享使用經(jīng)驗(yàn),和循證了一些研究,淺薄地總結(jié)出了以下四個(gè)優(yōu)勢方面:醫(yī)學(xué)寫作(Writing)、醫(yī)學(xué)問答(Q&A)、醫(yī)學(xué)翻譯(Translation)、代碼編寫(Coding)。并且,ChatGPT并不能完全替代甚至脫離人類而獨(dú)立工作。也許未來,隨著AI模型的反復(fù)優(yōu)化,數(shù)據(jù)的不斷積累,算力的進(jìn)一步提高,類似ChatGTP的Chatbot可以在金融、教育、醫(yī)療等專業(yè)領(lǐng)域有更深層次的應(yīng)用。但是目前,AI+human的“人機(jī)搭配”模式,才是真正的“干活不累”。


參考文獻(xiàn):

  1. BioRxiv preprint doi: https://doi.org/10.1101/2022.12.23.521610

  2. medRxiv preprint doi: https://doi.org/10.1101/2023.02.04.23285478

  3. medRxiv preprint doi: https://doi.org/10.1101/2023.02.06.23285514

  4. medRxiv preprint doi: https://doi.org/10.1101/2023.02.02.23285399

  5. medRxiv preprint doi: https://doi.org/10.1101/2023.02.06.23285449

  6. medRxiv preprint doi: https://doi.org/10.1101/2023.01.22.23284882

  7. medRxiv preprint doi: https://doi.org/10.1101/2022.12.19.22283643

  8. medRxiv preprint doi: https://doi.org/10.1101/2022.12.23.22283901

  9. medRxiv preprint doi: https://doi.org/10.1101/2023.01.27.23285115

  10. medRxiv preprint doi: https://doi.org/10.1101/2023.01.23.23284735

  11. medRxiv preprint doi: https://doi.org/10.1101/2022.12.16.22283512

  12. medRxiv preprint doi: https://doi.org/10.1101/2023.01.30.23285067

  13. medRxiv preprint doi: https://doi.org/10.1101/2023.02.13.23285745

  14. Else H. (2023). Abstracts written by ChatGPT fool scientists. Nature, 613(7944), 423. https://doi.org/10.1038/d41586-023-00056-7

  15. The AI writing on the wall. Nat Mach Intell 5, 1 (2023). https://doi.org/10.1038/s42256-023-00613-9

  16. Biswas S. (2023). ChatGPT and the Future of Medical Writing. Radiology, 223312. Advance online publication. https://doi.org/10.1148/radiol.223312



貓先生の【長文】| 作為一名醫(yī)學(xué)編輯,ChatGPT初體驗(yàn)...的評論 (共 條)

分享到微博請遵守國家法律
河源市| 平陆县| 西宁市| 柳江县| 剑川县| 将乐县| 卓资县| 莱芜市| 武川县| 龙岩市| 伊金霍洛旗| 当阳市| 四会市| 莆田市| 玉田县| 土默特右旗| 锡林浩特市| 宕昌县| 儋州市| 天门市| 集贤县| 石嘴山市| 什邡市| 衢州市| 昌吉市| 博罗县| 会宁县| 蕉岭县| 边坝县| 安康市| 星座| 西乌| 垦利县| 定西市| 武山县| 乌鲁木齐市| 新野县| 舟曲县| 美姑县| 元朗区| 扎鲁特旗|