Anthropic發(fā)布Claude2且可以免費使用!
Anthropic發(fā)布了Claude2,基礎(chǔ)能力提升方面我讓Claude2自己總結(jié)了以下:
在律師資格考試多項選擇題部分的得分提高到76.5%,比Claude 1.3的73%略高。
可以通過美國醫(yī)療執(zhí)照考試的多項選擇部分。
編程能力提升,在Codex Human Level Python編碼測試中的得分達到71.2%,而Claude 1.3為56%。
在數(shù)學(xué)問題解答上也有提升,在GSM8K小學(xué)數(shù)學(xué)問題集上的得分為88%,比Claude 1.3高出2.8個百分點。
在給出“無害”的響應(yīng)方面表現(xiàn)提升了兩倍。
可以生成更多文本,最長支持100000Tokens,可以處理大約7.5萬字的篇幅,并可以生成4000個標記,約合3125個單詞。
在特定文本處理任務(wù)上表現(xiàn)更好,如以JSON、XML、YAML和Markdown格式生成格式正確的輸出。
對多步驟指令的理解更強。
更自我意識,可以更好地處理其局限性。
推理和自我意識方面的提升。
簡要測評了幾個方面。
一、多模態(tài)
最多一次性可以上傳5個文件,每個文件10M以下,支持PDF、TXT、python、jpeg等多種格式的文件

二、推理能力
我是使用通過引導(dǎo)來要求大模型反饋json格式的文本再基于json的內(nèi)容生成prompt。在GPT-3.5上無法完成此種推理任務(wù),只能在GPT-4上完成。但是在Claude2可以達到GPT-4的推理結(jié)果。

三、代碼編寫能力
這里沒有詳細進行測試,只是提供了之前GPT編寫的代碼讓Claude2進行分析和提出優(yōu)化建議,簡單的讓Claude2給出具體的優(yōu)化代碼。個人感覺代碼編寫能力優(yōu)于GPT-4。

吐槽一下,claude2這里果然是C里C氣的,果斷夾帶私貨,推薦我用BERT
四、文本處理
通過上傳PDF文件要求Claude2進行總結(jié),然后隨機對內(nèi)容進行提問,Claude2的回答完全符合文本內(nèi)容。
進一步要求優(yōu)化,Claude2的回答也中規(guī)中矩,沒有創(chuàng)新,但是對細節(jié)提出了細化、優(yōu)化,符合我的預(yù)期。

五、存在的問題
偶爾仍會出現(xiàn)中英文混雜的情況。
目前登錄、注冊需要美國或英國IP,其他地區(qū)無法登錄。(壞還是昂撒匪幫壞啊)
數(shù)據(jù)庫截至?xí)r間不明,暫且估計是2023年6月?


六、登錄地址
https://claude.ai ? 再次提醒:需要美國或英國IP