【hsxz】【水專欄】ChatGPT的bias
此專欄來源于我的QQ說說。
兩個月前我就擔心過有人會拿ChatGPT來搞事,沒想到又預言中了
確實,ChatGPT會生成雙標的內(nèi)容,會有bias,但這些不是人為操作的。ChatGPT設計大模型,訓練大模型要大數(shù)據(jù),而要對這個體量的訓練數(shù)據(jù)全部人工標注或全部審核是不可能的,只能標冰山一角。雖然也有不少輔助手段篩掉很多機器判定的低質(zhì)量樣本,但總體上ChatGPT的bias是來源于訓練數(shù)據(jù)中不可根除和隱藏的bias,所以ChatGPT是將自己建模成一個美國人的。ChatGPT是端到端的,它甚至不像lamda有很多輔助工具,本質(zhì)只是一群數(shù)據(jù)以一定的形式組合的黑箱
其次,RLHF技術就是為了使得ChatGPT整體輸出的內(nèi)容更紳士,不然我們是很容易教ChatGPT學壞的
再者,由于ChatGPT吃歷史輸入和PUA,人是可以半定向地修改ChatGPT輸出的內(nèi)容的
最后,ChatGPT是大模型,想要在訓練好后人為讓它有bias很難的,就像在大海中滴幾滴檸檬汁一樣,基本不會影響大海的基本性質(zhì),要達到目的你還需要收集大量數(shù)據(jù),又要花很多錢(真的很多)微調(diào)。當然,不是說完全沒有這種可能,但openai還要訓練GPT-4這個吸錢無底洞,我不認為他們還有閑暇這么干
不過對于不了解ChatGPT機制的人來說,確實看幾張截圖就有可能被帶節(jié)奏
當然以上是個人目前對大模型的認知,可能有一些不足的地方
標簽:
【hsxz】【水專欄】ChatGPT的bias的評論 (共 條)
