Google DeepMind 提出新方法,解決大模型答案的奉承行為 |
發(fā)布時(shí)間:2023-08-11 文章來源:本站 瀏覽次數(shù):1964 |
8月10日訊,據(jù) Arxiv頁面顯示,一群來自 Google DeepMind 的研討者近日發(fā)表論文,公布了一項(xiàng)全新的研討技能,可用于進(jìn)步生成式大模型答復(fù)的準(zhǔn)確性。 研討指出,大言語模型會(huì)在必定程度上依據(jù)用戶的觀點(diǎn)來調(diào)整自己的答案,這將會(huì)影響答案的客觀性和正確性。該研討團(tuán)隊(duì)經(jīng)過對(duì)公共NLP使命進(jìn)行輕量級(jí)微調(diào),鼓舞模型對(duì)用戶在這些使命上的觀點(diǎn)更加穩(wěn)健。 研討顯示,添加這些數(shù)據(jù)能夠明顯削減在答復(fù)中的奉承行為。 |
|