乌鲁木齐及仆网络技术有限公司

您的位置:首頁 >寬帶 > 正文

精選!谷歌PaLM 2在訓練中使用的文本數據是其前身的近五倍

來源:動點科技 時間:2023-05-17 16:26:35


【資料圖】

據美國消費者新聞與商業頻道(CNBC)5月17日消息,谷歌上周宣布的大型語言模型PaLM 2使用的訓練數據幾乎是其前身的五倍,使其能夠執行更高級的編碼、數學和創意寫作任務。

根據CNBC查看的內部文件,PaLM 2是谷歌在I/O大會上推出的新型通用大型語言模型,它接受了3.6萬億個token的訓練。

谷歌之前版本的PaLM于2022年發布,并接受了7800億個token的訓練。

來源:界面

標簽:

相關閱讀