(資料圖)
隨著人工智能(AI)模型體積的增大,一些研究團隊開始倡導使用效率更高、體積更小的專用模型來取代“大型語言模型”。OpenAI的ChatGPT雖然在技術界備受矚目,但在處理需要推導的數(shù)學問題時,其表現(xiàn)并不理想。例如,對于一道代數(shù)題,ChatGPT有時能給出正確答案,但大多數(shù)情況下會回答錯誤。在一次早期推導能力測試中,ChatGPT在面對美國中學水平的數(shù)學題集時,只答對了26%。 然而,2022年6月,谷歌的一款名為Minerva的專用數(shù)學計算模型打破了業(yè)界對“大語言模型計算數(shù)學不行”的觀點。據(jù)報道,Minerva在數(shù)學題集中答對了50%,這一結(jié)果讓AI領域的研究者們感到驚訝。微軟研究院的機器學習專家Sébastien Bubeck對此表示:“在AI圈子里,這還真是個新奇事。” 這一結(jié)果也證實了研究團隊長期以來的懷疑:訓練更大型的AI模型并不是解決“邏輯問題”的正道。然而,也有觀點認為,更大的模型只是在碰巧與訓練集相關的問題上回答得更為出色,而沒有獲得回答全新問題的能力。
標簽: