自ChatGPT推出以來,生成式人工智能(AI)技術(shù)的支持者就堅信,隨著科技巨頭不斷向AI模型投喂大量數(shù)據(jù),并借助日益提升的計算能力,生成式AI的改善將會指數(shù)級增長,通用AI的實現(xiàn)似乎指日可待。
但在AI快速發(fā)展如火如荼的表象之下,也醞釀著一些專家的隱憂和疑慮。
OpenAI推出的ChatGPT激發(fā)了科技公司對開發(fā)大型語言模型的熱情,生成式AI的迅猛發(fā)展同時也使OpenAI等企業(yè)聲名鵲起,收益大漲。
美國休斯頓AI行業(yè)專家、GSV科技基金創(chuàng)始人史寧
美國休斯頓AI行業(yè)專家、GSV科技基金創(chuàng)始人史寧觀察到,OpenAI之所以估值如此之高,主要是因為許多行業(yè)內(nèi)人士深信不疑:只要持續(xù)為AI模型投喂更多數(shù)據(jù),增強其計算能力,模型的能力便能持續(xù)增強,然而,這不過是一個美麗的錯覺。
美國消費者新聞與商業(yè)頻道(CNBC)在最近的報道中指出,包括谷歌、Anthropic與OpenAI在內(nèi)的公司,在開發(fā)新型大語言模型的過程中似乎已經(jīng)遭遇瓶頸。風(fēng)險投資公司安德森-霍洛維茨是OpenAI的股東之一,該公司聯(lián)合創(chuàng)始人本·霍洛維茨最近坦承,雖然持續(xù)推動算力的提升,但AI模型的智能水平并沒有因此獲得相應(yīng)的提升。OpenAI的聯(lián)合創(chuàng)始人伊爾亞·蘇茨克維在11月15日的一次媒體采訪中提到,利用大量未標記的數(shù)據(jù)來訓(xùn)練AI,讓其學(xué)習(xí)語言的模式與結(jié)構(gòu),這一過程已經(jīng)變得相對穩(wěn)定。專家們指出,目前可供AI訓(xùn)練使用的數(shù)據(jù)已幾近被現(xiàn)有模型耗盡。
OpenAI的合作伙伴、專注于法律領(lǐng)域的生成式AI公司Spellbook的首席執(zhí)行官斯科特·史蒂文森指出,過分依賴文本數(shù)據(jù)來“喂養(yǎng)”AI模型的實驗室,將難以僅憑文本數(shù)據(jù)推動AI的發(fā)展。目前,許多公司已面臨新數(shù)據(jù)不足的問題。因此,挑戰(zhàn)不在于知識的積累,而在于機器解讀句子或圖像含義的能力。
薩姆·奧爾特曼在社交平臺X上于11月14日表示:“沒有死胡同!”
盡管如此,OpenAI決定推遲推出GPT-4的后繼產(chǎn)品,因為GPT-4的性能改進未能達到預(yù)期。
在今年9月,作為戰(zhàn)略轉(zhuǎn)型的一部分,OpenAI推出了o1模型,專注于解決復(fù)雜問題,特別是數(shù)學(xué)問題,目標在于通過增強推理能力而非簡單增加數(shù)據(jù)量,來提供更準確的解答。
史蒂文森認為,OpenAI的方向轉(zhuǎn)向讓模型“多花時間思考,少做即時回應(yīng)”,這可能預(yù)示著AI研發(fā)領(lǐng)域的一場深刻變革。他強調(diào),行業(yè)應(yīng)當追求創(chuàng)新,不應(yīng)只是簡單地增加數(shù)據(jù)和計算能力。