參考消息網12月22日報道 據彭博新聞社網站12月21日報道,美國開放人工智能研究中心(OpenAI)正準備推出一款新的人工智能(AI)模型,該模型據稱與其當前產品相比,具有更先進、近似人類的推理能力。這令OpenAI與谷歌等業內對手之間的競爭愈發激烈。
這款名為o3的新模型在20日一場直播活動中亮相。在解決更復雜的多步驟問題時,這款模型在回應之前會花更多時間計算答案。OpenAI還將推出一個輕量級版本,名為o3-mini。
在直播中,OpenAI分享了一些初步細節,顯示o3在回答與編碼等主題相關的復雜問題時表現勝過o1。o1是OpenAI在9月推出的推理模型。作為新軟件發布前的環節之一,OpenAI還要求安全和保障研究人員申請測試這些模型。其首席執行官薩姆·奧爾特曼在直播中說,他們計劃在明年1月底推出o3-mini,之后不久就推出了o3。
OpenAI在兩年前發布了聊天生成預訓練轉換器(ChatGPT),一場AI軍備競賽由此拉開大幕。這款聊天機器人最初是由大型語言模型GPT-3.5驅動,隨后在2023年,OpenAI推出據稱更準確、更具創造性的GPT-4。不久前它又推出首個推理模型o1。OpenAI的發言人表示,他們在給這款新模型命名時決定跳過o2,這是“出于對英國電信公司O2的尊重”。
其他頂級AI開發商也在利用越來越先進的技術進行產品迭代。本月早些時候,谷歌推出了其旗艦模型“雙子座”(Gemini)的新版本,據稱速度是上一代的兩倍,并且可以“思考、記憶、規劃,甚至代表你采取行動”。元宇宙平臺公司首席執行官馬克·扎克伯格最近也透露了明年推出Llama 4的計劃。
然而,彭博新聞社此前報道稱,包括OpenAI和谷歌在內,幾家領先者正面臨新模型開發耗資巨大但回報遞減的問題。這在一定程度上是由于難以找到足夠多新的、未曾接入的高質量人工訓練數據來源。為了解決這個問題,這些公司正在轉向新策略,包括更加強調所謂的推理。
在發布新模型預覽的同時,OpenAI還發布一項研究,介紹了它采用的一種新方法,可以確保像o1和o3這樣的系統分辨哪些該做哪些不該做,例如避免幫用戶從事非法活動。這種技術被稱為“慎重對齊”,它要求模型在思考回應用戶查詢時,遵循一系列與安全相關的步驟。
這個問題有時被稱為“對齊”,對于那些構建大型語言模型的公司而言是一個技術挑戰,畢竟這些模型通常需要基于大量互聯網數據進行訓練。由于人們的道德和價值觀不同,對AI該做什么和不該做什么的看法也各異,“對齊”是一項復雜的任務。
OpenAI的最新聲明為它為期12天的產品直播活動畫上句號。這家初創公司利用這一系列發布活動推出價格更高的ChatGPT Pro新訂閱選項,并開始推出AI視頻生成工具“天空”(Sora)等新產品。(編譯/朱麗)