咨詢服務熱線:400-099-8848
OpenAI發(fā)布GPT-5.3-Codex-Spark |
| 發(fā)布時間:2026-02-14 文章來源:本站 瀏覽次數:56 |
OpenAI正式發(fā)布新一代代碼模型GPT-5.3-Codex-Spark,并宣布該模型由Cerebras供給算力支撐,現已以研究預覽方式上線。這是OpenAI與Cerebras合作的首個揭露效果,標志著晶圓級算力架構在干流AI編程場景中的首次規(guī);涞。 Codex-Spark定坐落“實時協作式軟件開發(fā)”。在當時Agent化編程趨勢下,AI可以接連數小時甚至數天自主執(zhí)行使命,但長等待時刻與反應推遲,也或許削弱開發(fā)者的參與感與控制力。Codex-Spark強調“呼應速度與智能平等重要”,支撐開發(fā)者在實時交互中持續(xù)注入規(guī)劃判斷與方向決議計劃。 在性能層面,Codex-Spark運轉于Cerebras Wafer-Scale Engine架構之上,推理速度超過每秒1000 tokens,實現近乎即時的代碼反應。在SWE-Bench Pro與Terminal-Bench 2.0等Agent工程基準測試中,該模型在完成時刻明顯縮短的同時,才能表現優(yōu)于GPT-5.1-Codex-mini。 模型才能側重于精準代碼編輯、計劃修訂與上下文理解,適用于代碼庫問答、界面布局調整、樣式優(yōu)化與交互測試等高頻開發(fā)使命。比較長時刻自主運轉的Agent形式,Codex-Spark更強調“人在回路中”的協同開發(fā)體會。 OpenAI工業(yè)計算負責人Sachin Katti表示,引進晶圓級算力為低推遲場景供給了新的渠道才能,使Codex在對推遲敏感的工作流中保持高度呼應性。團隊將基于開發(fā)者反應持續(xù)優(yōu)化多算力體系的協同調度才能。 從硬件層面看,Cerebras的Wafer-Scale Engine具有業(yè)界大的片上內存容量,可在單用戶場景下實現數千tokens每秒的高速推理。該架構可橫向擴展至數千套系統(tǒng),構成多TB級高速內存池,為萬億參數級模型的訓練與推理供給支撐。OpenAI預計將在2026年將該超高速推理才能擴展至更大規(guī)模的前沿模型。 現在,Codex-Spark已向ChatGPT Pro用戶敞開,可通過Codex使用、CLI及VS Code擴展使用;API接口將逐漸向部分規(guī)劃合作伙伴敞開。隨著高性能推理基礎設施的持續(xù)升級,實時AI編程正邁入更低推遲、更強可控的新階段。 |