技術(shù)
導(dǎo)讀:隨著 GPT 等大模型技術(shù)的高速成長(zhǎng)和普及,模型的開(kāi)源資源、部署訓(xùn)練架構(gòu)、算力成本成為大模型應(yīng)用落地和企業(yè)盈虧 ROI 的關(guān)鍵分水嶺,重要性不低于模型精度。
上世紀(jì)的“廣告教父”大衛(wèi)·奧格威在世時(shí)一直營(yíng)銷著一個(gè)概念:“在現(xiàn)代商業(yè)世界,如果你不能將所創(chuàng)造的東西賣出去,只成為一個(gè)富有創(chuàng)意的思想家是毫無(wú)用處的?!?/p>
回顧歷史上的每一次變遷,從學(xué)術(shù)創(chuàng)意到切實(shí)部署的軌跡勾勒出進(jìn)步的藍(lán)圖,有如從概念到商業(yè)化的過(guò)程。隨著 GPT 等大模型技術(shù)的高速成長(zhǎng)和普及,模型的開(kāi)源資源、部署訓(xùn)練架構(gòu)、算力成本成為大模型應(yīng)用落地和企業(yè)盈虧 ROI 的關(guān)鍵分水嶺,重要性不低于模型精度。
繼今年 3 月的首屆 NPCon 大會(huì)探討了 ChatGPT 對(duì)技術(shù)社區(qū)的影響之后,8 月 12 日,CSDN、《新程序員》聯(lián)合主辦的“新程序員大會(huì)(NPCon):AI 模型技術(shù)與應(yīng)用峰會(huì)”于北京格蘭云天大酒店再度揭幕。
本次峰會(huì)主題圍繞「全鏈路搭建 AI 研發(fā)底座」展開(kāi),是 CSDN 今年推出的“AI 主題季”系列活動(dòng)之一。峰會(huì)活動(dòng)分別會(huì)在北京、上海、深圳、成都四城舉行,北京站現(xiàn)場(chǎng)邀請(qǐng)到千芯科技董事長(zhǎng)陳巍,Dify.AI 創(chuàng)始人張路宇,美團(tuán)基礎(chǔ)研發(fā)平臺(tái)視覺(jué)智能部軟件開(kāi)發(fā)工程師張旭,浪潮信息人工智能與高性能應(yīng)用軟件部AI架構(gòu)師OwenZhu,CSDN研發(fā)副總監(jiān)梁灝,圍繞算力資源運(yùn)維、模型訓(xùn)練部署、AI 能力構(gòu)建等方面,為不同規(guī)模階段的企業(yè)、團(tuán)隊(duì)、個(gè)人開(kāi)發(fā)者,提供如何構(gòu)建 AI 基礎(chǔ)設(shè)施、實(shí)現(xiàn)工程落地,提供全鏈路的建議和方案。
以下是本次“AI 模型技術(shù)與應(yīng)用峰會(huì)”的演講精華。
部署就是大模型的成敗關(guān)鍵
首先,知乎科技領(lǐng)域答主@陳巍談芯、千芯科技董事長(zhǎng)、人工智能算法-芯片協(xié)同設(shè)計(jì)專家陳巍帶來(lái)了分享《大模型涌現(xiàn),如何部署訓(xùn)練架構(gòu)與算力芯片》。他的核心觀點(diǎn)在于強(qiáng)調(diào)大模型訓(xùn)練和部署過(guò)程中的技術(shù)優(yōu)化、隱私保護(hù)、成本效益以及未來(lái)芯片發(fā)展的重要性。
知乎科技領(lǐng)域答主@陳巍談芯、千芯科技董事長(zhǎng) 陳巍
陳巍指出,大模型的本質(zhì)是對(duì)知識(shí)的壓縮和對(duì)輸入的反饋,一個(gè)常見(jiàn)大模型的生存周期分為模型的計(jì)劃、高質(zhì)量數(shù)據(jù)的收集、模型的建模和部署三個(gè)階段。其中,部署是大模型成敗和能否盈利的關(guān)鍵。
他認(rèn)為,在大模型訓(xùn)練和部署中,使用并行化技術(shù)(如數(shù)據(jù)并行、模型并行、張量并行)可以充分利用計(jì)算資源,提高效率。他強(qiáng)調(diào)通過(guò)優(yōu)化通信,減少數(shù)據(jù)傳輸冗余,可以降低計(jì)算芯片之間的通信成本,從而提升整體訓(xùn)練效率。
陳巍關(guān)注大模型部署中的隱私問(wèn)題,特別是個(gè)性化數(shù)據(jù)和敏感信息的保護(hù)。他介紹了隱私保護(hù)技術(shù),如將個(gè)人數(shù)據(jù)合并以降低隱私風(fēng)險(xiǎn),并限制模型輸出中的敏感信息。陳巍強(qiáng)調(diào),對(duì)于涉及個(gè)人隱私和敏感信息的部署,必須采取適當(dāng)?shù)碾[私保護(hù)措施。
此外,陳巍提出了不同的方法來(lái)降低大模型訓(xùn)練和部署的成本。他介紹了模型訓(xùn)練成本的評(píng)估方法,包括如何通過(guò)數(shù)據(jù)大小和訓(xùn)練條件來(lái)優(yōu)化成本。他還探討了不同算力芯片(CPU、GPU、DSA、TPU)的應(yīng)用,以及如何通過(guò)合理的策略來(lái)降低成本。
最后,陳巍強(qiáng)調(diào)未來(lái)芯片的發(fā)展可能對(duì)大模型訓(xùn)練和部署產(chǎn)生影響,特別是在現(xiàn)有 GPU 生態(tài)受到限制的情況下。他認(rèn)為在不同的算力芯片中,TPU 和 DSA 可能逐漸代替?zhèn)鹘y(tǒng)的 GPU 應(yīng)用。陳巍呼吁采取合適的技術(shù)策略和隱私保護(hù)措施,以降低成本、提高效率,并關(guān)注未來(lái)芯片趨勢(shì)對(duì)于人工智能產(chǎn)業(yè)的影響。
Agent 是大模型未來(lái)
最有想象力、最有前景的方向
“Agent 是 LLM(大語(yǔ)言模型)的最有前景的方向。一旦技術(shù)成熟,短則幾個(gè)月,長(zhǎng)則更久,它可能就會(huì)創(chuàng)造出超級(jí)個(gè)體。這解釋了我們?yōu)楹螌?duì)開(kāi)源模型和 Agent 興奮,即便投產(chǎn)性不高,但是我們能想象自己有了 Agent 之后就可以沒(méi)日沒(méi)夜地以百倍效率做現(xiàn)在手上的工作。未來(lái)可能會(huì)有 Agent 網(wǎng)絡(luò),每家公司甚至每個(gè)人都有自己的Agent,互相調(diào)用形成網(wǎng)絡(luò)效應(yīng),帶來(lái)繁榮的生態(tài)?!保珼ify.AI創(chuàng)始人張路宇在主題演講中如是說(shuō)道。
Dify.AI 創(chuàng)始人& CEO張路宇
張路宇指出,開(kāi)發(fā)者在應(yīng)用大模型時(shí)常常面臨向量數(shù)據(jù)庫(kù)、Agent編排等問(wèn)題,并且許多開(kāi)發(fā)者在初期都需要解決相似的難題,導(dǎo)致效率低下。盡管有大量應(yīng)用和模型,實(shí)際投產(chǎn)的應(yīng)用比例只有 5% 左右。
由此,張路宇強(qiáng)調(diào)了自動(dòng)代理(Auto Agent)在推理模型、編程范式和應(yīng)用構(gòu)建方面的重要性和挑戰(zhàn)。他提出了“規(guī)劃、記憶、工具的使用和總結(jié)與反思”這四個(gè)關(guān)鍵要素來(lái)解釋自動(dòng)代理的推理過(guò)程。他強(qiáng)調(diào)了規(guī)劃過(guò)程的重要性,將任務(wù)分解為多個(gè)步驟,并介紹了長(zhǎng)期記憶和短期記憶的概念,探討如何適時(shí)調(diào)用工具、合理使用人類輸入、進(jìn)行多輪對(duì)話,并強(qiáng)調(diào)推理性能、透明性和成本控制等方面的挑戰(zhàn)。
張路宇提到 LangChain 作為一個(gè)學(xué)習(xí)大模型應(yīng)用開(kāi)發(fā)的教科書(shū),提供了抽象概念和工具。但他也指出了 LangChain 的局限性,特別是在工具和集成鍵方面的脆弱性,以及不適合非技術(shù)人員的參與。他說(shuō)道:“每個(gè)人都要學(xué)習(xí)LangChain,但最終都會(huì)丟掉它?!?/p>
演講中,張路宇引入了 MetaPrompt 的概念,將其描述為一種結(jié)構(gòu)化的提示方式,可引導(dǎo)模型進(jìn)行復(fù)雜的推理和行動(dòng)。他指出,MetaPrompt 是引導(dǎo)大模型執(zhí)行任務(wù)的關(guān)鍵工具,將用戶問(wèn)題、前期反思、工具調(diào)用和模式以特定格式描述成提示。
張路宇認(rèn)為,面對(duì)大模型的開(kāi)發(fā),傳統(tǒng)的編程范式已經(jīng)不再適用。他提出了一種新的編程范式,即 "prompt first"。在大模型應(yīng)用開(kāi)發(fā)中,傳統(tǒng)的需求分析和 API 文檔設(shè)計(jì)可能不再適用。相反,他強(qiáng)調(diào)在設(shè)計(jì)應(yīng)用之前應(yīng)先考慮模型的輸入提示(prompt),并用這種方式引導(dǎo)模型執(zhí)行任務(wù)。
如何高效推理,
仍是大模型時(shí)代亟需解決的挑戰(zhàn)
緊接著,美團(tuán)基礎(chǔ)研發(fā)平臺(tái)視覺(jué)智能部軟件開(kāi)發(fā)工程師張旭在發(fā)表《美團(tuán)視覺(jué)GPU 推理服務(wù)部署架構(gòu)優(yōu)化的實(shí)踐》主題演講中表示,GPU 利用率低的問(wèn)題正日益凸顯,其核心癥結(jié)在于模型服務(wù)存在性能瓶頸。通過(guò)拆分微服務(wù)、優(yōu)化部署架構(gòu)以及綜合考慮多個(gè)優(yōu)化層面,將模型 CPU 和 GPU 運(yùn)算部分解耦,能實(shí)現(xiàn)模型部署工程的性能優(yōu)化,讓服務(wù)性能成倍提升。
美團(tuán)基礎(chǔ)研發(fā)平臺(tái)視覺(jué)智能部軟件開(kāi)發(fā)工程師 張旭
隨著技術(shù)應(yīng)用在線服務(wù)推理資源不斷增加,GPU 推理資源的使用比例逐年上升,但 GPU 的利用率卻一直在被浪費(fèi)。張旭透露,業(yè)界的真實(shí) GPU 利用率哪怕樂(lè)觀估計(jì)也只有 20% 左右。造成服務(wù) GPU 利用率低下的重要原因之一是模型服務(wù)本身存在性能瓶頸,在極限壓力情況下也無(wú)法充分利用 GPU 資源。
乍一看,模型部署十分完善,事實(shí)上,當(dāng)前的模型優(yōu)化不徹底,部分算子無(wú)法優(yōu)化加速,多模型的串聯(lián)部署也很困難。在 GPU 異構(gòu)計(jì)算體系下,模型中 CPU和 GPU 運(yùn)算之間還存在相互影響的問(wèn)題。張旭指出,這種影響會(huì)導(dǎo)致 CPU 和 GPU 無(wú)法同時(shí)充分利用,從而降低了推理服務(wù)的整體性能。
為此,張旭提出了解決 CPU/GPU 互相影響問(wèn)題的一種優(yōu)化方法,即將模型中的 CPU 和 GPU 運(yùn)算部分分別拆分為獨(dú)立的微服務(wù)。他通過(guò)實(shí)際案例演示,將預(yù)處理和后處理部分獨(dú)立到通用 CPU 服務(wù),主干網(wǎng)絡(luò)部分部署在 GPU 上,從而實(shí)現(xiàn)了更高的 GPU 利用率和整體性能提升。
在復(fù)雜視覺(jué)場(chǎng)景下,多模型的組合會(huì)引發(fā)更嚴(yán)重的 GPU/CPU 影響問(wèn)題。張旭通過(guò)實(shí)例說(shuō)明了針對(duì)多模型組合的場(chǎng)景,同樣可以采用 CPU/GPU 拆分部署的方式,將不同模型部分分別部署,以解決性能瓶頸問(wèn)題。他強(qiáng)調(diào)不同優(yōu)化層面之間的相互影響和迭代優(yōu)化的重要性,以實(shí)現(xiàn)性能的持續(xù)提升。
算力是驅(qū)動(dòng)大模型創(chuàng)新和進(jìn)步的基石
在現(xiàn)代人工智能領(lǐng)域,算力扮演著推動(dòng)創(chuàng)新、實(shí)現(xiàn)突破的核心驅(qū)動(dòng)力。浪潮信息人工智能與高性能應(yīng)用軟件部 AI 架構(gòu)師Owen以《AI 大模型算力系統(tǒng)分析》為主題,強(qiáng)調(diào)了算力、算法、數(shù)據(jù)和系統(tǒng)架構(gòu)等多個(gè)方面的綜合優(yōu)化對(duì)于大規(guī)模模型訓(xùn)練的成功至關(guān)重要。
浪潮信息人工智能與高性能應(yīng)用軟件部 AI 架構(gòu)師 Owen
浪潮信息早在2020年就開(kāi)始布局和投入AI大模型技術(shù)的研發(fā),Owen從“源”大模型的研發(fā)歷程切入,講解了大模型研發(fā)過(guò)程中的數(shù)據(jù)、算力和算法等各方面的挑戰(zhàn)。并指出國(guó)內(nèi)企業(yè)在上半年對(duì)算力的需求增加,尤其在大型模型訓(xùn)練方面。他強(qiáng)調(diào)了 GPT-3 和 GPT-4 等模型的重要性,同時(shí)提到了中國(guó)企業(yè)在這一領(lǐng)域的競(jìng)爭(zhēng)和發(fā)展前景。強(qiáng)調(diào)了算力投入是評(píng)估模型能力一個(gè)重要指標(biāo)。
隨后,Owen探討了大模型研發(fā)過(guò)程中預(yù)訓(xùn)練、微調(diào)和模型推理等環(huán)節(jié)的核心關(guān)鍵因素和主要計(jì)算特征。并強(qiáng)調(diào),未來(lái)大模型的產(chǎn)業(yè)化發(fā)展是一套復(fù)雜的系統(tǒng)工程,構(gòu)建高效穩(wěn)定的算力平臺(tái)是核心要義,成熟的算法、數(shù)據(jù)產(chǎn)業(yè)鏈,配套工具鏈及豐富的生態(tài)鏈?zhǔn)顷P(guān)鍵因素,我們亟需以系統(tǒng)的方式尋找最優(yōu)解。
用好工具,人人都是 AI 應(yīng)用開(kāi)發(fā)者
在閃電演講環(huán)節(jié),CSDN 研發(fā)副總監(jiān)梁灝先是介紹了自己的經(jīng)歷:將開(kāi)源 iView從0做到20,000 Star,最大的感受便是好的工具能讓開(kāi)發(fā)更簡(jiǎn)單。而他要介紹的InsCode,正是這樣的平臺(tái)。
CSDN 研發(fā)副總監(jiān) 梁灝
InsCode 是 CSDN 于 2023 年推出的一站式應(yīng)用開(kāi)發(fā)工具和服務(wù)平臺(tái)。它在瀏覽器中實(shí)現(xiàn)從編碼到部署的完整過(guò)程。僅僅在四個(gè)多月內(nèi),InsCode 就吸引了超過(guò) 5 萬(wàn)注冊(cè)用戶,其中一半以上為開(kāi)發(fā)用戶。累計(jì)創(chuàng)建了 4 萬(wàn)多個(gè)項(xiàng)目,其中許多項(xiàng)目已經(jīng)公開(kāi)發(fā)布或部署到社區(qū)。梁灝指出,InsCode 徹底改變了傳統(tǒng)的開(kāi)發(fā)流程,使用戶能夠在線上完成應(yīng)用的開(kāi)發(fā)、部署、運(yùn)維和運(yùn)營(yíng),從而使應(yīng)用開(kāi)發(fā)變得更加簡(jiǎn)單。
梁灝強(qiáng)調(diào)了 InsCode 在 AI 時(shí)代的地位,尤其是其面向開(kāi)發(fā)者的 AI 服務(wù)。他提到,專業(yè)程序員可以借助 InsCode 提高開(kāi)發(fā)效率和創(chuàng)造能力,普通程序員可以通過(guò)生成式 AI 工具減輕編碼工作,而泛開(kāi)發(fā)者甚至可以利用模板和自然語(yǔ)言提交需求,快速開(kāi)發(fā)多樣化的應(yīng)用。正如 CSDN 的 Slogan:人人都是開(kāi)發(fā)者。
最后,InsCode 聯(lián)合創(chuàng)新工場(chǎng)盛大召開(kāi) AI 應(yīng)用編程大賽,目前活動(dòng)已處于啟動(dòng)階段,歡迎讀者們?cè)L問(wèn) inscode.net 進(jìn)行報(bào)名或者參賽,贏取豐厚獎(jiǎng)金。
開(kāi)談:AI 時(shí)代的研發(fā)新范式
與開(kāi)發(fā)者能力演進(jìn)
在本次論壇的《開(kāi)談》環(huán)節(jié),由CSDN 人工智能技術(shù)編輯團(tuán)隊(duì)主持,華為諾亞方舟實(shí)驗(yàn)室技術(shù)專家董振華,投研機(jī)構(gòu) INP(Infra Native Partners)創(chuàng)始人丁寧,CodeGeeX 團(tuán)隊(duì)算法專家沈磊,聆心智能創(chuàng)始人& CTO鄭叔亮作為嘉賓的圓桌對(duì)話正式展開(kāi)。
本次《開(kāi)談》的主題為“AI 時(shí)代的研發(fā)新范式與開(kāi)發(fā)者能力演進(jìn)”,五位技術(shù)專家聚焦于過(guò)去一年內(nèi) AI 技術(shù)和模型的快速發(fā)展,特別是大模型的涌現(xiàn)以及與模型開(kāi)發(fā)相關(guān)的基礎(chǔ)設(shè)施和應(yīng)用技術(shù)的突破,探討大模型的未來(lái)走向,未來(lái)編程語(yǔ)言和開(kāi)發(fā)范式的影響,以及如何通過(guò)工具提高效率、學(xué)習(xí) AI 知識(shí)和技能并在競(jìng)爭(zhēng)激烈的領(lǐng)域中保持競(jìng)爭(zhēng)力。
”模型團(tuán)隊(duì)?wèi)?yīng)該更關(guān)注模型效果,也要努力做具體應(yīng)用。擴(kuò)大模型參數(shù)量至兩倍所產(chǎn)生的效果,遠(yuǎn)高于對(duì)其做加倍預(yù)訓(xùn)練所呈現(xiàn)的效果。夯實(shí)大模型 L0 層能力、對(duì)行業(yè)模型進(jìn)行優(yōu)化是我們的努力方向?!保?strong>華為諾亞方舟實(shí)驗(yàn)室技術(shù)專家董振華分享道。
董振華是研究者,也是《新程序員》的忠實(shí)讀者。他從研究者的角度強(qiáng)調(diào)開(kāi)源在追趕人工智能技術(shù)方面的重要作用,認(rèn)為開(kāi)源可以幫助解決人工智能技術(shù)以及大模型的問(wèn)題,使其更好地落地和應(yīng)用。未來(lái),不同規(guī)模階段的企業(yè)、團(tuán)隊(duì)和開(kāi)發(fā)者都應(yīng)該擁抱開(kāi)源,將先進(jìn)的技術(shù)借鑒于開(kāi)源社區(qū),從而形成更有條理的發(fā)展模式,不僅僅是商業(yè)公司的行為。
華為諾亞方舟實(shí)驗(yàn)室技術(shù)專家 董振華
當(dāng)談及大模型生態(tài)的問(wèn)題時(shí),投研機(jī)構(gòu) INP(InfraNative Partners)創(chuàng)始人丁寧回答:“大模型生態(tài)從商業(yè)考慮,相比面向具體任務(wù)做模型 Finetune,要更關(guān)注其通用能力;與過(guò)去模型參數(shù)內(nèi)僅是特征提取器不同,現(xiàn)在還包含意識(shí)形態(tài)、價(jià)值觀等要素給大模型生態(tài)商業(yè)化帶來(lái)更多不確定性?!?/p>
丁寧從不同類型的創(chuàng)業(yè)公司角度,分析了商業(yè)應(yīng)用與研究階段的優(yōu)先級(jí)問(wèn)題。他將創(chuàng)業(yè)公司分為幾類,包括做 Foundation Model 的、做 Fine-Tuning 的以及使用平臺(tái)集成的。丁寧認(rèn)為,在 Foundation Model 階段,重點(diǎn)在于搭建可擴(kuò)展的算力集群、高性能網(wǎng)絡(luò)以及高性能數(shù)據(jù)存儲(chǔ)基礎(chǔ)設(shè)施,設(shè)計(jì)精巧的逼近實(shí)驗(yàn)以求盡可能高的提高單次模型訓(xùn)練ROI,力求用最小的成本換取最大的實(shí)驗(yàn)進(jìn)展。
在Fine-Tuning階段,重點(diǎn)在于如何將大語(yǔ)言模型應(yīng)用于特定領(lǐng)域,并解決訓(xùn)練和數(shù)據(jù)管理等基礎(chǔ)設(shè)施問(wèn)題,但更重要的是建立數(shù)據(jù)的內(nèi)循環(huán)與業(yè)務(wù)的外循環(huán)。如果不去接觸模型訓(xùn)練,他強(qiáng)調(diào)了應(yīng)用工具和服務(wù)的重要性,如何將大語(yǔ)言模型與現(xiàn)有技術(shù)結(jié)合,提供工具的同時(shí)也要提供持續(xù)的服務(wù),例如合規(guī)、安全監(jiān)控、線上業(yè)務(wù)持續(xù)性保障等實(shí)際應(yīng)用價(jià)值。
投研機(jī)構(gòu) INP(Infra Native Partners)創(chuàng)始人 丁寧
CodeGeeX 團(tuán)隊(duì)算法專家沈磊則強(qiáng)調(diào)了在使用大模型方面的實(shí)踐建議和團(tuán)隊(duì)協(xié)作的重要性:“我的建議是要擁抱新的工具和功能。對(duì)于個(gè)人開(kāi)發(fā)者或者公司來(lái)說(shuō),使用輔助工具可以顯著提升編程效率,甚至提高 10% 的效率對(duì)于一個(gè)人來(lái)說(shuō)也是很可觀的進(jìn)步。當(dāng)我們面對(duì)變化時(shí),要勇于接受并嘗試新的技能和工具,這將對(duì)個(gè)人和團(tuán)隊(duì)都非常有幫助?!?/p>
沈磊為想要使用大模型的公司或個(gè)人給出建議,首先嘗試使用開(kāi)源的模型和插件。這可以幫助他們?cè)趯?shí)際場(chǎng)景中試用模型和微調(diào)代碼,了解模型效果,從而在做出關(guān)于使用什么樣的模型、框架和機(jī)器配置的決定時(shí)更具有理性和經(jīng)驗(yàn)。
CodeGeeX 團(tuán)隊(duì)算法專家 沈磊
在開(kāi)源領(lǐng)域的話題上,聆心智能創(chuàng)始人& CTO鄭叔亮闡釋了自己的觀點(diǎn):“開(kāi)源模型讓創(chuàng)業(yè)者借助大平臺(tái)搭建原型、實(shí)現(xiàn)核心創(chuàng)新突破并快速交付產(chǎn)品,制造多贏的局面。但初創(chuàng)公司仍需厘清其中存在的安全性和價(jià)值觀風(fēng)險(xiǎn),才能在開(kāi)源的土壤生根發(fā)芽?!?/strong>
對(duì)于未來(lái)可能會(huì)創(chuàng)造的機(jī)遇,鄭叔亮表示:“在我們上學(xué)的時(shí)候,編譯原理課程需要花兩個(gè)學(xué)期來(lái)完成一個(gè)編譯器,數(shù)據(jù)庫(kù)課程則要求編寫(xiě)一個(gè) DBMS 系統(tǒng),本科階段的大作業(yè)基本都是這樣的。這種經(jīng)歷讓我們?cè)诿鎸?duì)新技術(shù)時(shí)更加從容,不會(huì)對(duì)挑戰(zhàn)、威脅或恐慌過(guò)于擔(dān)憂,而是欣然接受新鮮事物。簡(jiǎn)而言之,如果我們不能成為創(chuàng)造浪潮的人,至少應(yīng)該成為在浪潮上跳舞的人。雖然只有少數(shù)人會(huì)創(chuàng)造這波浪潮,但更多的人可以站在潮頭,享受其中的樂(lè)趣?!?/p>
聆心智能創(chuàng)始人& CTO 鄭叔亮
大模型時(shí)代的新程序員
NPCon 中的“NP”是“New Programmer”(新程序員)的縮寫(xiě),它承載著兩重含義。首先,它象征著《新程序員》雜志,這是 CSDN 延續(xù)近 20 年的《程序員》雜志的全新篇章。其次,它象征著我們站在人工智能紀(jì)元的起點(diǎn),或許將親歷程序員職業(yè)范式的巨變,成為新一代的程序員。
CSDN 這些年一直在持續(xù)關(guān)注人工智能技術(shù)這一賽道,與其他以 AI 為主題的垂直媒體不同的是,CSDN 擁有近五千萬(wàn)開(kāi)發(fā)者社區(qū)規(guī)模的平臺(tái),除了關(guān)注科研突破和商業(yè)應(yīng)用外,更著重關(guān)心人工智能應(yīng)用的工程實(shí)現(xiàn)。當(dāng)前,人工智能技術(shù)不斷刷新能力極限,各種相關(guān)新聞層出不窮,然而實(shí)際情況是,我們?cè)诨A(chǔ)設(shè)施、工程實(shí)施、成本以及應(yīng)用落地方面依然面臨著漫長(zhǎng)的前行之路。
不論我們是創(chuàng)新的推動(dòng)者還是變革的見(jiàn)證者,我們都應(yīng)該邁出那一步,踏上旅程。若“新程序員”不能成為浪潮的奠基者,至少應(yīng)當(dāng)成為其中的弄潮兒。新程序員們會(huì)懷揣著創(chuàng)業(yè)的精神,始終保持持續(xù)學(xué)習(xí)的狀態(tài)。如此一來(lái),我們的努力才會(huì)更具深遠(yuǎn)的意義。
與此同時(shí),CSDN 也將持續(xù)更新 AIGC 和大模型技術(shù)的發(fā)展動(dòng)態(tài),為廣大技術(shù)愛(ài)好者提供最新的技術(shù)資訊和最優(yōu)質(zhì)的學(xué)習(xí)資源與工具,成就更多技術(shù)人與開(kāi)發(fā)者,歡迎關(guān)注。