DeepSeek: Quellu Disruptivu chì Rivoluziona u Paesaghju di l'IA

AIPU WATON GROUP

Introduzione

Ansietà cuntinua trà i grandi mudelli in cumpetizione, i fornitori di cloud in cumpetizione per a quota di mercatu è i pruduttori di chip chì travaglianu duru - L'effettu DeepSeek persiste.

Mentre a Festa di Primavera ghjunghje à a fine, l'eccitazione intornu à DeepSeek ferma forte. E vacanze recenti anu messu in risaltu un sensu significativu di cumpetizione in l'industria tecnologica, cù parechji chì discutenu è analizanu stu "pesce gattu". Silicon Valley sta sperimentendu un sensu di crisa senza precedenti: i difensori di l'open-source stanu esprimendu di novu e so opinioni, è ancu OpenAI sta rivalutendu se a so strategia closed-source era a megliu scelta. U novu paradigma di costi di calculu più bassi hà scatenatu una reazione à catena trà i giganti di chip cum'è Nvidia, purtendu à perdite record di valore di mercatu in un ghjornu in a storia di u mercatu azionario americanu, mentre chì l'agenzie guvernamentali stanu investigendu a conformità di i chip utilizati da DeepSeek. In mezu à recensioni miste di DeepSeek à l'esteru, in u paese, sta sperimentendu una crescita straordinaria. Dopu u lanciu di u mudellu R1, l'app assuciata hà vistu un aumentu di u trafficu, chì indica chì a crescita in i settori applicativi farà avanzà l'ecosistema generale di l'IA. L'aspettu pusitivu hè chì DeepSeek allargherà e pussibilità di l'applicazione, suggerendu chì affidà si à ChatGPT ùn serà micca cusì caru in u futuru. Stu cambiamentu s'hè riflessu in l'attività recenti di OpenAI, cumprese a furnitura di un mudellu di ragiunamentu chjamatu o3-mini à l'utilizatori gratuiti in risposta à DeepSeek R1, è ancu l'aghjurnamenti successivi chì anu resu publica a catena di pensamentu di o3-mini. Parechji utilizatori stranieri anu espressu gratitudine à DeepSeek per questi sviluppi, ancu s'è sta catena di pensamentu serve da riassuntu.

Ottimisticamente, hè evidente chì DeepSeek unisce l'attori naziunali. Cù a so focalizazione nantu à a riduzione di i costi di furmazione, diversi pruduttori di chip upstream, fornitori di cloud intermedi è numerose startup si uniscenu attivamente à l'ecosistema, aumentendu l'efficienza di i costi per l'usu di u mudellu DeepSeek. Sicondu i documenti di DeepSeek, a furmazione cumpleta di u mudellu V3 richiede solu 2,788 milioni d'ore di GPU H800, è u prucessu di furmazione hè assai stabile. L'architettura MoE (Mixture of Experts) hè cruciale per riduce i costi di pre-furmazione di un fattore di dece paragunatu à Llama 3 cù 405 miliardi di parametri. Attualmente, V3 hè u primu mudellu publicamente ricunnisciutu chì dimostra una tale sparsità in MoE. Inoltre, MLA (Multi Layer Attention) funziona sinergicamente, in particulare in aspetti di ragiunamentu. "Più sparsu hè u MoE, più grande hè a dimensione di u batch necessaria durante u ragiunamentu per utilizà cumpletamente a putenza computazionale, cù a dimensione di u KVCache chì hè u fattore limitante chjave; MLA riduce significativamente a dimensione di KVCache", hà nutatu un ricercatore di Chuanjing Technology in un'analisi per AI Technology Review. In generale, u successu di DeepSeek stà in a cumbinazione di diverse tecnulugie, micca solu una sola. I prufessiunali di l'industria lodanu e capacità ingegneristiche di a squadra DeepSeek, nutendu a so eccellenza in a furmazione parallela è l'ottimisazione di l'operatori, ottenendu risultati rivoluzionarii raffinendu ogni dettagliu. L'approcciu open-source di DeepSeek alimenta ulteriormente u sviluppu generale di grandi mudelli, è si prevede chì se mudelli simili si espandenu in immagini, video è ancu di più, questu stimulerà significativamente a dumanda in tuttu u settore.

Opportunità per i servizii di ragiunamentu di terze parti

I dati indicanu chì dapoi a so liberazione, DeepSeek hà accumulatu 22,15 milioni d'utilizatori attivi ogni ghjornu (DAU) in solu 21 ghjorni, righjunghjendu u 41,6% di a basa d'utilizatori di ChatGPT è superendu i 16,95 milioni d'utilizatori attivi ogni ghjornu di Doubao, diventendu cusì l'applicazione chì cresce più rapidamente à u livellu mundiale, superendu l'Apple App Store in 157 paesi/regioni. Tuttavia, mentre l'utilizatori si sò riversati in massa, i pirati cibernetici anu attaccatu senza tregua l'app DeepSeek, causendu una tensione significativa nantu à i so servitori. L'analisti di l'industria credenu chì questu hè in parte duvutu à u fattu chì DeepSeek implementa carte per a furmazione mentre ùn hà micca una putenza di calculu sufficiente per u ragiunamentu. Un insider di l'industria hà infurmatu AI Technology Review: "I prublemi frequenti di i servitori ponu esse risolti facilmente addebitate tariffe o finanziamenti per cumprà più macchine; in definitiva, dipende da e decisioni di DeepSeek". Questu presenta un compromisu in u focus nantu à a tecnulugia versus a pruduzzione. DeepSeek s'hè largamente affidatu à a quantificazione quantica per l'autosufficiente sussistenza, avendu ricevutu pochi finanziamenti esterni, risultendu in una pressione di flussu di cassa relativamente bassa è un ambiente tecnologicu più puru. Attualmente, à a luce di i prublemi citati sopra, certi utilizatori incitanu DeepSeek nantu à i social media à elevà i limiti d'usu o à introduce funzioni pagate per migliurà u cunfortu di l'utilizatori. Inoltre, i sviluppatori anu cuminciatu à aduprà l'API ufficiale o API di terze parti per l'ottimisazione. Tuttavia, a piattaforma aperta di DeepSeek hà annunziatu pocu fà: "E risorse attuali di u servitore sò scarce, è e ricariche di u serviziu API sò state sospese".

 

Questu apre senza dubbitu più opportunità per i venditori di terze parti in u settore di l'infrastruttura IA. Recentemente, numerosi giganti di u cloud naziunali è internaziunali anu lanciatu l'API di mudellu di DeepSeek - i giganti stranieri Microsoft è Amazon sò stati trà i primi à unisce si à a fine di ghjennaghju. U capu naziunale, Huawei Cloud, hà fattu u primu passu, liberendu i servizii di ragiunamentu DeepSeek R1 è V3 in cullaburazione cù Silicon-based Flow u 1u di ferraghju. I rapporti di AI Technology Review indicanu chì i servizii di Silicon-based Flow anu vistu un afflussu d'utilizatori, "crashing" efficacemente a piattaforma. E trè grandi cumpagnie tecnologiche - BAT (Baidu, Alibaba, Tencent) è ByteDance - anu ancu emessu offerte à bassu costu è à tempu limitatu à partesi da u 3 di ferraghju, chì ricordanu e guerre di prezzi di i venditori di cloud di l'annu scorsu innescate da u lanciu di u mudellu V2 di DeepSeek, induve DeepSeek hà cuminciatu à esse soprannominatu u "macellaiu di prezzi". L'azzioni frenetiche di i venditori di nuvola riflettenu i forti ligami precedenti trà Microsoft Azure è OpenAI, induve in u 2019, Microsoft hà fattu un investimentu sustanziale di 1 miliardu di dollari in OpenAI è hà raccoltu benefici dopu u lanciu di ChatGPT in u 2023. Tuttavia, sta stretta relazione hà cuminciatu à sfilaccià dopu chì Meta hà messu Llama in open source, permettendu à altri venditori fora di l'ecosistema Microsoft Azure di cumpete cù i so grandi mudelli. In questu casu, DeepSeek ùn hà micca solu superatu ChatGPT in termini di calore di u produttu, ma hà ancu introduttu mudelli open source dopu a liberazione di o1, simile à l'eccitazione chì circonda u revival di GPT-3 da parte di Llama.

 

In realtà, i fornitori di cloud si stanu ancu pusiziunendu cum'è gateway di trafficu per l'applicazioni AI, ciò chì significa chì l'apprufundimentu di i ligami cù i sviluppatori si traduce in vantaghji preventivi. I rapporti indicanu chì Baidu Smart Cloud avia più di 15.000 clienti chì utilizavanu u mudellu DeepSeek via a piattaforma Qianfan u ghjornu di u lanciu di u mudellu. Inoltre, parechje imprese più chjuche offrenu suluzioni, cumprese Silicon-based Flow, Luchen Technology, Chuanjing Technology, è vari fornitori di AI Infra chì anu lanciatu u supportu per i mudelli DeepSeek. AI Technology Review hà amparatu chì l'opportunità attuali di ottimizazione per l'implementazioni lucalizate di DeepSeek esistenu principalmente in duie aree: una hè l'ottimizazione per e caratteristiche di sparsità di u mudellu MoE utilizendu un approcciu di ragiunamentu mistu per implementà u mudellu MoE di 671 miliardi di parametri lucalmente mentre si utilizza l'inferenza ibrida GPU/CPU. Inoltre, l'ottimizazione di MLA hè vitale. Tuttavia, i dui mudelli di DeepSeek affrontanu sempre alcune sfide in l'ottimizazione di l'implementazione. "A causa di a dimensione di u mudellu è di i numerosi parametri, l'ottimisazione hè veramente cumplessa, in particulare per l'implementazioni lucali induve ottene un equilibriu ottimale trà prestazioni è costu serà difficiule", hà dichjaratu un ricercatore di Chuanjing Technology. L'ostaculu u più significativu stà in u superamentu di i limiti di capacità di memoria. "Aduttemu un approcciu di cullaburazione eterogenea per utilizà cumpletamente e CPU è altre risorse di calculu, piazzendu solu e parti micca spartute di a matrice MoE sparsa nantu à CPU / DRAM per l'elaborazione utilizendu operatori di CPU ad alte prestazioni, mentre chì e porzioni dense stanu nantu à a GPU", hà spiegatu più in dettu. I rapporti indicanu chì u framework open-source di Chuanjing KTransformers inietta principalmente diverse strategie è operatori in l'implementazione originale di Transformers attraversu un mudellu, aumentendu significativamente a velocità di inferenza utilizendu metudi cum'è CUDAGraph. DeepSeek hà creatu opportunità per queste startup, postu chì i benefici di crescita stanu diventendu evidenti; parechje imprese anu signalatu una crescita notevule di i clienti dopu avè lanciatu l'API DeepSeek, ricevendu dumande da clienti precedenti chì cercanu ottimisazioni. I prufessiunali di l'industria anu nutatu: "In u passatu, i gruppi di clienti più o menu stabiliti eranu spessu bluccati in i servizii standardizati di e grande cumpagnie, strettamente ligati da i so vantaghji di costu per via di a scala. Tuttavia, dopu avè cumpletatu u spiegamentu di DeepSeek-R1/V3 prima di a Festa di Primavera, avemu ricevutu di colpu richieste di cuuperazione da parechji clienti cunnisciuti, è ancu i clienti prima inattivi anu iniziatu u cuntattu per presentà i nostri servizii DeepSeek". Attualmente, pare chì DeepSeek stia rendendu e prestazioni di l'inferenza di u mudellu sempre più critiche, è cù l'adozione più larga di grandi mudelli, questu continuerà à influenzà significativamente u sviluppu in l'industria di l'infrastrutture IA. Se un mudellu à livellu DeepSeek puderia esse implementatu lucalmente à un bassu costu, aiuterebbe assai i sforzi di trasfurmazione digitale di u guvernu è di l'imprese. Tuttavia, e sfide persistenu, postu chì alcuni clienti ponu avè alte aspettative in quantu à e capacità di i grandi mudelli, rendendu più evidente chì l'equilibriu trà e prestazioni è u costu diventa vitale in u spiegamentu praticu. 

Per valutà se DeepSeek hè megliu cà ChatGPT, hè essenziale capisce e so differenze chjave, i punti di forza è i casi d'usu. Eccu un paragone cumpletu:

Caratteristica/Aspettu DeepSeek ChatGPT
Pruprietà Sviluppatu da una sucietà cinese Sviluppatu da OpenAI
Modellu di fonte Open-source Pruprietariu
Costu Gratuitu da aduprà; opzioni d'accessu API più economiche Tariffazione per abbonamentu o pagamentu per usu
persunalizazione Altamente persunalizabile, chì permette à l'utilizatori di mudificà è custruisce nantu à questu Personalizazione limitata dispunibule
Prestazione in Compiti Specifici Eccelle in certi duminii cum'è l'analisi di dati è a recuperazione di informazioni Versatile cù una forte prestazione in scrittura creativa è compiti di conversazione
Supportu linguisticu Forte attenzione à a lingua è a cultura cinese Supportu linguisticu largu ma centratu nantu à i Stati Uniti
Costu di furmazione Costi di furmazione più bassi, ottimizzati per l'efficienza Costi di furmazione più elevati, chì necessitanu risorse computazionali sustanziali
Variazione di risposta Pò offre risposte diverse, forse influenzate da u cuntestu geopuliticu Risposte coerenti basate nantu à i dati di furmazione
Publicu di destinazione Destinatu à i sviluppatori è i circadori chì cercanu flessibilità Destinatu à l'utilizatori generali chì cercanu capacità di cunversazione
Casi d'usu Più efficiente per a generazione di codice è i travaglii rapidi Ideale per generà testu, risponde à dumande è impegnassi in dialoghi

Una Prospettiva Critica nantu à "Disrupzione di Nvidia"

Attualmente, fora di Huawei, parechji pruduttori di chip naziunali cum'è Moore Threads, Muxi, Biran Technology, è Tianxu Zhixin si stanu ancu adattendu à i dui mudelli di DeepSeek. Un pruduttore di chip hà dettu à AI Technology Review: "A struttura di DeepSeek dimostra innovazione, eppuru ferma un LLM. A nostra adattazione à DeepSeek hè principalmente focalizzata nantu à l'applicazioni di ragiunamentu, rendendu l'implementazione tecnica abbastanza simplice è rapida". Tuttavia, l'approcciu MoE richiede esigenze più elevate in termini di almacenamentu è distribuzione, accumpagnate da a garanzia di compatibilità durante l'implementazione cù chip naziunali, presentendu numerose sfide ingegneristiche chì necessitanu una risoluzione durante l'adattazione. "Attualmente, a putenza computazionale domestica ùn currisponde micca à Nvidia in termini di usabilità è stabilità, richiedendu a participazione originale di a fabbrica per a cunfigurazione di l'ambiente software, a risoluzione di i prublemi è l'ottimisazione di e prestazioni fundamentali", hà dettu un praticante di l'industria basatu annantu à l'esperienza pratica. Simultaneamente, "A causa di a grande scala di parametri di DeepSeek R1, a putenza computazionale domestica richiede più nodi per a parallelizazione. Inoltre, e specifiche hardware naziunali sò sempre un pocu in ritardu; per esempiu, u Huawei 910B ùn pò attualmente supportà l'inferenza FP8 introdutta da DeepSeek". Unu di i punti culminanti di u mudellu DeepSeek V3 hè l'introduzione di un quadru di furmazione di precisione mista FP8, chì hè statu validatu efficacemente nantu à un mudellu estremamente grande, chì marca un successu significativu. Prima, i principali attori cum'è Microsoft è Nvidia anu suggeritu travaglii simili, ma i dubbi persistenu in l'industria in quantu à fattibilità. Hè capitu chì, paragunatu à INT8, u vantaghju principale di FP8 hè chì a quantizazione post-furmazione pò ottene una precisione quasi senza perdita mentre migliora significativamente a velocità di inferenza. Quandu si paraguna à FP16, FP8 pò ottene finu à duie volte l'accelerazione nantu à l'H20 di Nvidia è più di 1,5 volte l'accelerazione nantu à l'H100. In particulare, mentre e discussioni intornu à a tendenza di a putenza computazionale domestica più i mudelli domestichi guadagnanu slanciu, a speculazione nantu à se Nvidia puderia esse interrotta, è se u fossatu CUDA puderia esse aggiratu, diventa sempre più prevalente. Un fattu innegabile hè chì DeepSeek hà in effetti causatu una calata sustanziale di u valore di mercatu di Nvidia, ma questu cambiamentu suscita dumande riguardu à l'integrità di a putenza computazionale di fascia alta di Nvidia. E narrazioni accettate prima riguardu à l'accumulazione computazionale guidata da u capitale sò state messe in discussione, eppuru ferma difficiule per Nvidia d'esse cumpletamente rimpiazzata in scenarii di furmazione. L'analisi di l'usu prufondu di CUDA da DeepSeek mostra chì a flessibilità - cum'è l'usu di SM per a cumunicazione o a manipulazione diretta di e carte di rete - ùn hè micca fattibile per e GPU regulare. I punti di vista di l'industria sottolineanu chì u fossu di Nvidia abbraccia tuttu l'ecosistema CUDA piuttostu chè solu CUDA stessu, è l'istruzzioni PTX (Parallel Thread Execution) chì DeepSeek impiega sò sempre parte di l'ecosistema CUDA. "À cortu termine, a putenza computazionale di Nvidia ùn pò esse aggirata - questu hè particularmente chjaru in a furmazione; tuttavia, l'implementazione di carte domestiche per u ragiunamentu serà relativamente più faciule, dunque u prugressu serà probabilmente più veloce. L'adattazione di e carte domestiche si concentra principalmente nantu à l'inferenza; nimu hè ancu riesciutu à furmà un mudellu di e prestazioni di DeepSeek nantu à e carte domestiche à scala ", hà rimarcatu un analista di l'industria à AI Technology Review. In generale, da un puntu di vista di l'inferenza, e circustanze sò incoraggianti per i chip di grande mudellu domestichi. L'opportunità per i pruduttori di chip naziunali in u duminiu di l'inferenza sò più evidenti per via di i requisiti eccessivamente alti di a furmazione, chì impediscenu l'entrata. L'analisti sustenenu chì basta à sfruttà e carte d'inferenza naziunali; se necessariu, l'acquistu di una macchina supplementaria hè fattibile, mentre chì i mudelli di furmazione ponenu sfide uniche: a gestione di un numeru aumentatu di macchine pò diventà fastidiosa, è tassi d'errore più alti ponu influenzà negativamente i risultati di a furmazione. A furmazione hà ancu requisiti specifici di scala di cluster, mentre chì e richieste di i cluster per l'inferenza ùn sò micca cusì stringenti, facilitendu cusì i requisiti GPU. Attualmente, e prestazioni di a carta H20 unica di Nvidia ùn superanu micca quelle di Huawei o Cambrian; a so forza stà in u clustering. Basatu annantu à l'impattu generale annantu à u mercatu di a putenza computazionale, u fundatore di Luchen Technology, You Yang, hà nutatu in una entrevista cù AI Technology Review, "DeepSeek pò minà temporaneamente a creazione è l'affittu di cluster computazionali di furmazione ultra-grandi. À longu andà, riducendu significativamente i costi assuciati à a furmazione, u ragiunamentu è l'applicazioni di grandi mudelli, hè prubabile chì a dumanda di u mercatu aumenti. L'iterazioni successive di l'IA basate annantu à questu cunduceranu dunque continuamente una dumanda sustinuta in u mercatu di a putenza computazionale". Inoltre, "L'aumentu di a dumanda di DeepSeek per i servizii di ragiunamentu è di messa à puntu hè più cumpatibile cù u paisaghju computazionale domesticu, induve e capacità lucali sò relativamente debuli, aiutendu à mitigà u sprecu di risorse inattive dopu a creazione di cluster; questu crea opportunità fattibili per i pruduttori in diversi livelli di l'ecosistema computazionale domesticu". Luchen Technology hà collaboratu cù Huawei Cloud per lancià l'API di ragiunamentu di a serie DeepSeek R1 è i servizii di imaging in nuvola basati nantu à a putenza computazionale domestica. You Yang hà espressu ottimisimu per u futuru: "DeepSeek infonde fiducia in e soluzioni prodotte domesticamente, incuragendu un maggiore entusiasmu è investimenti in capacità computazionali domestiche in u futuru".

微信图片_20240614024031.jpg1

Cunclusione

S'ellu DeepSeek hè "megliu" chè ChatGPT dipende da i bisogni è l'ubbiettivi specifichi di l'utilizatore. Per i travaglii chì necessitanu flessibilità, bassu costu è persunalizazione, DeepSeek pò esse superiore. Per a scrittura creativa, l'inchiesta generale è l'interfacce di cunversazione faciule d'utilizà, ChatGPT pò piglià a direzzione. Ogni strumentu serve scopi diversi, dunque a scelta dipenderà assai da u cuntestu in u quale sò aduprati.

Truvà una suluzione di cavi ELV

Cavi di cuntrollu

Per BMS, BUS, Industriale, Cavi di Strumentazione.

Sistema di cablaggio strutturatu

Rete è Dati, Cavu in Fibra Ottica, Cavu di Patch, Moduli, Piastra Frontale

Revista di Mostre è Eventi 2024

16-18 d'aprile 2024 Mediu Oriente-Energia in Dubai

16-18 d'aprile 2024 Securika à Mosca

9 di maghju 2024 EVENTU DI LANCIO DI NOVI PRODOTTI È TECNULUGIE in Shanghai

22-25 d'ottobre 2024 SECURITY CHINA in Pechino

19-20 di nuvembre di u 2024 MONDU CONNESSU KSA


Data di publicazione: 10 di ferraghju 2025