Per BMS, BUS, Industriale, Cavi di Strumentazione.

Mentre a Festa di Primavera ghjunghje à a fine, l'eccitazione intornu à DeepSeek ferma forte. E vacanze recenti anu messu in risaltu un sensu significativu di cumpetizione in l'industria tecnologica, cù parechji chì discutenu è analizanu stu "pesce gattu". Silicon Valley sta sperimentendu un sensu di crisa senza precedenti: i difensori di l'open-source stanu esprimendu di novu e so opinioni, è ancu OpenAI sta rivalutendu se a so strategia closed-source era a megliu scelta. U novu paradigma di costi di calculu più bassi hà scatenatu una reazione à catena trà i giganti di chip cum'è Nvidia, purtendu à perdite record di valore di mercatu in un ghjornu in a storia di u mercatu azionario americanu, mentre chì l'agenzie guvernamentali stanu investigendu a conformità di i chip utilizati da DeepSeek. In mezu à recensioni miste di DeepSeek à l'esteru, in u paese, sta sperimentendu una crescita straordinaria. Dopu u lanciu di u mudellu R1, l'app assuciata hà vistu un aumentu di u trafficu, chì indica chì a crescita in i settori applicativi farà avanzà l'ecosistema generale di l'IA. L'aspettu pusitivu hè chì DeepSeek allargherà e pussibilità di l'applicazione, suggerendu chì affidà si à ChatGPT ùn serà micca cusì caru in u futuru. Stu cambiamentu s'hè riflessu in l'attività recenti di OpenAI, cumprese a furnitura di un mudellu di ragiunamentu chjamatu o3-mini à l'utilizatori gratuiti in risposta à DeepSeek R1, è ancu l'aghjurnamenti successivi chì anu resu publica a catena di pensamentu di o3-mini. Parechji utilizatori stranieri anu espressu gratitudine à DeepSeek per questi sviluppi, ancu s'è sta catena di pensamentu serve da riassuntu.
Ottimisticamente, hè evidente chì DeepSeek unisce l'attori naziunali. Cù a so focalizazione nantu à a riduzione di i costi di furmazione, diversi pruduttori di chip upstream, fornitori di cloud intermedi è numerose startup si uniscenu attivamente à l'ecosistema, aumentendu l'efficienza di i costi per l'usu di u mudellu DeepSeek. Sicondu i documenti di DeepSeek, a furmazione cumpleta di u mudellu V3 richiede solu 2,788 milioni d'ore di GPU H800, è u prucessu di furmazione hè assai stabile. L'architettura MoE (Mixture of Experts) hè cruciale per riduce i costi di pre-furmazione di un fattore di dece paragunatu à Llama 3 cù 405 miliardi di parametri. Attualmente, V3 hè u primu mudellu publicamente ricunnisciutu chì dimostra una tale sparsità in MoE. Inoltre, MLA (Multi Layer Attention) funziona sinergicamente, in particulare in aspetti di ragiunamentu. "Più sparsu hè u MoE, più grande hè a dimensione di u batch necessaria durante u ragiunamentu per utilizà cumpletamente a putenza computazionale, cù a dimensione di u KVCache chì hè u fattore limitante chjave; MLA riduce significativamente a dimensione di KVCache", hà nutatu un ricercatore di Chuanjing Technology in un'analisi per AI Technology Review. In generale, u successu di DeepSeek stà in a cumbinazione di diverse tecnulugie, micca solu una sola. I prufessiunali di l'industria lodanu e capacità ingegneristiche di a squadra DeepSeek, nutendu a so eccellenza in a furmazione parallela è l'ottimisazione di l'operatori, ottenendu risultati rivoluzionarii raffinendu ogni dettagliu. L'approcciu open-source di DeepSeek alimenta ulteriormente u sviluppu generale di grandi mudelli, è si prevede chì se mudelli simili si espandenu in immagini, video è ancu di più, questu stimulerà significativamente a dumanda in tuttu u settore.
Opportunità per i servizii di ragiunamentu di terze parti
I dati indicanu chì dapoi a so liberazione, DeepSeek hà accumulatu 22,15 milioni d'utilizatori attivi ogni ghjornu (DAU) in solu 21 ghjorni, righjunghjendu u 41,6% di a basa d'utilizatori di ChatGPT è superendu i 16,95 milioni d'utilizatori attivi ogni ghjornu di Doubao, diventendu cusì l'applicazione chì cresce più rapidamente à u livellu mundiale, superendu l'Apple App Store in 157 paesi/regioni. Tuttavia, mentre l'utilizatori si sò riversati in massa, i pirati cibernetici anu attaccatu senza tregua l'app DeepSeek, causendu una tensione significativa nantu à i so servitori. L'analisti di l'industria credenu chì questu hè in parte duvutu à u fattu chì DeepSeek implementa carte per a furmazione mentre ùn hà micca una putenza di calculu sufficiente per u ragiunamentu. Un insider di l'industria hà infurmatu AI Technology Review: "I prublemi frequenti di i servitori ponu esse risolti facilmente addebitate tariffe o finanziamenti per cumprà più macchine; in definitiva, dipende da e decisioni di DeepSeek". Questu presenta un compromisu in u focus nantu à a tecnulugia versus a pruduzzione. DeepSeek s'hè largamente affidatu à a quantificazione quantica per l'autosufficiente sussistenza, avendu ricevutu pochi finanziamenti esterni, risultendu in una pressione di flussu di cassa relativamente bassa è un ambiente tecnologicu più puru. Attualmente, à a luce di i prublemi citati sopra, certi utilizatori incitanu DeepSeek nantu à i social media à elevà i limiti d'usu o à introduce funzioni pagate per migliurà u cunfortu di l'utilizatori. Inoltre, i sviluppatori anu cuminciatu à aduprà l'API ufficiale o API di terze parti per l'ottimisazione. Tuttavia, a piattaforma aperta di DeepSeek hà annunziatu pocu fà: "E risorse attuali di u servitore sò scarce, è e ricariche di u serviziu API sò state sospese".
Questu apre senza dubbitu più opportunità per i venditori di terze parti in u settore di l'infrastruttura IA. Recentemente, numerosi giganti di u cloud naziunali è internaziunali anu lanciatu l'API di mudellu di DeepSeek - i giganti stranieri Microsoft è Amazon sò stati trà i primi à unisce si à a fine di ghjennaghju. U capu naziunale, Huawei Cloud, hà fattu u primu passu, liberendu i servizii di ragiunamentu DeepSeek R1 è V3 in cullaburazione cù Silicon-based Flow u 1u di ferraghju. I rapporti di AI Technology Review indicanu chì i servizii di Silicon-based Flow anu vistu un afflussu d'utilizatori, "crashing" efficacemente a piattaforma. E trè grandi cumpagnie tecnologiche - BAT (Baidu, Alibaba, Tencent) è ByteDance - anu ancu emessu offerte à bassu costu è à tempu limitatu à partesi da u 3 di ferraghju, chì ricordanu e guerre di prezzi di i venditori di cloud di l'annu scorsu innescate da u lanciu di u mudellu V2 di DeepSeek, induve DeepSeek hà cuminciatu à esse soprannominatu u "macellaiu di prezzi". L'azzioni frenetiche di i venditori di nuvola riflettenu i forti ligami precedenti trà Microsoft Azure è OpenAI, induve in u 2019, Microsoft hà fattu un investimentu sustanziale di 1 miliardu di dollari in OpenAI è hà raccoltu benefici dopu u lanciu di ChatGPT in u 2023. Tuttavia, sta stretta relazione hà cuminciatu à sfilaccià dopu chì Meta hà messu Llama in open source, permettendu à altri venditori fora di l'ecosistema Microsoft Azure di cumpete cù i so grandi mudelli. In questu casu, DeepSeek ùn hà micca solu superatu ChatGPT in termini di calore di u produttu, ma hà ancu introduttu mudelli open source dopu a liberazione di o1, simile à l'eccitazione chì circonda u revival di GPT-3 da parte di Llama.
In realtà, i fornitori di cloud si stanu ancu pusiziunendu cum'è gateway di trafficu per l'applicazioni AI, ciò chì significa chì l'apprufundimentu di i ligami cù i sviluppatori si traduce in vantaghji preventivi. I rapporti indicanu chì Baidu Smart Cloud avia più di 15.000 clienti chì utilizavanu u mudellu DeepSeek via a piattaforma Qianfan u ghjornu di u lanciu di u mudellu. Inoltre, parechje imprese più chjuche offrenu suluzioni, cumprese Silicon-based Flow, Luchen Technology, Chuanjing Technology, è vari fornitori di AI Infra chì anu lanciatu u supportu per i mudelli DeepSeek. AI Technology Review hà amparatu chì l'opportunità attuali di ottimizazione per l'implementazioni lucalizate di DeepSeek esistenu principalmente in duie aree: una hè l'ottimizazione per e caratteristiche di sparsità di u mudellu MoE utilizendu un approcciu di ragiunamentu mistu per implementà u mudellu MoE di 671 miliardi di parametri lucalmente mentre si utilizza l'inferenza ibrida GPU/CPU. Inoltre, l'ottimizazione di MLA hè vitale. Tuttavia, i dui mudelli di DeepSeek affrontanu sempre alcune sfide in l'ottimizazione di l'implementazione. "A causa di a dimensione di u mudellu è di i numerosi parametri, l'ottimisazione hè veramente cumplessa, in particulare per l'implementazioni lucali induve ottene un equilibriu ottimale trà prestazioni è costu serà difficiule", hà dichjaratu un ricercatore di Chuanjing Technology. L'ostaculu u più significativu stà in u superamentu di i limiti di capacità di memoria. "Aduttemu un approcciu di cullaburazione eterogenea per utilizà cumpletamente e CPU è altre risorse di calculu, piazzendu solu e parti micca spartute di a matrice MoE sparsa nantu à CPU / DRAM per l'elaborazione utilizendu operatori di CPU ad alte prestazioni, mentre chì e porzioni dense stanu nantu à a GPU", hà spiegatu più in dettu. I rapporti indicanu chì u framework open-source di Chuanjing KTransformers inietta principalmente diverse strategie è operatori in l'implementazione originale di Transformers attraversu un mudellu, aumentendu significativamente a velocità di inferenza utilizendu metudi cum'è CUDAGraph. DeepSeek hà creatu opportunità per queste startup, postu chì i benefici di crescita stanu diventendu evidenti; parechje imprese anu signalatu una crescita notevule di i clienti dopu avè lanciatu l'API DeepSeek, ricevendu dumande da clienti precedenti chì cercanu ottimisazioni. I prufessiunali di l'industria anu nutatu: "In u passatu, i gruppi di clienti più o menu stabiliti eranu spessu bluccati in i servizii standardizati di e grande cumpagnie, strettamente ligati da i so vantaghji di costu per via di a scala. Tuttavia, dopu avè cumpletatu u spiegamentu di DeepSeek-R1/V3 prima di a Festa di Primavera, avemu ricevutu di colpu richieste di cuuperazione da parechji clienti cunnisciuti, è ancu i clienti prima inattivi anu iniziatu u cuntattu per presentà i nostri servizii DeepSeek". Attualmente, pare chì DeepSeek stia rendendu e prestazioni di l'inferenza di u mudellu sempre più critiche, è cù l'adozione più larga di grandi mudelli, questu continuerà à influenzà significativamente u sviluppu in l'industria di l'infrastrutture IA. Se un mudellu à livellu DeepSeek puderia esse implementatu lucalmente à un bassu costu, aiuterebbe assai i sforzi di trasfurmazione digitale di u guvernu è di l'imprese. Tuttavia, e sfide persistenu, postu chì alcuni clienti ponu avè alte aspettative in quantu à e capacità di i grandi mudelli, rendendu più evidente chì l'equilibriu trà e prestazioni è u costu diventa vitale in u spiegamentu praticu.
Per valutà se DeepSeek hè megliu cà ChatGPT, hè essenziale capisce e so differenze chjave, i punti di forza è i casi d'usu. Eccu un paragone cumpletu:
Caratteristica/Aspettu | DeepSeek | ChatGPT |
---|---|---|
Pruprietà | Sviluppatu da una sucietà cinese | Sviluppatu da OpenAI |
Modellu di fonte | Open-source | Pruprietariu |
Costu | Gratuitu da aduprà; opzioni d'accessu API più economiche | Tariffazione per abbonamentu o pagamentu per usu |
persunalizazione | Altamente persunalizabile, chì permette à l'utilizatori di mudificà è custruisce nantu à questu | Personalizazione limitata dispunibule |
Prestazione in Compiti Specifici | Eccelle in certi duminii cum'è l'analisi di dati è a recuperazione di informazioni | Versatile cù una forte prestazione in scrittura creativa è compiti di conversazione |
Supportu linguisticu | Forte attenzione à a lingua è a cultura cinese | Supportu linguisticu largu ma centratu nantu à i Stati Uniti |
Costu di furmazione | Costi di furmazione più bassi, ottimizzati per l'efficienza | Costi di furmazione più elevati, chì necessitanu risorse computazionali sustanziali |
Variazione di risposta | Pò offre risposte diverse, forse influenzate da u cuntestu geopuliticu | Risposte coerenti basate nantu à i dati di furmazione |
Publicu di destinazione | Destinatu à i sviluppatori è i circadori chì cercanu flessibilità | Destinatu à l'utilizatori generali chì cercanu capacità di cunversazione |
Casi d'usu | Più efficiente per a generazione di codice è i travaglii rapidi | Ideale per generà testu, risponde à dumande è impegnassi in dialoghi |
Una Prospettiva Critica nantu à "Disrupzione di Nvidia"
Attualmente, fora di Huawei, parechji pruduttori di chip naziunali cum'è Moore Threads, Muxi, Biran Technology, è Tianxu Zhixin si stanu ancu adattendu à i dui mudelli di DeepSeek. Un pruduttore di chip hà dettu à AI Technology Review: "A struttura di DeepSeek dimostra innovazione, eppuru ferma un LLM. A nostra adattazione à DeepSeek hè principalmente focalizzata nantu à l'applicazioni di ragiunamentu, rendendu l'implementazione tecnica abbastanza simplice è rapida". Tuttavia, l'approcciu MoE richiede esigenze più elevate in termini di almacenamentu è distribuzione, accumpagnate da a garanzia di compatibilità durante l'implementazione cù chip naziunali, presentendu numerose sfide ingegneristiche chì necessitanu una risoluzione durante l'adattazione. "Attualmente, a putenza computazionale domestica ùn currisponde micca à Nvidia in termini di usabilità è stabilità, richiedendu a participazione originale di a fabbrica per a cunfigurazione di l'ambiente software, a risoluzione di i prublemi è l'ottimisazione di e prestazioni fundamentali", hà dettu un praticante di l'industria basatu annantu à l'esperienza pratica. Simultaneamente, "A causa di a grande scala di parametri di DeepSeek R1, a putenza computazionale domestica richiede più nodi per a parallelizazione. Inoltre, e specifiche hardware naziunali sò sempre un pocu in ritardu; per esempiu, u Huawei 910B ùn pò attualmente supportà l'inferenza FP8 introdutta da DeepSeek". Unu di i punti culminanti di u mudellu DeepSeek V3 hè l'introduzione di un quadru di furmazione di precisione mista FP8, chì hè statu validatu efficacemente nantu à un mudellu estremamente grande, chì marca un successu significativu. Prima, i principali attori cum'è Microsoft è Nvidia anu suggeritu travaglii simili, ma i dubbi persistenu in l'industria in quantu à fattibilità. Hè capitu chì, paragunatu à INT8, u vantaghju principale di FP8 hè chì a quantizazione post-furmazione pò ottene una precisione quasi senza perdita mentre migliora significativamente a velocità di inferenza. Quandu si paraguna à FP16, FP8 pò ottene finu à duie volte l'accelerazione nantu à l'H20 di Nvidia è più di 1,5 volte l'accelerazione nantu à l'H100. In particulare, mentre e discussioni intornu à a tendenza di a putenza computazionale domestica più i mudelli domestichi guadagnanu slanciu, a speculazione nantu à se Nvidia puderia esse interrotta, è se u fossatu CUDA puderia esse aggiratu, diventa sempre più prevalente. Un fattu innegabile hè chì DeepSeek hà in effetti causatu una calata sustanziale di u valore di mercatu di Nvidia, ma questu cambiamentu suscita dumande riguardu à l'integrità di a putenza computazionale di fascia alta di Nvidia. E narrazioni accettate prima riguardu à l'accumulazione computazionale guidata da u capitale sò state messe in discussione, eppuru ferma difficiule per Nvidia d'esse cumpletamente rimpiazzata in scenarii di furmazione. L'analisi di l'usu prufondu di CUDA da DeepSeek mostra chì a flessibilità - cum'è l'usu di SM per a cumunicazione o a manipulazione diretta di e carte di rete - ùn hè micca fattibile per e GPU regulare. I punti di vista di l'industria sottolineanu chì u fossu di Nvidia abbraccia tuttu l'ecosistema CUDA piuttostu chè solu CUDA stessu, è l'istruzzioni PTX (Parallel Thread Execution) chì DeepSeek impiega sò sempre parte di l'ecosistema CUDA. "À cortu termine, a putenza computazionale di Nvidia ùn pò esse aggirata - questu hè particularmente chjaru in a furmazione; tuttavia, l'implementazione di carte domestiche per u ragiunamentu serà relativamente più faciule, dunque u prugressu serà probabilmente più veloce. L'adattazione di e carte domestiche si concentra principalmente nantu à l'inferenza; nimu hè ancu riesciutu à furmà un mudellu di e prestazioni di DeepSeek nantu à e carte domestiche à scala ", hà rimarcatu un analista di l'industria à AI Technology Review. In generale, da un puntu di vista di l'inferenza, e circustanze sò incoraggianti per i chip di grande mudellu domestichi. L'opportunità per i pruduttori di chip naziunali in u duminiu di l'inferenza sò più evidenti per via di i requisiti eccessivamente alti di a furmazione, chì impediscenu l'entrata. L'analisti sustenenu chì basta à sfruttà e carte d'inferenza naziunali; se necessariu, l'acquistu di una macchina supplementaria hè fattibile, mentre chì i mudelli di furmazione ponenu sfide uniche: a gestione di un numeru aumentatu di macchine pò diventà fastidiosa, è tassi d'errore più alti ponu influenzà negativamente i risultati di a furmazione. A furmazione hà ancu requisiti specifici di scala di cluster, mentre chì e richieste di i cluster per l'inferenza ùn sò micca cusì stringenti, facilitendu cusì i requisiti GPU. Attualmente, e prestazioni di a carta H20 unica di Nvidia ùn superanu micca quelle di Huawei o Cambrian; a so forza stà in u clustering. Basatu annantu à l'impattu generale annantu à u mercatu di a putenza computazionale, u fundatore di Luchen Technology, You Yang, hà nutatu in una entrevista cù AI Technology Review, "DeepSeek pò minà temporaneamente a creazione è l'affittu di cluster computazionali di furmazione ultra-grandi. À longu andà, riducendu significativamente i costi assuciati à a furmazione, u ragiunamentu è l'applicazioni di grandi mudelli, hè prubabile chì a dumanda di u mercatu aumenti. L'iterazioni successive di l'IA basate annantu à questu cunduceranu dunque continuamente una dumanda sustinuta in u mercatu di a putenza computazionale". Inoltre, "L'aumentu di a dumanda di DeepSeek per i servizii di ragiunamentu è di messa à puntu hè più cumpatibile cù u paisaghju computazionale domesticu, induve e capacità lucali sò relativamente debuli, aiutendu à mitigà u sprecu di risorse inattive dopu a creazione di cluster; questu crea opportunità fattibili per i pruduttori in diversi livelli di l'ecosistema computazionale domesticu". Luchen Technology hà collaboratu cù Huawei Cloud per lancià l'API di ragiunamentu di a serie DeepSeek R1 è i servizii di imaging in nuvola basati nantu à a putenza computazionale domestica. You Yang hà espressu ottimisimu per u futuru: "DeepSeek infonde fiducia in e soluzioni prodotte domesticamente, incuragendu un maggiore entusiasmu è investimenti in capacità computazionali domestiche in u futuru".

Cunclusione
S'ellu DeepSeek hè "megliu" chè ChatGPT dipende da i bisogni è l'ubbiettivi specifichi di l'utilizatore. Per i travaglii chì necessitanu flessibilità, bassu costu è persunalizazione, DeepSeek pò esse superiore. Per a scrittura creativa, l'inchiesta generale è l'interfacce di cunversazione faciule d'utilizà, ChatGPT pò piglià a direzzione. Ogni strumentu serve scopi diversi, dunque a scelta dipenderà assai da u cuntestu in u quale sò aduprati.
Cavi di cuntrollu
Sistema di cablaggio strutturatu
Rete è Dati, Cavu in Fibra Ottica, Cavu di Patch, Moduli, Piastra Frontale
16-18 d'aprile 2024 Mediu Oriente-Energia in Dubai
16-18 d'aprile 2024 Securika à Mosca
9 di maghju 2024 EVENTU DI LANCIO DI NOVI PRODOTTI È TECNULUGIE in Shanghai
22-25 d'ottobre 2024 SECURITY CHINA in Pechino
19-20 di nuvembre di u 2024 MONDU CONNESSU KSA
Data di publicazione: 10 di ferraghju 2025