Za BMS, BUS, industrijski, instrumentalni kabel.

Kako se Proljetni festival bliži kraju, uzbuđenje oko DeepSeeka ostaje snažno. Nedavni praznik istakao je značajan osjećaj konkurencije unutar tehnološke industrije, a mnogi su raspravljali i analizirali ovog "soma". Silicijska dolina doživljava neviđeni osjećaj krize: zagovornici otvorenog koda ponovo iznose svoja mišljenja, pa čak i OpenAI preispituje da li je njegova strategija zatvorenog koda bila najbolji izbor. Nova paradigma nižih računarskih troškova izazvala je lančanu reakciju među gigantima čipova poput Nvidije, što je dovelo do rekordnih gubitaka tržišne vrijednosti u jednom danu u historiji američke berze, dok vladine agencije istražuju usklađenost čipova koje koristi DeepSeek. Usred pomiješanih recenzija DeepSeeka u inostranstvu, na domaćem tržištu doživljava izvanredan rast. Nakon lansiranja modela R1, povezana aplikacija je zabilježila porast prometa, što ukazuje na to da će rast u sektorima aplikacija pokrenuti cjelokupni ekosistem umjetne inteligencije naprijed. Pozitivan aspekt je što će DeepSeek proširiti mogućnosti aplikacija, što sugerira da oslanjanje na ChatGPT neće biti toliko skupo u budućnosti. Ova promjena se odrazila u nedavnim aktivnostima OpenAI-a, uključujući pružanje modela zaključivanja pod nazivom o3-mini besplatnim korisnicima kao odgovor na DeepSeek R1, kao i naknadna ažuriranja koja su lanac misli o3-mini učinila javnim. Mnogi strani korisnici izrazili su zahvalnost DeepSeeku na ovim dostignućima, iako ovaj lanac misli služi kao sažetak.
Optimistično je da DeepSeek ujedinjuje domaće igrače. Sa svojim fokusom na smanjenje troškova obuke, razni proizvođači čipova uzvodno, posrednički cloud provajderi i brojni startupi aktivno se pridružuju ekosistemu, povećavajući isplativost korištenja DeepSeek modela. Prema DeepSeek-ovim radovima, potpuna obuka V3 modela zahtijeva samo 2,788 miliona H800 GPU sati, a proces obuke je vrlo stabilan. Arhitektura MoE (Mixture of Experts) je ključna za smanjenje troškova prethodne obuke za faktor deset u poređenju sa Llama 3 sa 405 milijardi parametara. Trenutno je V3 prvi javno priznati model koji pokazuje tako visoku rijetkost u MoE. Pored toga, MLA (Multi Layer Attention) djeluje sinergijski, posebno u aspektima zaključivanja. "Što je MoE rjeđi, veća je veličina serije potrebna tokom zaključivanja da bi se u potpunosti iskoristila računarska snaga, pri čemu je veličina KVCache-a ključni ograničavajući faktor; MLA značajno smanjuje veličinu KVCache-a", primijetio je istraživač iz Chuanjing Technology u analizi za AI Technology Review. Sveukupno, DeepSeekov uspjeh leži u kombinaciji različitih tehnologija, a ne samo jedne. Stručnjaci iz industrije hvale inženjerske sposobnosti DeepSeek tima, ističući njihovu izvrsnost u paralelnoj obuci i optimizaciji operatera, postižući revolucionarne rezultate usavršavanjem svakog detalja. DeepSeekov pristup otvorenog koda dodatno potiče cjelokupni razvoj velikih modela, a očekuje se da će, ako se slični modeli prošire na slike, videozapise i još mnogo toga, to značajno stimulirati potražnju u cijeloj industriji.
Mogućnosti za usluge zaključivanja trećih strana
Podaci pokazuju da je od svog objavljivanja, DeepSeek prikupio 22,15 miliona dnevno aktivnih korisnika (DAU) u roku od samo 21 dan, dostigavši 41,6% korisničke baze ChatGPT-a i premašivši 16,95 miliona dnevno aktivnih korisnika Doubao-a, čime je postao najbrže rastuća aplikacija na globalnom nivou, predvodeći Apple App Store u 157 zemalja/regija. Međutim, dok su korisnici hrlili u masovnom broju, cyber hakeri neumoljivo napadaju DeepSeek aplikaciju, uzrokujući značajno opterećenje njenih servera. Analitičari industrije vjeruju da je to dijelom zbog toga što DeepSeek koristi kartice za obuku, a nema dovoljno računarske snage za logičko zaključivanje. Izvor iz industrije rekao je za AI Technology Review: "Česti problemi sa serverima mogu se lako riješiti naplatom naknada ili finansiranjem za kupovinu više mašina; u konačnici, to zavisi od DeepSeek-ovih odluka." Ovo predstavlja kompromis u fokusiranju na tehnologiju naspram produktizacije. DeepSeek se uveliko oslanjao na kvantnu kvantizaciju za samoodrživost, primajući malo vanjskog finansiranja, što je rezultiralo relativno niskim pritiskom novčanog toka i čistijim tehnološkim okruženjem. Trenutno, s obzirom na prethodno spomenute probleme, neki korisnici na društvenim mrežama pozivaju DeepSeek da podigne pragove korištenja ili uvede plaćene funkcije kako bi poboljšao udobnost korisnika. Osim toga, programeri su počeli koristiti službeni API ili API-je trećih strana za optimizaciju. Međutim, DeepSeek-ova otvorena platforma je nedavno objavila: "Trenutni resursi servera su oskudni, a dopune API usluga su obustavljene."
Ovo nesumnjivo otvara više mogućnosti za treće strane u sektoru AI infrastrukture. Nedavno su brojni domaći i međunarodni giganti u oblaku pokrenuli DeepSeek-ove API-je za modele - prekomorski giganti Microsoft i Amazon bili su među prvima koji su se pridružili krajem januara. Domaći lider, Huawei Cloud, napravio je prvi korak, objavivši DeepSeek R1 i V3 usluge zaključivanja u saradnji sa Flow-om, kompanijom baziranom na Silicionu, 1. februara. Izvještaji AI Technology Review-a ukazuju na to da su usluge Flow-a, kompanije bazirane na Silicionu, doživjele priliv korisnika, što je efektivno "srušilo" platformu. Tri velike tehnološke kompanije - BAT (Baidu, Alibaba, Tencent) i ByteDance - također su izdale jeftine, vremenski ograničene ponude počevši od 3. februara, podsjećajući na prošlogodišnje ratove cijena dobavljača u oblaku koje je pokrenulo lansiranje DeepSeek-ovog V2 modela, gdje je DeepSeek počeo biti nazivan "kasapinom cijena". Frenetične akcije dobavljača cloud usluga odražavaju ranije snažne veze između Microsoft Azurea i OpenAI-a, gdje je Microsoft 2019. godine uložio značajnu milijardu dolara u OpenAI i ostvario korist nakon lansiranja ChatGPT-a 2023. godine. Međutim, ovaj bliski odnos počeo se narušavati nakon što je Meta dao otvoreni kod za Llamu, omogućavajući drugim dobavljačima izvan Microsoft Azure ekosistema da se takmiče sa njihovim velikim modelima. U ovom slučaju, DeepSeek je ne samo nadmašio ChatGPT u smislu popularnosti proizvoda, već je i predstavio modele otvorenog koda nakon izlaska o1, slično uzbuđenju koje je pratilo Llamino oživljavanje GPT-3.
U stvarnosti, provajderi cloud usluga se također pozicioniraju kao prometni prolazi za AI aplikacije, što znači da produbljivanje veza s programerima dovodi do preventivnih prednosti. Izvještaji pokazuju da je Baidu Smart Cloud imao preko 15.000 kupaca koji su koristili DeepSeek model putem Qianfan platforme na dan lansiranja modela. Osim toga, nekoliko manjih firmi nudi rješenja, uključujući Flow baziran na silikonu, Luchen Technology, Chuanjing Technology i razne provajdere AI infrastrukture koji su pokrenuli podršku za DeepSeek modele. AI Technology Review je saznao da trenutne mogućnosti optimizacije za lokalizirane implementacije DeepSeek-a prvenstveno postoje u dva područja: jedno je optimizacija karakteristika rijetkosti MoE modela korištenjem pristupa mješovitog zaključivanja za lokalnu implementaciju MoE modela sa 671 milijardom parametara, uz korištenje hibridne GPU/CPU inferencije. Osim toga, optimizacija MLA je ključna. Međutim, dva DeepSeek-ova modela se i dalje suočavaju s nekim izazovima u optimizaciji implementacije. "Zbog veličine modela i brojnih parametara, optimizacija je zaista složena, posebno za lokalne implementacije gdje će postizanje optimalne ravnoteže između performansi i troškova biti izazovno", izjavio je istraživač iz Chuanjing Technology. Najznačajnija prepreka leži u prevazilaženju ograničenja kapaciteta memorije. "Usvajamo heterogeni pristup saradnje kako bismo u potpunosti iskoristili CPU-ove i druge računarske resurse, smještajući samo nedijeljene dijelove rijetke MoE matrice na CPU/DRAM za obradu korištenjem visokoperformansnih CPU operatora, dok gusti dijelovi ostaju na GPU-u", dalje je objasnio. Izvještaji pokazuju da Chuanjingov open-source framework KTransformers prvenstveno ubrizgava različite strategije i operatore u originalnu implementaciju Transformersa putem predloška, značajno poboljšavajući brzinu zaključivanja korištenjem metoda poput CUDAGraph-a. DeepSeek je stvorio prilike za ove startupove, jer koristi od rasta postaju očigledne; mnoge firme su prijavile primjetan rast broja kupaca nakon pokretanja DeepSeek API-ja, primajući upite od prethodnih klijenata koji su tražili optimizacije. Insajderi iz industrije su primijetili: "U prošlosti, donekle etablirane grupe klijenata često su bile vezane za standardizirane usluge većih kompanija, čvrsto vezane svojim cjenovnim prednostima zbog obima. Međutim, nakon završetka implementacije DeepSeek-R1/V3 prije Proljetnog festivala, iznenada smo dobili zahtjeve za saradnju od nekoliko poznatih klijenata, pa čak su i prethodno neaktivni klijenti inicirali kontakt kako bismo predstavili naše DeepSeek usluge." Trenutno se čini da DeepSeek sve više pridaje važnost performansama zaključivanja modela, a sa širom primjenom velikih modela, ovo će nastaviti značajno uticati na razvoj industrije AI infrastrukture. Ako bi se model na nivou DeepSeeka mogao lokalno implementirati po niskoj cijeni, to bi uveliko pomoglo naporima vlade i preduzeća u digitalnoj transformaciji. Međutim, izazovi i dalje postoje, jer neki klijenti mogu imati visoka očekivanja u pogledu mogućnosti velikih modela, što čini očiglednijim da balansiranje performansi i troškova postaje ključno u praktičnoj implementaciji.
Da biste procijenili da li je DeepSeek bolji od ChatGPT-a, bitno je razumjeti njihove ključne razlike, prednosti i slučajeve upotrebe. Evo sveobuhvatne usporedbe:
Karakteristika/Aspekt | Duboko pretraživanje | ChatGPT |
---|---|---|
Vlasništvo | Razvijeno od strane kineske kompanije | Razvijeno od strane OpenAI-a |
Izvorni model | Otvorenog koda | Vlasnički |
Cijena | Besplatno za korištenje; jeftinije opcije API pristupa | Cijena pretplate ili plaćanja po korištenju |
Prilagođavanje | Visoko prilagodljiv, što korisnicima omogućava podešavanje i nadogradnju | Ograničeno prilagođavanje dostupno |
Performanse u određenim zadacima | Odlikuje se određenim oblastima kao što su analiza podataka i pronalaženje informacija | Svestran sa jakim performansama u kreativnom pisanju i konverzacijskim zadacima |
Jezična podrška | Snažan fokus na kineski jezik i kulturu | Široka jezička podrška, ali usmjerena na SAD |
Troškovi obuke | Niži troškovi obuke, optimizovano za efikasnost | Veći troškovi obuke, koji zahtijevaju značajne računarske resurse |
Varijacija odgovora | Može ponuditi različite odgovore, moguće pod utjecajem geopolitičkog konteksta | Konzistentni odgovori zasnovani na podacima obuke |
Ciljna publika | Namijenjeno programerima i istraživačima koji žele fleksibilnost | Namijenjeno općim korisnicima koji traže mogućnosti razgovora |
Primjeri upotrebe | Efikasniji za generiranje koda i brze zadatke | Idealno za generiranje teksta, odgovaranje na upite i vođenje dijaloga |
Kritička perspektiva o "poremećaju Nvidije"
Trenutno, pored Huaweija, nekoliko domaćih proizvođača čipova poput Moore Threadsa, Muxija, Biran Technologyja i Tianxu Zhixina također se prilagođavaju dvama DeepSeek modelima. Jedan proizvođač čipova je za AI Technology Review rekao: "DeepSeek-ova struktura pokazuje inovaciju, ali ostaje LLM. Naša adaptacija DeepSeeku je prvenstveno usmjerena na aplikacije zaključivanja, što tehničku implementaciju čini prilično jednostavnom i brzom." Međutim, MoE pristup zahtijeva veće zahtjeve u pogledu pohrane i distribucije, uz osiguranje kompatibilnosti prilikom implementacije s domaćim čipovima, što predstavlja brojne inženjerske izazove koji zahtijevaju rješavanje tokom adaptacije. "Trenutno, domaća računarska snaga ne odgovara Nvidiji u upotrebljivosti i stabilnosti, zahtijevajući originalno učešće fabrike za postavljanje softverskog okruženja, rješavanje problema i optimizaciju osnovnih performansi", rekao je jedan stručnjak iz industrije na osnovu praktičnog iskustva. Istovremeno, "Zbog velike skale parametara DeepSeek R1, domaća računarska snaga zahtijeva više čvorova za paralelizaciju. Osim toga, domaće hardverske specifikacije su još uvijek donekle iza; na primjer, Huawei 910B trenutno ne može podržati FP8 inferenciju koju je uveo DeepSeek." Jedan od vrhunaca DeepSeek V3 modela je uvođenje FP8 okvira za miješano precizno treniranje, koji je efikasno validiran na izuzetno velikom modelu, što predstavlja značajno dostignuće. Ranije su veliki igrači poput Microsofta i Nvidije predlagali srodne radove, ali u industriji i dalje postoje sumnje u vezi s izvodljivošću. Razumije se da je, u poređenju s INT8, primarna prednost FP8 ta što kvantizacija nakon treniranja može postići gotovo bez gubitaka preciznosti, uz značajno poboljšanje brzine zaključivanja. U poređenju s FP16, FP8 može ostvariti do dvostruko ubrzanje na Nvidijinom H20 i preko 1,5 puta ubrzanje na H100. Važno je napomenuti da, kako diskusije o trendu domaće računarske snage plus domaćih modela dobijaju na zamahu, sve su rasprostranjenije spekulacije o tome da li bi Nvidia mogla biti poremećena i da li bi se CUDA jarak mogao zaobići. Jedna neosporna činjenica je da je DeepSeek zaista uzrokovao značajan pad tržišne vrijednosti Nvidije, ali ova promjena postavlja pitanja u vezi s integritetom Nvidijine vrhunske računarske snage. Ranije prihvaćeni narativi o akumulaciji računarskih resursa vođenih kapitalom se osporavaju, ali i dalje je teško da Nvidia bude u potpunosti zamijenjena u scenarijima obuke. Analiza DeepSeek-ove duboke upotrebe CUDA-e pokazuje da fleksibilnost - poput korištenja SM-a za komunikaciju ili direktnog manipulisanja mrežnim karticama - nije izvodljiva za obične GPU-ove. Stavovi industrije naglašavaju da Nvidijin rov obuhvata cijeli CUDA ekosistem, a ne samo sam CUDA, a PTX (Parallel Thread Execution) instrukcije koje DeepSeek koristi su i dalje dio CUDA ekosistema. "Kratkoročno gledano, Nvidijina računarska snaga se ne može zaobići - to je posebno jasno u obuci; međutim, implementacija domaćih kartica za zaključivanje bit će relativno lakša, tako da će napredak vjerovatno biti brži. Prilagođavanje domaćih kartica prvenstveno se fokusira na zaključivanje; niko još nije uspio obučiti model DeepSeek-ovih performansi na domaćim karticama u velikom obimu", primijetio je industrijski analitičar za AI Technology Review. Sveukupno, sa stanovišta zaključivanja, okolnosti su ohrabrujuće za domaće čipove velikih modela. Mogućnosti za domaće proizvođače čipova u području inferencije su očiglednije zbog pretjerano visokih zahtjeva za obuku, što ometa ulazak na tržište. Analitičari tvrde da je dovoljno jednostavno korištenje domaćih kartica za inferenciju; ako je potrebno, nabavka dodatne mašine je izvodljiva, dok modeli obuke predstavljaju jedinstvene izazove - upravljanje povećanim brojem mašina može postati opterećujuće, a veće stope grešaka mogu negativno utjecati na ishode obuke. Obuka također ima specifične zahtjeve za veličinu klastera, dok zahtjevi za klastere za inferenciju nisu toliko strogi, što olakšava zahtjeve za GPU. Trenutno, performanse jedne Nvidia H20 kartice ne nadmašuju one Huawei ili Cambrian; njena snaga leži u klasteriranju. Na osnovu ukupnog utjecaja na tržište računarske snage, osnivač Luchen Technology, You Yang, primijetio je u intervjuu za AI Technology Review: "DeepSeek može privremeno potkopati uspostavljanje i iznajmljivanje ultra velikih računarskih klastera za obuku. Dugoročno gledano, značajnim smanjenjem troškova povezanih s obukom velikih modela, zaključivanjem i primjenama, potražnja na tržištu vjerovatno će porasti. Naknadne iteracije umjetne inteligencije zasnovane na ovome će stoga kontinuirano pokretati održivu potražnju na tržištu računarske snage." Osim toga, „DeepSeek-ova povećana potražnja za uslugama zaključivanja i finog podešavanja kompatibilnija je s domaćim računarskim okruženjem, gdje su lokalni kapaciteti relativno slabi, što pomaže u smanjenju rasipanja zbog nekorištenih resursa nakon uspostavljanja klastera; ovo stvara održive prilike za proizvođače na različitim nivoima domaćeg računarskog ekosistema.“ Luchen Technology je sarađivao s Huawei Cloudom kako bi pokrenuo DeepSeek R1 seriju API-ja za zaključivanje i usluge snimanja u oblaku zasnovane na domaćoj računarskoj snazi. You Yang je izrazio optimizam u pogledu budućnosti: „DeepSeek ulijeva povjerenje u domaća rješenja, potičući veći entuzijazam i ulaganja u domaće računarske kapacitete u budućnosti.“

Zaključak
Da li je DeepSeek "bolji" od ChatGPT-a zavisi od specifičnih potreba i ciljeva korisnika. Za zadatke koji zahtijevaju fleksibilnost, nisku cijenu i prilagođavanje, DeepSeek može biti superiorniji. Za kreativno pisanje, opšta istraživanja i korisnički prilagođene konverzacijske interfejse, ChatGPT može preuzeti vodeću ulogu. Svaki alat služi različitim svrhama, tako da će izbor uveliko zavisiti od konteksta u kojem se koriste.
Kontrolni kablovi
Strukturirani kablovski sistem
Mreža i podaci, optički kabel, patch kabel, moduli, prednja ploča
16.-18. april 2024. Sajam energetike Bliskog istoka u Dubaiju
16.-18. april 2024. Securika u Moskvi
9. maj 2024. DOGAĐAJ POVODOM PREDSTAVLJANJA NOVIH PROIZVODA I TEHNOLOGIJA u Šangaju
22.-25. oktobar 2024. SIGURNOST KINE u Pekingu
19.-20. novembar 2024. CONNECTED WORLD KSA
Vrijeme objave: 10. februar 2025.