DeepSeek er en kinesisk AI-virksomhed, der skaber avancerede sprogmodeller – en slags digitale hjerner, der kan forstå og generere tekst, ligesom ChatGPT. Siden virksomheden blev grundlagt i maj 2023 af hedgefondmanager Liang Wenfeng, har den skabt massiv opmærksomhed ved at levere AI-teknologi, der er både kraftigere og billigere end konkurrenterne.
Men hvordan klarer DeepSeek sig i forhold til ChatGPT? Lad os tage et kig.
Dette overblik giver en hurtig sammenligning af DeepSeek og ChatGPT, så du nemt kan se de vigtigste forskelle.
Faktor | DeepSeek-V3 | ChatGPT-4 |
---|---|---|
Træningsomkostninger | 5,58 mio. USD | 100+ mio. USD (estimeret) |
Antal GPU’er brugt | 2.000 Nvidia H800 | 16.000+ Nvidia GPU’er |
Træningstid | 55 dage | Flere måneder (anslået) |
Modelstørrelse | 671 mia. parametre | 1,76 billioner parametre (estimeret) |
Parametre brugt ad gangen | 37 mia. | Hele modellen aktiveres |
Arkitektur | Mixture-of-Experts (MoE) | Standard transformer-model |
Tilgængelighed | Open Source | Lukket system |
App-rangering i USA | #1 i App Store (jan. 2025) | #2 i App Store (jan. 2025) |
Indflydelse på markedet | Nvidia-aktien faldt 17% | Ingen direkte effekt |
Datasikkerhed | Underlagt kinesisk lovgivning | Følger vestlige standarder |
For at træne en AI-model som ChatGPT eller DeepSeek-V3 kræver det enorme mængder computerkraft. OpenAI’s nyeste version af ChatGPT blev sandsynligvis trænet på 16.000+ GPU’er, mens DeepSeek gjorde det samme med kun 2.000.
Træningsdata
Træningsomkostninger
Hvad betyder det?
DeepSeek har fundet en smartere og billigere måde at træne sin AI på. Det kan betyde, at de kan tilbyde billigere AI-tjenester i fremtiden.
AI-modeller fungerer lidt som menneskelige hjerner – jo flere “neuroner” (parametre), jo mere kompleks og intelligent kan modellen være.
Antal parametre
Men her er det smarte ved DeepSeek: De har fundet en måde, hvor kun 37 mia. parametre er aktive ad gangen. Det betyder, at modellen kører mere effektivt og hurtigere, mens den stadig er ekstremt avanceret.
Hvad betyder det?
DeepSeek’s AI er designet til at bruge mindre computerkraft, hvilket gør den hurtigere og billigere at køre – uden at gå på kompromis med kvaliteten.
Anmod om en gratis SEO analyse og se dine muligheder for at blive fundet på DeepSeek og ChatGPT
En stor forskel mellem DeepSeek og ChatGPT er, hvordan deres teknologi deles.
Open Source vs. Lukket system
Hvad betyder det?
Fordi DeepSeek er open source, kan forskere og udviklere bruge og tilpasse teknologien frit. ChatGPT derimod er en “lukket bog,” hvor kun OpenAI har fuld kontrol.
I januar 2025 skete noget overraskende: DeepSeek’s AI-assistent blev den mest downloadede gratis app i USA’s App Store, og overhalede ChatGPT.
App-rangeringer i USA
Hvad betyder det?
Flere brugere begynder at vælge DeepSeek frem for ChatGPT – måske fordi den er billigere eller hurtigere.
Da DeepSeek lancerede sin nyeste AI-model i januar 2025, skabte det panik på aktiemarkedet.
Finansiel effekt
Hvad betyder det?
Nvidia producerer de GPU’er, som både ChatGPT og DeepSeek bruger. Hvis DeepSeek kan lave AI billigere og mere effektivt, kan det mindske behovet for dyre Nvidia-chips.
DeepSeek’s servere er placeret i Kina, hvilket betyder, at data er underlagt kinesiske love – og det bekymrer mange eksperter.
Datasikkerhedsproblemer
Hvad betyder det?
Virksomheder og regeringer i USA og Europa er skeptiske over for at bruge en AI, hvor data muligvis kan overvåges eller tilgås af kinesiske myndigheder.
DeepSeek har formået at skabe en stærkere, billigere og mere tilgængelig AI end ChatGPT. Men datasikkerhed og kinesisk lovgivning gør, at nogle virksomheder og regeringer tøver med at tage den i brug.
Mens ChatGPT stadig er den mest kendte AI i Vesten, kan DeepSeek blive en global udfordrer – især hvis de kan holde deres teknologi billig og åben for alle.
DeepSeek blev grundlagt i maj 2023 af hedgefondmanager Liang Wenfeng i Hangzhou, Kina.
ChatGPT-4 har 1,76 billioner parametre, mens DeepSeek-V3 har 671 milliarder, men bruger kun 37 milliarder ad gangen. DeepSeek gør dette via en Mixture-of-Experts (MoE)-arkitektur, der aktiverer kun de nødvendige dele af modellen, hvilket gør den hurtigere og billigere at køre. ChatGPT bruger derimod hele sin model, hvilket giver en bredere forståelse, men kræver mere beregningskraft. DeepSeek er derfor mere effektiv og skalerbar, mens ChatGPT har en større og dybere kontekstforståelse.
DeepSeek brugte kun 2.000 GPU’er og 5,58 mio. USD til at træne sin model, mens ChatGPT krævede 16.000+ GPU’er og sandsynligvis over 100 mio. USD.
Om DeepSeek eller ChatGPT er bedst afhænger af, hvad du har brug for. DeepSeek er billigere, hurtigere og open source, hvilket gør den mere tilgængelig og fleksibel for udviklere. ChatGPT er derimod mere trænet og udbredt i Vesten, hvilket betyder, at den har en bredere viden og stærkere sprogforståelse. Hvis du ønsker en omkostningseffektiv og tilpasningsdygtig AI, er DeepSeek et godt valg, mens ChatGPT er bedre, hvis du har brug for en mere avanceret og veltrænet model med større markedstilstedeværelse.
Der er bekymringer om datasikkerhed, fordi DeepSeek’s servere er i Kina, hvor datalovgivningen er anderledes end i USA og EU.
DeepSeek’s AI viste, at avanceret AI kan bygges uden at bruge så mange Nvidia GPU’er, hvilket bekymrede investorer og fik Nvidia-aktien til at falde 17%.
Vi bruger teknologier som cookies til at gemme og/eller få adgang til enhedsoplysninger. Det gør vi for at forbedre browseroplevelsen og for at vise (ikke) personaliserede annoncer. Hvis du giver dit samtykke til disse teknologier, kan vi behandle data som f.eks. browsingadfærd eller unikke ID'er på dette websted. Hvis du ikke giver samtykke eller trækker dit samtykke tilbage, kan det påvirke visse funktioner negativt.