DeepSeek, den kinesiske startup, som var relativt ukendt indtil for nylig, har rystet AI-branchen. I denne artikel får du en beskrivelse af, hvad der er op og ned på alt støjen med relevante kildehenvisninger samt Innovation Labs/mine refleksioner.
DeepSeek-V3: En julegave fra østens vise mænd
Strategisk velvalgt offentliggjorde DeepSeek deres nyeste model, DeepSeek-V3, den 26. december 2024, anden juledag, hvor det meste af den vestlige verden var begravet i gavepapir og for meget god mad. Det var i sig selv ikke bemærkelsesværdigt, DeepSeek har også tidligere offentliggjort modeller, som alle har kunnet bruge, men de har langt fra været så gode, og er hoppet lykkeligt under radaren -De vidste godt, at de havde skabt noget særligt.
DeepSeek-V3 repræsenterer et paradigmeskift inden for effektivitet i træning. Modellen opnår en præcision, der er sammenlignelig med – og i nogle tilfælde overgår – de førende modeller, samtidig med at den bruger betydeligt mindre computerkraft.
Forestil dig et team af specialister, der arbejder sammen, hvor hver enkelt bidrager med sin ekspertise til løsning af den fælles opgave. Det er essensen af DeepSeek V3’s effektivitet. En opdeling af kompetencer inde i modellen, som reducerer den processorkraft som kræves, både til træning og afbenyttelse.
Modellen anvender også et princip som hedder “quantization”, der komprimerer data og kan håndtere større datamængder uden at kræve mere hukommelse. DeepSeek har også optimeret kommunikationen mellem de computere som bruges til træning af modellen og den samlede effekt er en dramatisk reduktion i omkostninger og energiforbrug.
DeepSeek-R1: En skygge og et lys til verden
Den 20. januar offentliggjorde DeepSeek så modellen “R1”. Det er i princippet “bare” en version af V3, som er blevet trænet til at kunne tænke over sit svar inden den svarer. Der er for os, hvis arbejde det er at følge med i udviklingen inden for AI, som sådan ikke noget odiøst i det.
Siden september 2024 har tendensen været, at man har kigget på, om man kunne lave AI-modeller som var mindre (og hurtigere), men hvor man så til gengæld gav man dem længere tid til at tænke over tingene inden de svarede -Noget som let kan klares med prompt-engineering, som Innovation Lab har specialiseret sig i. Resultaterne taler for sig selv. Det kan man. Hvis du er hyppig bruger af ChatGPT vil du måske have set, at den tilsyneladende “mumler” for sig selv, hvad den har tænkt sig at gøre, inden den gør det. Det er det samme R1 gør. Den lægger en plan, men for at kunne det, må den artikulere det for sig selv, først. Den er bare blevet specialiseret til planlægning af problemstillinger.

Digitale trænere på hårdt arbejde
Træning af AI-modeller er opdelt i mange skridt, men overordnet er det første skridt, at man fodrer modellen med en masse tekst. Dette foregår automatisk. Derefter begynder man at give den “spørgsmål og svar”, som er forberedt på forhånd. Hvis den svarer forkert bliver den “straffet”, rigtigt, “belønnet”. Men det har krævet hundredtusindvis af timer, mennesketimer, at finde på disse spørgsmål og svar. Det er det som hedder “Reinforcement learning with human feedback”. Det vil sige, vi ikke indtil videre lykkedes med at træne en AI som kan tænke i helt andre baner, da modellerne har været begrænset af menneskelig kreativitet i formuleringen af disse spørgsmål og svar. Ikke før nu…
“The secret sauce”
Cit.”Self-evolution Process of DeepSeek-R1-Zero The self-evolution process of DeepSeek-R1-Zero is a fascinating demonstration of how RL can drive a model to improve its reasoning capabilities autonomously…. A particularly intriguing phenomenon observed during the training of DeepSeek-R1-Zero is the occurrence of an “aha moment”. This moment, as illustrated in Table 3, occurs in an intermediate version of the model. During this phase, DeepSeek-R1-Zero learns to allocate more thinking time to a problem by reevaluating its initial approach. This behavior is not only a testament to the model’s growing reasoning abilities but also a captivating example of how reinforcement learning can lead to unexpected and sophisticated outcomes.”
– DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning, side 6.
Det som DeepSeek er lykkedes med, er at udvikle en metode, som gør at R1 automatisk kan lære af sig selv. Det har været “den hellige gral” inden for AI siden Ashish Vaswanis team ved Google opdagede GPT tilbage i 2017. Den lærer og tilpasser sig gennem “re-inforcement learing” ligesom alle andre modeller, men den behøver ikke menneskelig indblanding. Den kan lære ved at modtage feedback fra sig selv og derigennem forfine sine ræsonnementer. R1 kan nedbryde komplekse problemer i mindre, håndterbare delopgaver, ligesom mennesker gør. Det mest bemærkelsesværdige er måske R1s metode til selvrefleksion. Efter at have løst et problem gennemgår modellen sin egen tankegang, identificerer og retter potentielle fejl. Denne selvkorrigerende mekanisme er banebrydende, “the secret sauce”. Vi skal forholde os til, og forberede os på en fremtid, hvor AI kan lære og udvikle sig selvstændigt.
Forandring og usikkerhed
Konsekvensen af DeepSeeks forskningsresultater, som meget beviseligt giver en mere omkostningseffektiv træning af AI, har skabt røre i markedet, især hos Nvidia, den førende leverandør af computerchips og øvrigt udstyr til træning af AI. Nvidias aktie faldt betydeligt efter DeepSeeks annonceringer, hvilket afspejler investorernes bekymring over to ting:
- Potentiel global konkurrence med det de-facto monopol (oligopol, for at være helt præcis), som Google, Anthropic, Microsoft, OpenAI, plus et par stykker andre, i dag har på at udbyde AI-services.
- Faldende efterspørgsel på avancerede AI-chips fra Nvidia og AMD.
De store tab er en klassisk overreaktion fra et aktiemarked præget af spekulation og som derfor ikke kan se længere frem i tiden end maksimalt én dag og som reagerer pr automatik i stedet for viden og kompetence. Der er ikke et tidspunkt i verdenshistorien, hvor en eller få virksomheder har kunnet holde på en teknologi af almen interesse på længere sigt. -Hvad mon Henry Fords investorer tænkte da General Motors begyndte produktionen af biler?
DeepSeeks teknologi udgør en udfordring for det eksisterende marked for AI-chips, men er tiden måske moden til, at vi begynder at se på, om ikke færre computere med smartere algoritmer, er den bedste løsning?
Det første gang vi ser Open Source modeller komme ind øverst på LLM Arena (se tabellen tidligere i artiklen) hvor de etablerede amerikanske virksomheder har domineret billedet. Betydningen af dette er kæmpestor, og helt sikkert også noget som har bidraget til markedets bekymringer.
Demokratisering
DeepSeeks beslutning om at gøre sine modeller gratis tilgængelige, så alle, også dig, kan downloade dem demokratisere AI-teknologien og gøre den tilgængelig for alle, fra private, mindre virksomheder, startups og uafhængige forskere. Det kan føre til en fantastisk acceleration af innovation, når et bredere AI-community arbejder videre med DeepSeeks modeller og opdager nye anvendelsesmuligheder.
Hvis du selv vil prøve en miniversion af DeepSeek-R1 som kan køre helt privat på din egen PC helt uden forbindelse til internettet, så hop over på https://ollama.ai og download programmet. Derefter kan du følge instruktionerne og hente denne model: https://ollama.com/library/deepseek-r1
Kontroverser i kulissen
Man kan frit bruge AI-modellen privat. Lad mig understrege at gør man dette, gemmes al information som sagt på din egen server, eller PC og kommer ikke videre. Kineserne kan ikke lytte med. Men DeepSeek har også et website, hvor man kan prøve modellen af. Begge versioner (V3 og R1) er tilgængelige på chat.deepseek.com men der er ingen roser uden torne.
Sitet besvarer snildt spørgsmål om amerikansk historie, også følsomme emner som bombningerne af Hiroshima og Nagasaki, men undgår de politisk følsomme emner relateret til Kina, som for eksempel hændelsen på Den Himmelske Freds Plads den 4. juni 1989. Den selektive måde at give adgang til information på, betyder, ikke overraskende, at der er pålagt et niveau af censur. Om der er tale om direkte eller indirekte indflydelse fra den kinesiske regering ved vi ikke.
Derudover indsamler chat.deepseek.com brugerdata og gemmer dem på servere i Kina med de konsekvenser som dertil hører. Anbefalingen herfra er, at man ikke lægger forretningsdokumenter ind på DeepSeeks hjemmeside, men der er ikke noget i vejen for at få sparring til en logisk kompleks problemstilling, i forbindelse med udarbejdelse af vagtplaner (uden navne), eller svære beregninger (brug IKKE din firma-mailadresse ved brugeroprettelsen), fra R1, eller forsøge sig frem med V3, til sammenfatninger af offentligt tilgængelige tekster, eller andet som ikke indeholder personlige eller unikke informationer.
DeepSeeks hurtige fremgang har ikke været uden kontroverser med ”kolleger” fra den anden side af Stillehavet. OpenAI har beskyldt DeepSeek for uautoriseret brug af sit API til træning. De påstår, at DeepSeek har brugt en teknik kaldet “destillation” til at udtrække data fra OpenAIs modeller. Det har ført til en fælles undersøgelse med Microsoft og har igen rejst bekymring om beskyttelse af intellektuel ejendomsret i AI-branchen. DeepSeek har endnu ikke kommenteret påstandene, men skulle det være rigtigt, kan jeg sige, at DeepSeek langt fra er de eneste som har “lånt” fra andre til træning af AI-modeller. Den klassiske metafor om stenen og glashuset synes evig relevant.
Disruption som katalysator for fremskridt
DeepSeek har stukket pinden i hvepsereden med deres reelt nyskabende forskning kombineret med mere eller mindre belyste aktiviteter for at komme dertil. DeepSeeks teknologiske fremskridt og åben kildekode-tilgang har rystet (den amerikanske) branche, og en stemning af noget fremmed som er til skade for amerikanske virksomheder, af kinesiske oprindelse tilføjer desuden en geopolitisk dimension til historien. Det rejser lige nu spørgsmål om internationalt samarbejde og konkurrence inden for AI -et samarbejde som jeg kan nævne, har fungeret i mange år efterhånden. Der er mange kinesisk-klingende navne side om side med vestlige i stort set alle videnskabelige publikationer inden for AI, publiceret indenfor de sidste tre år.
Den umiddelbare konsekvens af DeepSeeks nuværende forskning, er efter min mening positiv. Den demokratiserer og giver mulighed for, at flere kan benytte AI-teknologi på linje med ChatGPT, helt privat, eller kan etablere virksomheder på basis af, at kunne tilbyde AI-services som ligger inden for egne landegrænser. Dertil kommer, at træning af AI i fremtiden vil komme til at bruge væsentligt mindre energi end i dag, til fordel for CO2-regnskabet.
På længere sigt skal vi som samfund til at forholde os til AI, som kan lære uden menneskelig indblanding. Uden at hoppe ned i det “rabbit hole” som åbner sig med sådan et udsagn, vil jeg sige, at det nok er der, det største potentiale og den største trussel ligger, hånd i hånd. Potentialet, er AI som kan opfinde reelle nye ideer som selvstændigt kan forske, til gavn for os alle. Truslen er at AI’s grundværdier med tiden vil ligne vores mindre og mindre (value drift) og det ser vi først når det er for sent.
Historien om DeepSeek’s forskning er ikke unik. Amerikanske virksomheder har ligeledes skabt tilsvarende resultater gang på gang, som har ledt os hen, hvor vi er i dag. Det unikke er, at en kinesisk virksomhed har skabt resultaterne. Det burde egentlig kunne inspirere os alle, at man ikke behøver at være amerikaner for at gøre revolutionerende opdagelser inden for AI. Måske er tiden inde til at vi skal offentliggøre noget af vores egen forskning, her ved Innovation Lab?
Billede: Credits: Adobe Stock, Wikimedia Commons. Billedet er ikke AI-genereret materiale.
Kilder:
- “Attention is all you need”, Ashish Vaswani et al., https://arxiv.org/abs/1706.03762, 2017
- “DeepSeek-V3 Technical Report”, Aixin Liu et al., https://arxiv.org/abs/2412.19437, 2024.
- “DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning”, https://arxiv.org/pdf/2501.12948v1, DeepSeek research, 2025
- https://www.alignmentforum.org/posts/jFvFreCeejRKaZv4v/understanding-and-avoiding-value-drift
- https://kargarisaac.medium.com/how-deepseek-r1-uses-reinforcement-learningto-supercharge-reasoning-3f826c2c8759
- https://www.reuters.com/technology/artificial-intelligence/big-tech-faces-heat-chinas-deepseek-sows-doubts-billion-dollar-spending-2025-01-27/
- https://medium.com/@thesab/a-green-dawn-for-ai-how-deepseeks-breakthrough-challenges-climate-pessimism-464974702c0f
- https://www.investors.com/news/technology/ai-stocks-deepseek-us-china-artificial-intelligence-competition-nvidia/
- https://techcrunch.com/2025/01/29/microsoft-probing-whether-deepseek-improperly-used-openais-api/