Chinese Start-Up DeepSeek Threatens American AI Dominance


Starting today, I’m ditching ChatGPT for DeepSeek to save a few bucks. So, is 2025 the year the AI bubble is about to burst, or am I just straight-up cheap?
오늘부터 ChatGPT 대신 DeepSeek 쓰면서 돈 좀 아껴보려고요. 그런데 2025년이 진짜 AI 거품이 터지는 해일까요, 아니면 제가 그냥 너무 짠돌이인 걸까요? ㅋㅋㅋㅋㅋ

Transcript
(0:24 ~ 2:24)

It also comes from China. Brian. It’s called DeepSeek and here’s why it matters. It took Google and OpenAI years and billions and billions of dollars to build the latest AI large language models. But now a Chinese research lab has built a competitive model in just two months with a dumbed down GPUs for less, and get this, $6 million, not billion, $6 million.

Now, DeepSeek looks and acts just like ChatGPT. I’ve been trying it out this morning and when I asked, “What model are you?” It answered, “I’m an AI language model created by OpenAI, specifically based on the GPT-4 architecture,” suggesting that it was trained on ChatGPT outputs, which, leaving aside terms of service violations, means that entirely new state of the art models they can be built on what is already out there. In other words, OpenAI is maybe shrinking if a model like DeepSeek can emerge with competitive performance, minimal cost, and reliance on existing outputs, it signals a rapidly shrinking barrier to entry in AI development, challenging the current dominance of industry leaders like OpenAI and Google, and Anthropic and Meta. By the way, there’s also key geopolitical implications in this for the AI race.

DeepSeek is backed by a Chinese quant trading firm, High-Flyer Capital Management, and it used Nvidia H800, a lower performance version of the H100 chips that are cheaper, more available and tailored for restricted markets like China. So they were able to sort of go around the H100 that everyone seems to be looking for here in the West now.

In fact, it costs DeepSeek, just $5.5 million to train it versus hundreds of millions of dollars for Meta’s latest Llama model and billions of dollars for GPT and Gemini models. This all raises an important question, Brian, for investors, as the AI trade evolves and technological progress stalls, is training frontier models still a good investment? DeepSeek should make investors look twice.

이것도 중국에서 나온 겁니다, 브라이언. 이름은 ‘딥시크’이고, 왜 중요한지 말씀드릴게요. 구글과 오픈AI는 최신 AI 대형 언어 모델을 개발하는 데 수년과 수십억 달러를 투자했습니다. 그런데 중국의 한 연구소가 단 두 달 만에 단순화된 GPU를 사용해 경쟁력 있는 모델을 구축했어요. 비용은 겨우 600만 달러, 맞아요, 수십억이 아니라 600만 달러에 불과했습니다.

딥시크는 ChatGPT와 거의 똑같이 보이고 작동합니다. 오늘 아침에 제가 사용해봤는데, ‘당신은 어떤 모델입니까?’라고 물어보니 이렇게 답하더군요. ‘저는 OpenAI가 만든 AI 언어 모델로, GPT-4 아키텍처를 기반으로 하고 있습니다.’ 이 말은 딥시크가 ChatGPT의 출력물을 학습했다는 뜻으로 보이며, 이용 약관 위반 문제는 차치하고라도, 최첨단 모델들이 기존 데이터를 바탕으로 완전히 새롭게 만들어질 수 있음을 보여줍니다. 다시 말해, 딥시크와 같은 모델이 최소한의 비용으로 경쟁력 있는 성능을 발휘한다면, OpenAI는 위축될 수 있습니다. 이는 AI 개발의 진입 장벽이 빠르게 낮아지고 있다는 신호로, OpenAI, 구글, 앤트로픽, 메타와 같은 업계 선두 주자들의 현재 지배력을 위협할 가능성을 시사합니다. 게다가, AI 경쟁에 있어 중요한 지정학적 함의도 포함되어 있습니다.

딥시크는 중국의 퀀트 트레이딩 회사인 하이플라이어 캐피털 매니지먼트의 지원을 받고 있으며, 엔비디아의 H800 칩을 사용했습니다. H800은 H100 칩의 성능이 낮은 버전으로, 더 저렴하고 더 쉽게 구할 수 있으며, 중국과 같은 제한된 시장을 위해 설계되었습니다. 이를 통해 서방에서 모두가 찾고 있는 H100 칩을 우회할 수 있었죠.

사실, 딥시크의 훈련 비용은 550만 달러에 불과했으며, 이는 메타의 최신 Llama 모델, OpenAI의 GPT 모델, 구글의 Gemini 모델에 수십억 달러가 소요된 것과 비교됩니다. 이는 투자자들에게 중요한 질문을 제기합니다. 브라이언, AI 시장이 진화하고 기술적 진보가 정체될 때, 최첨단 모델을 훈련시키는 것이 여전히 좋은 투자일까요? 딥시크는 투자자들에게 다시 한번 생각하게 만드는 사례가 될 것입니다.