콘텐츠로 건너뛰기
Reddit

중국이 2주 만에 10개 이상 최첨단 AI 모델 대거 공개 — 서구 시장은 별 관심? 🤖

r/stocks 조회 4
원문 보기 →
💡

중국 주요 기업들과 스타트업들이 설 연휴에 걸쳐 대규모 최첨단 AI 모델 업그레이드와 공개를 단행했다. 이는 낮은 API 요금과 국내 컴퓨트 생태계 수요를 통해 반도체·인프라 업체들의 성장 기회를 만들 수 있기 때문에 투자 관점에서 중요하다. 투자자는 모델 성능 검증, 가격 경쟁력 지속성, 그리고 국내 AI 칩·인프라(예: Cambricon, CNQQ 등) 노출을 중심으로 살펴봐야 한다.

최근 중국의 주요 테크 기업들과 AI 스타트업들이 설 연휴 기간을 기해 거의 동시에 최첨단 모델들을 대거 공개했다.

알리바바, 바이두, 바이트댄스, 텐센트와 Moonshot AI, MiniMax 같은 스타트업들이 며칠 사이에 주요 업데이트를 쏟아냈다.

스케일이 상당하다. 바이두 ERNIE 5.0은 2.4조 파라미터, Moonshot의 Kimi K2.5는 1.04조 파라미터로 완전 오픈소스화되었다고 한다. 상업적으로 배포된 생성형 AI 서비스는 700개가 넘고, 바이두만 AI 플랫폼 월활성 사용자 2억 명 이상을 기록했다.

가격 책정이 핵심이다. API 요금이 백만 토큰당 0.05달러에서 0.15달러 정도로 책정되어 서구 대비 약 1/20 수준이라는 보도가 나온다. 알리바바 Qwen 3.5는 희소 활성화(sparse activation)를 통해 추론 시 파라미터의 4%만 작동시켜 이런 가격을 맞추면서도 품질을 유지한다고 주장한다.

미국의 반도체 수출 규제는 성능 저하로 이어지지 않았고, 오히려 알고리즘적 혁신을 촉발했다는 해석이 있다. 엔비디아 GPU 접근이 제한되자 아키텍처 최적화와 국내 하드웨어로 학습하는 시도가 늘어났다. 예컨대 iFlytek의 Spark X2는 국내 칩만으로 학습을 마쳤다고 전해진다.

바이트댄스의 Seedance 2.0 영상 생성기는 중국의 춘완(춘절 갈라)에서 방송에 투입되었고, 할리우드 측의 IP 이슈 제기가 있었다는 소식도 있다. 데모 수준을 넘어 상용·프로덕션 규모로 보이는 사례들이 나오고 있다.

인프라 관점에서 보면 모든 모델은 결국 컴퓨트 수요를 만든다. Cambricon 등 국내 AI 칩과 CNQQ 같은 관련 홀딩스가 이 구축의 도구(picks and shovels)가 될 가능성이 있다. DeepSeek V4는 3월 초 출시 예상이며, 소문대로 트릴리언급 파라미터급 멀티모달이면 국내 칩 수급 압박을 더할 수 있다.

내 관점은 단순하다: 모델 공개 자체보다 가격·성능의 실사용 검증과 국내 칩·인프라에 대한 실수요 증발 여부를 주시해야 한다.


🧐 배경 설명 및 요약

왜 이 글이 나왔나: 글쓴이는 최근 중국의 대형 기업들과 스타트업들이 짧은 기간에 여러 최첨단 AI 모델을 공개한 사실이 시장에서 충분히 반영되지 않는다고 보고 투자자들에게 주목을 촉구하려는 의도로 이 글을 올렸습니다. 특히 '가격 경쟁력'과 '국내 컴퓨트(칩·서버) 수요'가 향후 수혜주를 가릴 핵심 변수라는 점을 강조합니다.

작성자가 실제로 묻고 걱정하는 것은 무엇인가: 작성자는 이 공개들이 단순한 홍보성 발표인지, 아니면 실제로 비용·성능 측면에서 서구 경쟁사들을 추격하거나 압박할 수준인지 알고 싶어 합니다. 또한 이런 변화가 반도체·서버·클라우드 관련 기업들의 실수요로 연결되어 투자 기회를 만들지 여부를 궁금해합니다.

어려운 개념들 간단 정리:

- 파라미터(parameter): 모델의 '규모'를 나타내는 숫자입니다. 숫자가 크다고 무조건 더 좋은 것은 아니며, 효율적 아키텍처나 데이터, 튜닝도 중요합니다.

- 토큰(token)과 요금: 텍스트 처리 단위인 '토큰'당 과금 모델이 많습니다. 백만 토큰당 요금이 낮으면 단기적으로 API 사용 비용이 줄어들 수 있습니다.

- 희소 활성화(sparse activation): 추론 시 전체 파라미터 중 일부만 활성화해 연산 비용을 줄이는 기법입니다. 이론상 비용 절감과 품질 간 트레이드오프가 있습니다.

- 국내 컴퓨트: 모델 학습·추론에 필요한 GPU/ASIC 같은 하드웨어를 국내 공급으로 해결하면 수입 규제 리스크를 줄일 수 있지만, 성능·생태계 측면의 검증이 필요합니다.

요약하면: 발표된 수치와 가격은 흥미롭지만, 실제 성능 검증과 상용화 사례(생산 환경에서의 안정성, 기업 도입 사례 등)를 확인해야 투자 판단이 가능합니다. 당장 주시할 포인트는 모델의 실사용 성능, 가격 경쟁력의 지속성, 그리고 국내 AI 칩·서버 인프라에 대한 실수요입니다.

💬 원문 댓글 (12)

u/East-Bar-4324 ▲ 17
시장은 거의 관심이 없어 보이네
원문 보기
Market’s barely paying attention
u/hollow_bridge ▲ 14
당장 제시한 숫자들만으로는 별 의미가 없어. 며칠 내에 로컬에서 돌려볼 수 있는 모델은 다 테스트해볼 생각이야. 만약 모델이 오픈소스라면 '국내 컴퓨트가 필요하다'는 말은 틀릴 수 있어. 요금이 싸다고 해서 곧바로 좋은 건 아니고, 전기비·하드웨어 비용은 여전히 존재하지. 서구 쪽 AI가 비용이 20배 더 든다고 했는데 그 차이가 뭐 때문인지 봐야 하고. 파라미터의 4%만 활성화하는 것도 결과에 따라 좋을 수도, 아닐 수도 있어. 파라미터 숫자 자체도 마찬가지고. 700개의 AI 서비스도 실제로는 고객센터용이 많을 가능성이 높고, 그게 서구 숫자와 어떻게 비교되는지도 알아봐야지. 결국 중요한 건 모델 성능이고, 발표 자료만으로는 판단할 수 없으니 실제로 작동하는 걸 봐야 해. DeepSeek는 출시 때 괜찮았지만 다른 옵션보다 낫지 못해서 채택이 적었다는 얘기도 있어.
원문 보기
The numbers you're sharing don't really mean much on their own. I'll try whichever models I can run locally over the next couple days. You said they "need domestic compute" but that's not correct if they are opensource. The low cost they are charging isn't necessarily good, electricity and hardware has a cost, western ai are struggling with a cost 20x higher. 4% of parameters isn't necessarily a good thing, depends on the results. same with the number of parameters. 700 ai services don't mean much, it's probably mostly customer service, which most people hate, and how does that compare to western numbers? How good the model is, is the only thing that matters, and we can't tell that by any of the release info, we have to actually see the models working. Deepseek was ok when It was released, but didn't get much uptake because it wasn't better than other options.
u/WowUrSuperFatLol ▲ 7
이 글 공산당이 쓴 거 아냐?
원문 보기
Was this written by the cpc?
u/Primary-Debate-549 ▲ 7
> 엔비디아 GPU가 없을 때 아키텍처를 최적화했다는 말…

그게 증류(distillation), 즉 서구 모델을 그대로 복제한 거라는 건가? 참고로 Anthropic과 OpenAI가 누가(어떤 계정들이) 그들의 모델을 복제하는지 알고 있다고 발표했으니, 그쪽에서 중국 모델을 일부러 성능 낮추거나 함정이 들어가게 만들었을 거라고 봐도 돼.
원문 보기
\> It forced algorithmic innovation instead. When Nvidia GPUs aren't available, teams optimize architecture ...


You mean they used distillation, ie. directly copying western models? Btw: given that both Anthropic and OpenAI have now announced they know who, as in which accounts, are copying their models you can bet your ass they're explicitly making Chinese models dumber and boobytrapping them.
u/Old-Fold8644 ▲ 2
오늘 조정장에서 뭐 사는 중임?
원문 보기
what are you guys buying in todays dip?
u/thelastsubject123 ▲ 1
결과: 1 + 1 = 11

그래도 좋은 모델 가격의 5%밖에 안 든다네
원문 보기
Output: 1 + 1 = 11


but hey it costs 5% of a good model
u/Ape_hates_authority1 ▲ 1
중국이 베꼈다…… 대단한 뉴스네.
원문 보기
China copied stuff......big news.
u/Substantial_Bet_7997
요즘 시장 상황들 좀 봤어?
원문 보기
Did you see how f the market is recently?
u/Mvewtcc
SOXX 지금 4% 하락 중이네.
원문 보기
soxx is down 4% right now.
u/RedParaglider
과소평가된 영향은 로컬에서 모델을 서빙하는 거야. Qwen 3 코더를 2500달러짜리 미니 PC에 올리니 내가 하던 API 호출 비용 1밤 200달러가 없어졌어. 실시간 응답이 아닌 배치·전처리 작업에 증류된 모델을 쓰면 꽤 저렴한 장비 한 번 구매로 기업 단위에서 놀라운 결과를 낼 수 있어.

저렴한 로컬 시스템을 운영해서 연간 수십만 달러를 절감하는 사례가 진짜 임팩트야. 대부분 조직은 이런 걸 잘 모르는 상태지만, 며칠만 투자하면 임원들에게 수십만 달러 절감 얘기가 나오기 시작할 거야.

서버가 안전하게 로컬에 있으면 '중국산이라 무섭다'는 걱정도 사라진다.
원문 보기
The underrated impact is local llama serving. Qwen 3 coder next replaced 200 dollars a night in spend on API calls for me on a 2500 dollar mini pc. For enrichment non instant results processes these models when distilled can provide amazing results for the one time purchase of fairly inexpensive equipment for any decent size enterprise.

Saving hundreds of thousands a year by just running a cheap local system is the real gut punch nobody is seeing. Most orgs are way behind on knowing how to do this sort of stuff, but it won't take long before people start mentioning saving hundreds of thousands of dollars in spend for a couple days work to an executive.

If the server is secured and local all of that "ooh but it's chinese scary" goes out the window.
u/YayforFriday ▼ -1
AI 허접쓰레기
원문 보기
AI SLOP
u/CrispityCraspits ▼ -1
일부 사실은 있을지 몰라도 이 글은 100% 선전물처럼 읽힌다.
원문 보기
Maybe there is some truth in this but this post reads 100% like propaganda.

댓글 (0)

로그인하고 댓글을 작성하세요.

아직 댓글이 없습니다.