콘텐츠로 건너뛰기
Reddit

NVDA 주가와 TPU의 위협, GPU를 대체할 수 있을까? 🤔

r/stocks 조회 8
원문 보기 →
💡

NVIDIA의 GPU는 여전히 다양한 용도에서 강점을 가지지만, TPU가 생성형 AI 워크로드에서 점점 영향력을 넓히고 있습니다. 이는 NVIDIA의 높은 기업가치 성장 중 상당 부분이 생성형 AI에서 비롯된 만큼 중요한 이슈입니다. 투자자들은 TPU와 GPU의 차이점과 각 칩셋이 차지하는 시장 영역을 면밀히 관망할 필요가 있습니다.

Jensen과의 인터뷰를 보면서 TPU가 GPU에 위협이 되지 않는 이유를 묻는 질문이 있었습니다.

그가 답하기를 "TPU가 생성 AI 작업에서는 빠르고 저렴할 수 있지만, 게임, 분자 생물학, 채굴 같은 다른 작업은 잘 못한다"고 했지요.

그 말이 맞긴 한데, 사실 NVIDIA의 폭발적인 주가 상승의 99%가 생성 AI 관련이라 그 부분을 간과하는 것 같다는 생각이 들었습니다.

사람들이 NVIDIA가 무시당할 거라고 말하는 건 아니지만, 게임과 채굴이 주력일 때는 시가총액이 0.5조 달러 수준이었는데 지금은 5조 달러 이상입니다.

무언가 내가 놓치고 있는 게 있나 궁금해요.

💬 원문 댓글 (19)

u/hak**** ▲ 41
TPU는 대형 언어 모델 같은 순수 행렬 계산에 GPU보다 약 20-30% 더 우수하다고 봅니다. GPU는 이론적으로 더 다방면으로 쓸 수 있고, 모델 작동 방식에 큰 변화가 있으면 유리할 수 있지만 그럴 가능성은 낮아 보여요. NVIDIA가 진짜 강점을 가진 건 TSMC와의 밀접한 관계와 생산 물량 선점입니다.
원문 보기
TPUs are objectively better than GPUs for LLMs and anything that just requires pure matrix maths, probably by around 20-30%. GPUs in theory are more versatile and if there's a significant regime change in how these models operate could be better placed however I think this will be unlikely. Nvidia's actual advantage is their closer relationship with TSMC and booking all of their manufacturing.
u/Ind***************** ▲ 18
아니에요, 놓친 거 없습니다. 저는 Jensen이 까다로운 질문들에 당황해서 침착함을 잃은 것 같아요. 그래서 앞으로 NVIDIA 주가가 반도체 지수 이상으로 크게 오르긴 어려울 것 같다고 생각합니다.
원문 보기
No youre not. I think Jensen was throw off guard by all the tough questions and lost his cool. Thats why I think NVDA stock price will no longer go up much more than the semi index will.
u/ido** ▲ 12
핵심은 시장 규모입니다. 시장이 감당할 수 있는 것보다 크다면, 모두가 성장할 공간이 있다는 뜻입니다.
원문 보기
The answer is the size of the market. As long as the size of the market is bigger than what can be filled, there is room for everybody to grow.
u/Wol*********** ▲ 9
NVIDIA는 ASML이나 TSM처럼 대체 불가능한 위치는 아니었습니다. 초기에 유리했지만 그 우위가 영원할 수는 없죠.
원문 보기
Nvidia were never irreplaceable in the chain like ASML or TSM. They were early, but that advantage doesn’t last forever.
u/Won**************** ▲ 5
Jensen이 그렇게 말한 게 아닙니다. 그는 NVIDIA GPU가 총 소유 비용(TCO) 면에서 여전히 우세하다고 했죠. 이게 가장 중요한 부분입니다. 구글은 AI 칩 성능 측정을 위한 업계 표준 벤치마크에 결과를 제출한 적이 없습니다.

만약 NVIDIA가 TCO에서 이기고 있다면, TPU를 쓸 이유는 계산력이 매우 절실한 경우(Anthropic, OpenAI 같은)뿐입니다.

GPU는 훨씬 범용적이고 어떤 클라우드든 쓸 수 있어 공급사에 종속되지 않고, RTX 5090에서 작동하는 게 Vera Rubin에서도 작동합니다.

이 커뮤니티가 지금 구글을 좋아하지만, AWS, 마이크로소프트, 구글, 메타가 가능한 한 많은 NVIDIA GPU를 구매하는 데는 이유가 있습니다.
원문 보기
>The answer Jensen gave was: “yeah well maybe TPUs are faster and cheaper for gen AI workloads, but they can’t do other stuff as well such as video games and molecular biology or mining"

He didn't say this. He said Nvidia GPUs still win on total cost of ownership. This is the most important point. Google has never submitted their benchmarks to https://mlcommons.org/benchmarks/ which is what the industry uses to measure AI chips.

If Nvidia is winning in total cost of ownership, then there's no reason to build on TPUs except that if you are just desperate for compute like Anthropic and OpenAI are.

GPUs are far more general purpose, can be used in any cloud so no vendor lock in, and if it works on your RTX 5090, it will work on a Vera Rubin.

I know this sub has a hardon for Google at the moment but there is a reason why AWS, Microsoft, Google, Meta all buy as many Nvidia GPUs as they possibly can.
u/Dif***************** ▲ 4
이미 그 조짐이 나타나고 있습니다. 아마존과 구글, 특히 그들이 자체 개발 칩에 대해 하는 말을 들어보세요.
원문 보기
It’s already starting to show up. Listen to Amazon and Google er specifically what they are saying about their own chips.
u/us3************** ▲ 4
Jensen 말이 맞아요. TPU는 활용 범위가 제한적입니다. NVIDIA 가속기는 가능한 한 범용적이죠. 그래서 NVIDIA 칩은 생성 AI 외 다른 분야에도 사용됩니다. 다만 비-LLM 시장이 얼마나 클지는 지켜봐야 합니다.
원문 보기
Jensen is right in that TPUs offer a limited scope in their capabilities. An NVIDIA accelerator is as general purpose as it can be. Hence why a chip like those made by NVIDIA are the ones used for things other than gen AI. It remains to be seen if there is such a large market for non-llm stuff.
u/him******** ▲ 2
제 생각입니다.

TPU는 LLM에 강한 행렬 연산에서 뛰어납니다.

하지만 GPUs는 에이전틱 AI(자율적 AI)에서 더 유용한데, 아마 Jensen이 말한 부분입니다.

로봇 공학, 특히 휴머노이드 분야에서는 NVIDIA가 Figure AI 같은 주요 연구소에서 쓰이고 있죠. 휴머노이드가 현실화되고 규모가 커지면 NVIDIA가 중요한 역할을 할 겁니다. 오랫동안 GR00T 같은 도구와 OS를 개발해 왔기 때문이죠.

결론적으로 LLM은 TPU가 앞서지만, 복잡한 에이전틱 업무나 휴머노이드 로봇 분야에서는 NVIDIA가 우위를 점하고 있습니다.
원문 보기
So, here's my opinion.

TPUs are really strong at "matrix math" which is great for LLMs.

But less so for Agentic AI where GPUs are more useful. Which is probably what Jensen was talking about.

Another use case is for robotics, humanoid robotics. Where Nvidia is used by the big robotics labs like Figure AI. So, when humanoid robots become a reality and scales up, Nvidia will play a major part because they've been developing the tools and "operating system" with their GR00T for a long time.

So, LLMs TPUs win. But for Agentic workloads (complex ones anyway), and humanoid robots, Nvidia has the edge.
u/bob********* ▲ 2
대형 기술 기업이나 은행처럼 TPU 인프라에 투자할 자원이 있는 대형 하이퍼스케일러를 제외하면, 대부분 개발자들은 당분간 접근성이 좋은 CUDA를 계속 사용할 것입니다. 물론 TPU가 타격이 되겠지만 시장은 오히려 더 커질 겁니다.
원문 보기
Developers in companies, except for major hyperscalers with the resources to invest in a TPU stack (like large tech companies and banks), are likely to stick with the most accessible option, CUDA, for the foreseeable future. but yes it would hurt but the pie would only get bigger by than.
u/Ast********* ▲ 2
생성 AI 붐은 불과 3년 반 전에 시작했습니다. 시장 규모가 매우 크고 성장 중이라 장기적으로 여러 기업이 성공할 여지가 충분합니다. 로봇, 자율주행, 양자컴퓨팅 같은 연관 분야가 발전하면 AI 작업은 더욱 복잡해질 것입니다.

NVIDIA, 구글, 아마존이 다 합쳐도 모든 수요를 채우기 어려워 AMD와 인텔이 성장 기회를 얻을 겁니다.
원문 보기
The Gen AI boom literally only started 3.5 years ago. The market is so huge and growing, there’s room for multiple players to win long term. AI workloads will only get more complex and demanding when related fields like robotics, autonomous vehicles, and quantum computing take off.

Even NVDA GOOG and AMZN collectively won’t be able to fulfill all demand, leaving room for AMD and INTC to grow.
u/crN**** ▲ 2
TPU가 비용 효율은 더 좋지만, GPU가 연구, 로봇, 시뮬레이션 등 다양한 상황에 더 범용적이고 유연하다고 봅니다. NVIDIA는 CUDA 덕분에 개발자 생태계에 강력한 방어벽을 가지고 있고 네트워킹, 툴링까지 포함한 전체 생태계를 제공합니다.
원문 보기
I believe TPUs are more cost-effective but GPUs are more general purpose and more flexible in different scenarios like research, robotics, simulations. Nvidia has a strong moat on the developer side with Cuda and offer a whole ecosystem with networking and tooling.
u/Rav*** ▲ 2
GPU는 여전히 훈련에 필요하고, TPU는 추론에만 쓰입니다.

TPU가 NVIDIA GPU 시장을 위협한다는 생각은 너무 단편적인 시각입니다.
원문 보기
GPUs are still required for training. TPUs are only for inferencing.

The idea that TPUs are threatening Nvidia's GPU market is short sighted.
u/xLe********* ▲ 2
구글, 아마존, 마이크로소프트가 자체 개발하는 칩은 각 회사 맞춤용입니다. 자사 사업에 특화해 피드백과 확장을 통한 사업 개선, 현금 흐름 강화가 목적이죠. NVIDIA는 전반적 리더로, 최소 몇 년은 그 위치를 유지하며 단단한 재무구조를 쌓고 있습니다. 다만 앞으로 5년 내에 새로운 성장 동력에 투자할 것으로 봅니다.
원문 보기
I think what Google, Amazon, and Microsoft are developing in-house are being done so to fit a use case within those companies. Be good at supporting a business area more targeted to themselves so the feedback loop, scale, whatever jargon leads back to improving their business and cash flow. So NVDA is the leader in general, will remain so for minimum of the next few years, and is creating a fortress of a balance sheet. I would expect them to get their eyes on the horizon in the next 5 years, though. Put their cash to work.
u/pm_***************** ▲ 1
TPU를 제대로 쓰려면 Jax와 XLA를 써야 합니다. GPU 최적화는 PyTorch와 NVIDIA 소프트웨어 스택을 사용하죠. 후자가 구글보다 훨씬 쓰기 쉽고 디버깅도 편합니다.

하드웨어는 좋을 수 있지만, 소프트웨어 면에서는 NVIDIA GPU가 따라오기 힘듭니다.
원문 보기
To work with TPUs  and get the best performance you need Jax and XLA. To work with GPUs and get the best performance you use PyTorch and the nvidia software stack. The latter is way easier to use and debug than what google is providing.

Hardware may be better, but in terms of software Nvidia GPUs are hard to beat.
u/Lon******* ▲ 1
NVIDIA가 TSMC 매출의 약 10%를 차지하는데, TPU는 언제 생산되는지 궁금하네요.
원문 보기
NVDA represents about 10% of TSMC business, when are the TPU getting built
u/Yok***** ▲ 1
Jensen이 간과한 진짜 답은 지금 NVIDIA의 가장 큰 방어벽이 TSMC와의 미래 공장 생산 계약이라는 점입니다.
원문 보기
The real answer that Jensen ignored is that Nvidia’s biggest moat at this point is their future contracted factory time with TSMC.
u/gar****** ▲ 1
주가가 2025년 여름 이후 횡보하는 데는 이유가 있습니다. TPU도 그중 하나죠. NVIDIA가 애플이나 구글처럼 계속 오르진 않을 수도 있습니다.
원문 보기
Stock is sideways since summer 25 for a reason. TPU is one. NVIDIA maybe won’t go up forever like Apple or Google
u/Ful************* ▲ 1
물론 좋은 경쟁자지만 구글은 수년간 TPU를 설계하고 사용해왔고 이것이 NVIDIA가 리더인 것을 막진 못했습니다.

AMD도 NVIDIA 경쟁자지만, 공급자 대부분이 AMD를 취급하지 않거나 큰 할인으로 소량 판매합니다. AMD는 2등급, TPU는 3등급 컴퓨트 공급자에 가깝습니다. NVIDIA는 게이밍용, 워크스테이션용, 데이터센터용 GPU에 CUDA가 일반 소비자에게도 잘 접근된다는 큰 장점이 있죠.

반면 TPU는 특정 공급자만 이용 가능하고, 효율적 훈련을 위해 수천 시간의 엔지니어링이 필요합니다. 실제 구현 기준은 NVIDIA가 되고, 앞으로도 많은 데이터센터 제공업체가 NVIDIA 제품을 제공할 것입니다.
원문 보기
Yes it's a good competitor, but Google has been designing and using TPUs for years and years now, which didn't stop Nvidia from being the leader.

AMD cards are Nvidia competitors too. And look how well they're doing in comparison to Nvidia - most compute providers even don't offer them and when they do, it's with big discounts and in low quantity - they're second class compute provider. TPUs would be third class compute provider here. Nvidia has the massive advantage of CUDA being accessible as well to normal consumers in gaming GPUs, having workstation GPUs as well as data-centre GPUs. While TPUs are only available from specific providers and you need to dedicate thousands of engineering hours to make efficient training of your custom architecture on them - possible but the reference implementation is going to be Nvidia and Nvidia is what you'll find in offer by a random data center compute provider for a long while now.
u/K1m**** ▲ 1
Jensen의 발언은 워크로드에 관한 것입니다. 워크로드는 다양한 형태를 띠며 아직 우리가 모르는 것도 많죠. NVIDIA가 항상 최고였던 것은 미래 하드웨어가 어디에 있어야 할지 이해하는 능력입니다. GPU 설계와 이제는 네트워킹, 시스템 전체를 구동할 소프트웨어까지 해오고 있죠. 'GPU 대 TPU' 이야기는 매우 좁은 시각이며 전체 그림의 작은 일부에 불과합니다.

우리는 이제 Blackwell 배치로 시작된 결과물을 보고 있습니다. RV 업그레이드가 예정돼 있고, 수조 달러 규모 모델의 대규모 훈련과 추론 비용 구조가 전환점이 되고 있습니다.

칩을 목표로 하는 모든 회사는 설계, 제조, 배치, 네트워킹과 복잡한 소프트웨어·플릿 관리까지 해야 합니다.

컴퓨팅 제약으로 NVIDIA 점유율 일부가 줄어들 수 있으나 사업을 잃는 것은 아니며, 업계는 이제 시작 단계고 NVIDIA는 GPU, CPU, 네트워킹, 로봇, 자율주행, 그리고 이를 운영할 소프트웨어 등 모든 영역에서 주요 카드를 쥐고 있습니다.
원문 보기
Jensen's comments are about the workload. That workload can take on a bunch of different forms, some of which we don't even know the shape of. What Nvidia have always been the best at is understanding where the hardware needs to be in the future. They've done this on GPU design and now do it on networking and the software to drive the entire system. The narrative around 'GPU vs TPU' is extremely narrow and represents just a small piece of the picture.

We are just seeing the start of the fruits of the Blackwell deployments coming online and the training they have powered. The upgrade to RV is incoming and the TCO of serving these massive training and inference workloads for multi-trillion sized models is just starting to factor into decision making.

Remember for all these companies with chip ambitions, they have to design, manufacture, deploy, network and support them with sophisticated software/fleet management.

No doubt, some of Nvidia's market share will erode as the market is compute constrained but that doesn't mean Nvidia lose business, the industry is just getting started and Nvidia holds key cards in all hardware areas GPU/CPU/Networking/Robotics/Driving and the software stack to operate in all these domains.

댓글 (0)

로그인하고 댓글을 작성하세요.

아직 댓글이 없습니다.