TECHNVIDIA GTC 2026에서 HPE는 무엇을 발표했을까?

오레오
2026-03-31
조회수 162

매년 3월이면 AI 업계의 시선이 한 곳으로 쏠립니다. 바로 NVIDIA의 연례 컨퍼런스, GTC(GPU Technology Conference)인데요.  저도 GTC에서 어떤 말들이 있었나 찾아보다 궁금한 점이 생겼습니다. 과연 HPE는 어떤 내용을 발표했을까? 

그래서 찾아봤습니다.

3460401f8fd78.png

GTC 2026에서 HPE는 단순한 신제품 공개가 아니라, "AI 실험의 시대는 끝났고, 이제 운영의 시대가 시작됐다"는 메시지를 전면에 내세웠습니다.

HPE CEO Antonio Neri는 "AI 경쟁의 핵심은 속도, 규모, 그리고 신뢰다. HPE는 NVIDIA와 함께 AI 팩토리와 네트워크를 구축해 AI에 대한 기업의 야망을 실질적인 가치로 전환한다."라고 말했습니다.


NVIDIA CEO Jensen Huang도 이번 발표에서 HPE에 대해 이렇게 밝혔습니다.

"HPE의 프라이빗 클라우드, 네트워킹, 온프레미스 시스템 전반에 걸친 리더십은 AI를 기업의 핵심 역량으로 만들 수 있는 독보적인 위치를 제공한다."


세계 AI 시장을 이끄는 두 회사의 CEO가 같은 방향을 가리키고 있다는 것. 이번 발표를 이해하는 첫 번째 열쇠입니다.


1. 신규 하드웨어 — AI 팩토리의 스펙이 달라졌다

HPE의 신규 하드웨어를 레스토랑 주방에 비유해 볼까요?

AI 시스템은 결국 방대한 데이터를 빠르게 요리해서 결과물을 내놓는 구조입니다. 더 크고 복잡한 메뉴를 소화하려면, 더 좋은 화구와 더 넓은 작업대가 필요하죠.

843b6363d6aeb.png
(사진: https://www.hpe.com/kr/ko/resource-library.video.pioneering-the-next-era-of-gigascale-ai-with-nvidia-vera-rubin-nvl72-by-hpe.v100010891.html)

이번에 HPE가 내놓은 NVIDIA Vera Rubin NVL72 by HPE는 그중에서도 최상급 주방 설비에 해당합니다. 1조 개 이상의 파라미터를 다루는 프론티어급 AI 모델을 위해 설계된 플래그십 시스템으로, 현재 AI 인프라 시장에서 가장 요구가 높은 대규모 추론(inference) 워크로드를 정면으로 겨냥한 제품입니다. 쉽게 말해, 지금 존재하는 AI 중 가장 크고 복잡한 것도 소화할 수 있는 설비입니다.

HPE Compute XD700은 조금 다른 방향입니다. OCP(Open Compute Project) 기반으로 설계된 AI 서버로, NVIDIA HGX Rubin NVL8을 탑재해 효율성과 확장성을 동시에 잡았습니다.

고급 레스토랑보다는 대형 급식소에 가깝달까요. 대규모로, 안정적으로, 효율적으로 운영하는 데 강점이 있습니다.

AI 팩토리를 구축 중인 서비스 프로바이더나 대기업 고객에게 유효한 옵션이 될 것으로 보입니다.

59d53e79bed64.png(사진:https://www.nvidia.com/ko-kr/products/workstations/professional-desktop-gpus/rtx-pro-6000-family/)

여기에 NVIDIA RTX PRO 6000 GPUHPE AI Factory 전 라인업에 적용되었고, HPE Cray GX5000에는 Vera CPU 컴퓨트 블레이드와 Quantum-X800 InfiniBand가 추가되었습니다.

제품

주요 특징

NVIDIA Vera Rubin NVL72 by HPE

1조+ 파라미터 프론티어 AI 모델 전용 플래그십 시스템

HPE Compute XD700

OCP 기반 AI 서버, NVIDIA HGX Rubin NVL8 탑재

NVIDIA RTX PRO 6000 GPU

HPE AI Factory 전 구성에 적용

HPE Cray GX5000

Vera CPU 블레이드 + Quantum-X800 InfiniBand 추가


2. HPE Private Cloud AI 확장 — 보안과 규모, 두 마리 토끼

8ac32e0fe1e33.jpeg

엔터프라이즈 AI 운영에서 가장 자주 충돌하는 두 가지 요구사항이 있습니다. 바로 "더 크게 확장하고 싶다"는 것과 "데이터는 절대 외부로 나가면 안 된다"는 것입니다. HPE는 이번 발표에서 이 두 가지를 동시에 해결하는 업데이트를 내놓았습니다.

우선 네트워크 확장 랙 추가로 HPE Private Cloud AI 배포 규모가 최대 128 GPU까지 확장 가능해졌습니다. 더 크고 복잡한 AI 워크로드를 동일한 운영 경험 안에서 소화할 수 있게 된 셈입니다.

보안 측면에서는 에어갭(Air-gapped) 구성 지원이 눈에 띕니다. 민감한 데이터가 외부 네트워크에 노출되지 않도록 완전히 격리된 환경에서 대규모 HPE Private Cloud AI 시스템을 운영할 수 있습니다. 금융, 의료, 공공 분야처럼 규제가 엄격한 업종에서 특히 유효한 옵션입니다.

보안 에코시스템도 강화됐습니다. CrowdStrike의 위협 탐지·방어가 Private Cloud AI에 검증 적용됐고, Fortanix Confidential AI 인증도 진행 중입니다. NVIDIA Nemotron 오픈 모델, AI-Q 블루프린트, Omniverse 블루프린트까지 지원 범위가 넓어지면서, 에이전트 AI 구축부터 디지털 트윈 운영까지 하나의 플랫폼 안에서 커버할 수 있는 구조가 갖춰지고 있습니다.

3. 스토리지와 데이터 파이프라인 — 도로가 없으면 차가 빨라도 소용없다

e18a2837167f1.jpeg

 AI 하면 대부분 GPU를 먼저 떠올립니다. 그런데 현장에서 AI 성능의 발목을 잡는 건 의외로 데이터를 얼마나 빠르게 공급하느냐인 경우가 많습니다.

고속도로에 슈퍼카를 올려놔도, 진입로가 좁으면 속도를 낼 수 없습니다. GPU가 아무리 강력해도, 데이터를 제때 공급하지 못하면 그 성능은 낭비됩니다. 이게 바로 AI 인프라에서 스토리지와 데이터 파이프라인이 중요한 이유입니다.

이번 GTC에서 HPE는 HPE Alletra Storage MP X10000이 오브젝트 스토리지 분야에서 NVIDIA 공인 스토리지 인증을 업계 최초로 취득했다고 발표했습니다. NVIDIA가 128 GPU 규모의 워크로드를 기준으로 성능을 직접 측정하고, 기업급 안정성 테스트까지 통과한 결과입니다. "이 스토리지는 대규모 AI 환경에서 실제로 검증됐다"는 공식 보증입니다.

여기에 NVIDIA STX 랙 스케일 레퍼런스 아키텍처 지원도 예고됐습니다. Vera Rubin, BlueField-4, Spectrum-X 네트워킹 등 NVIDIA의 최신 기술과 결합한 차세대 AI 스토리지 솔루션을 함께 개발하겠다는 방향입니다.

4. 소버린 AI— 나라마다 자기 AI를 갖는 시대

b900834849418.jpeg

소버린 AI(Sovereign AI)는 낯선 단어처럼 들리지만, 개념은 단순합니다. "우리 데이터로 만든 우리 AI를 우리 땅에서 운영한다"는 것입니다.

예전에는 AI 인프라를 갖추려면 미국 빅테크의 클라우드에 의존할 수밖에 없었습니다. 그런데 이제는 각국 정부와 대형 기관이 자국 데이터를 자국 서버에서 직접 처리하는 독립적인 AI 환경을 원하고 있습니다. HPE는 바로 이 수요를 공략하고 있습니다.

대표적인 사례가 두 가지입니다.

유럽연합 AI Factory — HammerHAI. HPE가 직접 구축하고 설치하는 슈퍼컴퓨터입니다. 유럽의 제조, 공학, 연구 분야 AI 역량을 강화하기 위한 하이브리드 머신러닝 플랫폼으로, 유럽 소버린 AI의 핵심 거점이 됩니다.

미국 아르곤 국립연구소. 미국 국가 AI 전략인 Genesis Mission의 일환으로, HPE Cray EX4000 슈퍼컴퓨터와 NVIDIA Grace Hopper Superchip 기반 차세대 AI 시스템 2종을 도입하고 있습니다. 과학 연구용 AI 추론 고도화와 미래 인재 양성을 함께 지원합니다.

이 두 레퍼런스가 국내 시장에서 갖는 의미는 분명합니다. 공공기관, 연구소, 대기업 중심으로 AI 인프라 수요가 커지고 있는 지금, "HPE는 국가급 AI 인프라도 구축한다"는 실증 사례가 생긴 겁니다. 고객과의 신뢰 대화에서 꺼낼 수 있는 강력한 카드입니다.

GTC 2026이 파트너에게 전하는 메시지

이번 HPE의 발표를 한 문장으로 요약하면 이렇습니다.

"AI를 실험하는 시대는 끝났다. 이제 AI를 운영하는 인프라가 승부를 가른다."

고객들은 이미 움직이고 있습니다. AI를 어떻게 비즈니스에 내재화할지, 어떤 인프라 파트너를 선택할지 결정하는 사이클에 들어섰습니다. 그리고 한번 선택한 인프라 플랫폼은 수년간 바꾸기 어렵습니다.

지금이 바로 고객과 AI 인프라를 주제로 대화를 시작해야 할 타이밍입니다.

동국시스템즈는 HPE 공인 파트너로서 GTC 2026에서 발표된 HPE AI 포트폴리오 전반에 대한 기술 컨설팅과 도입 지원을 제공하고 있습니다. HPE AI 인프라 도입을 검토 중이거나, 고객 제안에 활용하고 싶으신 분들은 문의해 주세요.

     

이용약관 ㅣ 개인정보취급방침 ㅣ 마케팅활용동의

동국시스템즈 ㅣ 주소: (04539)서울특별시 중구 을지로5길 19 페럼타워 9층  대표이사: 김오련

사업자등록번호: 102-81-42611  전화: 02) 2101-0900  팩스: 02) 3789-8780 Copyright 2020 DONGKUK SYSTEMS  All rights reserved