
[스냅드래곤 딥다이브] "GPU 의존, 배터리 구동시간 줄일 것... 저전력 NPU가 최적"[샌디에이고(미국)=권봉석 기자] "AI는 사물이나 음성인식에서 생성AI를 지나 자율성을 지닌 에이전틱 AI로 진화하고 있다. 이용자의 목표에 따라 여러 AI 에이전트가 협력해 작업을 나눠 수행한다. 1초 안에 응답을 얻으려면 100 TOPS(1초 당 1조 번 연산)를 넘어 최대 300 TOPS급 NPU가 필요한 상황이 올 것이다."
12일(이하 현지시간) 오전 미국 캘리포니아 주 샌디에이고 내 '스냅드래곤 X 엘리트 딥다이브' 행사장에서 우펜드라 쿨카르니 퀄컴 제품관리 부사장이 이렇게 설명했다.
우펜드라 쿨카르니 퀄컴 제품관리 부사장. (사진=지디넷코리아)
그는 "에이전틱 AI는 PC 이용 중 내내 백그라운드에서 작동하기 때문에 초저전력 NPU 탑재가 필요하다. 스냅드래곤 X2 엘리트 익스트림에 탑재된 헥사곤 NPU는 경쟁사 대비 높은 성능으로 배터리 불안 없이 AI를 오래 쓸 수 있을 것"이라고 설명했다.
PC에서 AI를 실행하기 위한 요소로 CPU와 GPU, NPU를 꼽는다. 이는 퀄컴 뿐만 아니라 인텔과 AMD, 애플 등 모든 PC용 프로세서 제조사가 동의하는 내용이다.
CPU는 복잡한 분기 처리와 운영체제 로직, 대규모 응용프로그램을 빠르게 실행하지만 대규모 추론을 지속적으로 처리하는 데는 한계가 있다. GPU는 3D 그래픽과 거대언어모델(LLM) 등 처리에 특화됐지만 전력 소모가 크다.
프로세서 내 각 구성 요소별 AI 처리 특성과 장/단점. (사진=지디넷코리아)
우펜드라 쿨카르니 부사장은 "배터리로 구동되는 노트북에서 장시간 상시 실행되는 AI 작업을 GPU에만 의존하기는 어렵다. 반면 NPU는 행렬 연산 기반의 대규모 추론을 저전력으로 처리하도록 설계된 전용 엔진"이라고 설명했다.
이어 "퀄컴은 여러 모델이 동시에 작동하는 AI에서는 NPU 전력 효율이 가장 큰 경쟁력이라고 판단하고 있고 NPU의 성능과 전력 효율이 경쟁력을 좌우할 것"이라고 설명했다.
이날 퀄컴은 AI 모델의 발전 속도로 인해 PC가 필요로 하는 TOPS가 급증하고 있다고 지적했다.
단순 텍스트 생성에서 멀티모달 생성(이미지·영상), 혹은 LLM을 여러 개 조합해 실행하는 에이전틱(Agentic) AI 환경으로 전환되면서 연산 요구량이 폭증하는 추세다.
퀄컴이 추산한 에이전틱 AI 상시 구동시 필요한 TOPS 성능. (사진=지디넷코리아)
예를 들어 짧은 동영상을 생성하는 데만 최소 150 TOPS가 필요하며, 1초 내 결과물을 얻기 위한 실시간성을 원할 경우 300 TOPS까지 요구된다.
또한 일정·메일 관리, 문서·이미지 분석 등 에이전트가 여러 모델과 도구를 병렬로 호출하는 작업이 지속적으로 실시간 작동된다.
우펜드라 쿨카르니 부사장은 "AI가 항상 실행되려면 전력 대비 성능 효율이 GPU 대비 수 배 이상 높은 NPU가 필수다. 여러 LLM을 동시에 구동하려면 최소 100 TOPS, 대규모 에이전트 실행시 최소 140 TOPS 이상 성능이 요구된다"고 말했다.
우펜드라 쿨카르니 부사장은 "스냅드래곤 X2 엘리트 익스트림에 탑재된 헥사곤 NPU는 최대 80 TOPS의 NPU를 기반으로 GPU·CPU 성능을 합산하면 200 TOPS에 가까운 연산량을 제공한다"고 강조했다.
퀄컴이 비교한 자사/타사 NPU/GPU의 성능과 전력 효율성. (사진=지디넷코리아)
이어 프로시온 AI 벤치마크 점수를 토대로 "헥사곤 NPU의 점수는 인텔 Xe2 GPU 대비 3배, 인텔 코어 울트라9 285H 내장 NPU 대비 5배 이상 높다. 전력 효율은 인텔 제품 대비 3배 이상"이라고 주장했다.
우펜드라 쿨카르니 부사장은 "전력당 성능으로 보면 스냅드래곤 X2 내장 NPU가 GPU 대비 현저히 우위를 보인다. 전기차를 예로 들면 항속거리가 최대 3.7배 이상 늘어나는 것이며 배터리 불안 없이 AI를 오래 쓸 수 있는 것"이라고 덧붙였다.
퀄컴은 AI 성능의 지속적인 향상을 위해 운영체제·API·모델 프레임워크·드라이버 등을 통합 최적화하고 있다. 윈도ML은 하드웨어 중립적인 AI 처리를, 자체 API인 퀄컴 AI 엔진 다이렉트(QNN)를 활용하면 퀄컴 실리콘에 최적화된 처리가 가능하다.
퀄컴이 제공하는 윈도 운영체제의 AI 소프트웨어 스택. (사진=지디넷코리아)
우펜드라 쿨카르니 부사장은 "외부 소프트웨어 개발 업체가 API를 두 번 최적화하지 않아도 동일한 최대 성능을 제공하는 것이 퀄컴 목표"라고 설명했다.
퀄컴은 스냅드래곤과 드래곤윙 등 SoC에 미리 최적화된 AI 모델을 제공하는 '퀄컴 AI 허브'도 운영한다. 앱과 모델을 분리해 동시에 개발할 수 있다는 것이 큰 장점으로 꼽힌다.
퀄컴이 외부 소프트웨어 업체와 구현한 NPU 기반 AI 특화 기능. (사진=지디넷코리아)
우펜드라 쿨카르니 부사장은 "어도비, 어피니티, 블렌더, 블랙매직 등 주요 소프트웨어 개발 업체와 함께 컴퓨터 비전·영상 편집·이미지 생성 분야에서 이미 최적화를 진행했으며, 총 1천 개 이상의 모델과 100여 개의 앱이 퀄컴 AI 플랫폼에서 작동한다"고 밝혔다.
12일(이하 현지시간) 오전 미국 캘리포니아 주 샌디에이고 내 '스냅드래곤 X 엘리트 딥다이브' 행사장에서 우펜드라 쿨카르니 퀄컴 제품관리 부사장이 이렇게 설명했다.
그는 "에이전틱 AI는 PC 이용 중 내내 백그라운드에서 작동하기 때문에 초저전력 NPU 탑재가 필요하다. 스냅드래곤 X2 엘리트 익스트림에 탑재된 헥사곤 NPU는 경쟁사 대비 높은 성능으로 배터리 불안 없이 AI를 오래 쓸 수 있을 것"이라고 설명했다.
"배터리 기반 노트북에서 GPU에만 의존할 수 없어"
PC에서 AI를 실행하기 위한 요소로 CPU와 GPU, NPU를 꼽는다. 이는 퀄컴 뿐만 아니라 인텔과 AMD, 애플 등 모든 PC용 프로세서 제조사가 동의하는 내용이다.
CPU는 복잡한 분기 처리와 운영체제 로직, 대규모 응용프로그램을 빠르게 실행하지만 대규모 추론을 지속적으로 처리하는 데는 한계가 있다. GPU는 3D 그래픽과 거대언어모델(LLM) 등 처리에 특화됐지만 전력 소모가 크다.
우펜드라 쿨카르니 부사장은 "배터리로 구동되는 노트북에서 장시간 상시 실행되는 AI 작업을 GPU에만 의존하기는 어렵다. 반면 NPU는 행렬 연산 기반의 대규모 추론을 저전력으로 처리하도록 설계된 전용 엔진"이라고 설명했다.
이어 "퀄컴은 여러 모델이 동시에 작동하는 AI에서는 NPU 전력 효율이 가장 큰 경쟁력이라고 판단하고 있고 NPU의 성능과 전력 효율이 경쟁력을 좌우할 것"이라고 설명했다.
"에이전틱 AI, 100 TOPS 이상 NPU 요구할 것"
이날 퀄컴은 AI 모델의 발전 속도로 인해 PC가 필요로 하는 TOPS가 급증하고 있다고 지적했다.
단순 텍스트 생성에서 멀티모달 생성(이미지·영상), 혹은 LLM을 여러 개 조합해 실행하는 에이전틱(Agentic) AI 환경으로 전환되면서 연산 요구량이 폭증하는 추세다.
예를 들어 짧은 동영상을 생성하는 데만 최소 150 TOPS가 필요하며, 1초 내 결과물을 얻기 위한 실시간성을 원할 경우 300 TOPS까지 요구된다.
또한 일정·메일 관리, 문서·이미지 분석 등 에이전트가 여러 모델과 도구를 병렬로 호출하는 작업이 지속적으로 실시간 작동된다.
우펜드라 쿨카르니 부사장은 "AI가 항상 실행되려면 전력 대비 성능 효율이 GPU 대비 수 배 이상 높은 NPU가 필수다. 여러 LLM을 동시에 구동하려면 최소 100 TOPS, 대규모 에이전트 실행시 최소 140 TOPS 이상 성능이 요구된다"고 말했다.
"헥사곤 NPU, 배터리 덜 쓰며 더 높은 성능 제공"
우펜드라 쿨카르니 부사장은 "스냅드래곤 X2 엘리트 익스트림에 탑재된 헥사곤 NPU는 최대 80 TOPS의 NPU를 기반으로 GPU·CPU 성능을 합산하면 200 TOPS에 가까운 연산량을 제공한다"고 강조했다.
이어 프로시온 AI 벤치마크 점수를 토대로 "헥사곤 NPU의 점수는 인텔 Xe2 GPU 대비 3배, 인텔 코어 울트라9 285H 내장 NPU 대비 5배 이상 높다. 전력 효율은 인텔 제품 대비 3배 이상"이라고 주장했다.
우펜드라 쿨카르니 부사장은 "전력당 성능으로 보면 스냅드래곤 X2 내장 NPU가 GPU 대비 현저히 우위를 보인다. 전기차를 예로 들면 항속거리가 최대 3.7배 이상 늘어나는 것이며 배터리 불안 없이 AI를 오래 쓸 수 있는 것"이라고 덧붙였다.
"AI 처리 경로에 관계 없이 최대 성능 제공... 1천개 모델 지원"
퀄컴은 AI 성능의 지속적인 향상을 위해 운영체제·API·모델 프레임워크·드라이버 등을 통합 최적화하고 있다. 윈도ML은 하드웨어 중립적인 AI 처리를, 자체 API인 퀄컴 AI 엔진 다이렉트(QNN)를 활용하면 퀄컴 실리콘에 최적화된 처리가 가능하다.
우펜드라 쿨카르니 부사장은 "외부 소프트웨어 개발 업체가 API를 두 번 최적화하지 않아도 동일한 최대 성능을 제공하는 것이 퀄컴 목표"라고 설명했다.
퀄컴은 스냅드래곤과 드래곤윙 등 SoC에 미리 최적화된 AI 모델을 제공하는 '퀄컴 AI 허브'도 운영한다. 앱과 모델을 분리해 동시에 개발할 수 있다는 것이 큰 장점으로 꼽힌다.
우펜드라 쿨카르니 부사장은 "어도비, 어피니티, 블렌더, 블랙매직 등 주요 소프트웨어 개발 업체와 함께 컴퓨터 비전·영상 편집·이미지 생성 분야에서 이미 최적화를 진행했으며, 총 1천 개 이상의 모델과 100여 개의 앱이 퀄컴 AI 플랫폼에서 작동한다"고 밝혔다.
댓글목록
등록된 댓글이 없습니다.