eSSD – SK hynix Newsroom 'SK하이닉스 뉴스룸'은 SK하이닉스의 다양한 소식과 반도체 시장의 변화하는 트렌드를 전달합니다 Thu, 18 Sep 2025 00:24:49 +0000 ko-KR hourly 1 https://wordpress.org/?v=6.7.1 https://skhynix-prd-data.s3.ap-northeast-2.amazonaws.com/wp-content/uploads/2024/12/ico_favi-150x150.png eSSD – SK hynix Newsroom 32 32 SK하이닉스 ‘델 테크놀로지스 포럼 2025’ 참가… 차세대 AI 시장 선도할 메모리 설루션 공개 /dtf2025/ Thu, 18 Sep 2025 01:00:39 +0000 /?p=53607

▲ 델 테크놀로지스 포럼 2025 SK하이닉스 전시 부스

SK하이닉스는 지난 17일 서울 삼성동 코엑스에서 열린 ‘델 테크놀로지스 포럼(Dell Technologies Forum) 2025’에 참가해 AI 시대를 선도할 다양한 메모리 설루션을 선보였다고 18일 밝혔다.

델 테크놀로지스 포럼은 매년 미국 라스베이거스에서 개최되는 ‘델 테크놀로지스 월드(Dell Technologies World)’와 맥을 같이하는 행사[관련기사]로, 미국 델 테크놀로지스(Dell Technologies)의 한국 지사가 주요 이해관계자들을 초청해 기술 세션, 제품 시연 및 쇼케이스 등을 진행하는 국내 최대 규모의 IT 컨퍼런스다. 올해 행사는 ‘Beyond the Limits of Imagination(상상 속 가능성, 그 한계를 넘어서)’을 주제로 열렸으며, 약 4천 명의 관람객이 이곳에 방문했다.

▲ SK하이닉스 부스에 전시된 AI 메모리 설루션

SK하이닉스는 이번 행사에서 ‘Guardians of the AI – Full Stack AI Memory Provider(인공지능을 지키는 수호자, 풀스택 AI 메모리 프로바이더)’라는 콘셉트 아래, AI 인프라를 완성할 제품 포트폴리오를 공개했다. 특히 캐릭터를 활용한 부스 디자인은 회사의 차별화된 기술 경쟁력을 친근하고 자연스럽게 체감할 수 있는 소재로, 많은 관람객의 호응을 얻었다.

▲ SK하이닉스 부스에 전시된 HBM 기술 3D 구조물

전시의 핵심은 단연 HBM* 라인업이었다. SK하이닉스는 지난 12일 ‘HBM4 12단’을 세계 최초로 개발해 양산 체제를 구축했다고 발표했다[관련기사]. 이 제품은 초당 2TB(테라바이트) 이상의 데이터를 처리하며 세계 최고 속도로 AI 연산 시스템을 지원할 차세대 설루션으로 알려져 있다. 부스에는 HBM4 12단 제품과 함께 ‘TSV*’, ‘어드밴스드 MR-MUF*’ 등 HBM에 적용된 핵심 기술을 시각적으로 표현한 3D 구조물이 설치돼 관람객의 이목을 집중시켰다. 이와 함께 현존 최고 성능과 용량을 갖춘 ‘HBM3E’가 탑재된 엔비디아의 차세대 GPU 모듈인 ‘GB300(Grace Blackwell 300)’이 함께 전시됐다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨
* TSV(Through-Silicon Via): D램 칩에 수천 개의 미세 구멍을 뚫어 칩들을 수직 관통하는 전극으로 연결하는 기술
* 어드밴스드(Advanced) MR-MUF: 기존 칩 두께 대비 40% 얇은 칩을 휘어짐 없이 적층할 수 있는 칩 제어 기술(Warpage Control)이 적용되었으며, 신규 보호재를 통해 방열 특성까지 향상된 차세대 MR-MUF 기술

▲ SK하이닉스 부스에 전시된 D램 및 D램 모듈 제품

D램 섹션에서는 초고속·저전력 특성이 강점인 ‘LPDDR5X*’가 눈길을 끌었다. 이 제품은 스마트폰, 태블릿, 노트북 등 모바일 기기에 최적화된 설루션으로, 최근 온디바이스 AI 확산과 함께 영향력을 넓히고 있다. 또, 여러 개의 LPDDR5X를 하나의 모듈로 묶어 저전력·고성능을 동시에 실현한 ‘LPCAMM2*’도 메모리 혁신을 이끌 제품으로 주목받았다.

* LPDDR5X: 저전력 동작 특성을 지닌 최신 모바일 D램 제품. 명칭 앞에 LP(Low Power)가 붙으며, LPDDR1-2-3-4-4X-5-5X 순으로 개발됨
* LPCAMM2(Low-Power Compression Attached Memory Module): LPDDR5X 기반의 모듈 제품으로, 기존 DDR5 기반의 SODIMM(노트북/소형PC용 모듈) 2개를 대체하는 성능 효과를 가지면서 공간 절약과 저전력/고성능 특성을 구현

D램 모듈 라인업에서도 한층 강화된 포트폴리오가 공개됐다. SK하이닉스는 10나노(nm)급 6세대(1c)* 미세공정 기술을 적용한 ▲RDIMM* ▲CSODIMM*을 비롯해 ▲3DS* RDIMM ▲Tall MRDIMM* ▲SOCAMM* 등의 제품군을 선보이며 PC부터 AI 서버까지 다양한 애플리케이션에 적용될 수 있는 기술력을 드러냈다.

* 10나노(nm)급 D램 미세공정 기술은 1x-1y-1z-1a-1b-1c(6세대) 순으로 개발되어 왔으며, SK하이닉스는 2024년 8월 세계 최초로 1c 기술 개발에 성공했다
* RDIMM(Registered Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품
* CSODIMM(Compression Attached Small Outline DIMM): 기존 SODIMM 대비 더 얇고 작은 폼팩터로, AI PC나 고성능 노트북에서 고용량을 구현할 수 있도록 설계된 차세대 메모리 모듈
* 3DS(3D Stacked Memory): 2개 이상의 D램칩을 TSV(수직관통전극)로 연결해 패키징한 고성능 메모리 설루션
* MRDIMM(Multiplexed Rank Dual In-line Memory Module): 모듈의 기본 동작 단위인 랭크(Rank) 2개가 동시 작동해 속도가 향상된 서버용 모듈 제품
* SOCAMM(Small Outline Compression Attached Memory Module): 저전력 D램 기반의 AI 서버 특화 메모리 모듈

▲ SK하이닉스 부스에 전시된 eSSD 및 cSSD 제품

스토리지 섹션에서는 eSSD*와 cSSD* 제품군이 관객들을 맞았다. SK하이닉스는 AI 서버 및 데이터센터 환경에 최적화된 ▲PEB110, ▲PS1010, ▲PS1012, ▲PS1101 등의 eSSD 라인업을 전시했다. 이중 ‘PS1012’는 QLC* 기반으로 61TB(테라바이트) 용량을 구현하고 PCIe* 5.0 인터페이스로 이전 세대 대비 두 배의 대역폭을 제공해 고용량·고성능이 요구되는 AI 인프라 환경에 최적화된 제품으로 눈길을 끌었다. 또한, 세계 최대 수준인 245TB 용량을 구현한 ‘PS1101’ 역시 폭증하는 데이터 수요에 대응하는 차세대 스토리지 설루션으로 눈도장을 찍었다. cSSD 제품인 PCB01은 초당 14GB(기가바이트) 연속 읽기, 12GB 연속 쓰기 성능을 구현해 고성능 온디바이스 환경에서의 활용 가능성으로 기대를 모았다.

* eSSD(Enterprise Solid State Drive): 서버나 데이터센터에 탑재되는 기업용 SSD
* cSSD(Client Solid State Drive): PC, 태블릿 등 개인용 전자기기에 탑재되는 소비자용 SSD
* 셀(Cell)에 저장 가능한 비트(Bit) 단위에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음
* PCIe(Peripheral Component Interconnect express): 디지털 기기의 메인보드에서 사용하는 직렬 구조의 고속 입출력 인터페이스

한편, SK하이닉스 박정원 TL, 이교영 TL(SSD제품기획)은 ‘Key Things for AI Storage(AI 스토리지를 위한 핵심 과제)’를 주제로 발표를 진행했다. 이를 통해 AI 성능의 핵심인 cSSD 및 eSSD의 특징과 제품 라인업을 소개하고, 다가올 AI 시대에 요구되는 스토리지 기술과 이에 따른 시장 전망을 제시해 현장 참석자들의 높은 호응을 이끌었다.

SK하이닉스는 “이번 행사를 통해 델 테크놀로지스와의 파트너십을 강화하고, 자사의 풀스택 AI 메모리 프로바이더로서의 위상을 대외 알릴 수 있었다”며, “앞으로도 AI 서버, 데이터센터, 온디바이스 등 다양한 분야에서 혁신적인 메모리 설루션을 지속 선보일 계획”이라고 말했다.

]]>
SK하이닉스, ‘FMS 2025’에서 AI·스토리지 미래 그려내… 혁신 기술 집중 조명 /fms-2025/ Fri, 08 Aug 2025 07:40:25 +0000 /?p=51560

▲ FMS 2025 SK하이닉스 부스 전경

SK하이닉스가 지난 5일부터 7일까지(미국시간) 3일간 미국 캘리포니아주 산타 클라라(Santa Clara)에서 열린 FMS(Future of Memory and Storage) 2025에 참가해 D램 및 낸드 제품과 AI 메모리 설루션을 선보이며 글로벌 메모리 시장에서의 리더십을 재확인했다.

올해로 19주년을 맞이한 FMS는 기존 Flash Memory Summit(플래시 메모리 서밋)에서 AI 시대에 발맞춰 지난해부터 행사명을 the Future of Memory and Storage(미래 메모리 및 저장장치, 이하 FMS)로 새롭게 정의하고, D램을 포함한 메모리 및 스토리지 전 영역으로 분야를 확대했다.

SK하이닉스는 ‘풀스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)’로서 차세대 AI 혁신을 이끌 다양한 메모리 제품과 미래 기술을 선보였다. 특히, 기조연설과 발표 세션, 부스 전시를 유기적으로 연계하여 회사의 메모리 및 스토리지 설루션을 효과적으로 알리고, 글로벌 파트너사들이 SK하이닉스의 선도적인 기술 리더십을 직접 체감할 수 있도록 하며 교류를 한층 강화했다.

AI 시대를 겨냥한 메모리 라인업 총출동

이번 행사에서 SK하이닉스는 D램과 낸드 전 영역에서 글로벌 AI 메모리 시장을 이끌 차세대 제품을 대거 전시했다. 업계 최초로 주요 고객사들에 샘플을 공급한 ▲HBM4 12단을 비롯해 ▲LPDDR5X ▲CMM(CXL* Memory Module)-DDR5 ▲3DS* RDIMM ▲Tall MRDIMM* 등의 차세대 D램 14종과 176단 4D 낸드 기반의 데이터센터 eSSD인 ▲PS1010 E3.S, 238단 4D 낸드 기반의 ▲PEB110 E1.S는 물론, 회사의 첫 QLC* PC 향 SSD인 PQC21 및 최고 용량 데이터센터 eSSD 245TB PS1101 E3.L를 새롭게 선보이는 등 총 19종의 낸드 설루션 제품들도 만나볼 수 있었다.

* CXL(Compute Express Link): 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스
* 3DS(3D Stacked Memory): 2개 이상의 D램칩을 TSV(수직관통전극)로 연결해 패키징을 완료한 고대역폭 메모리 제품
* MRDIMM(Multiplexed Rank Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품으로, 모듈의 기본 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품
* QLC: 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개)-PLC(Penta Level Cell, 5개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음

▲ SK하이닉스가 전시한 CMM-DDR5 데모

SK하이닉스는 제품 전시와 함께 성능 시연을 진행하며, 회사의 앞선 기술력과 차별성을 현장에서 생생하게 보여주었다. 먼저, 기존의 기본 서버 시스템을 기반으로 최대 50% 확장된 용량과 30% 향상된 메모리 대역폭을 제공하는 CMM-DDR5가 장착된 Intel Xeon 6 시연을 통해 실제 운용 환경에서의 활용 가능성과 시스템 확장성을 동시에 보여주었으며, 기존 단일 메모리 구성에 비해 성능과 비용 효율 측면에서 뛰어난 경쟁력을 갖추고 있음을 강조했다.

SK하이닉스는 미국 로스앨러모스 국립연구소*와 HPC 환경에서의 데이터 분석 성능 향상을 위한 차세대 스토리지 기술을 공동 연구하고 있다. 이번 데모에서는 데이터를 스스로 인지하고 분석 처리할 수 있는 Data-aware CSD* 기반의 Computational Storage(OASIS)를 개발해 실제 HPC 워크로드를 통해 데이터 분석 성능이 향상되는 효과를 시연하면서 관람객들의 큰 주목을 받았다.

* 로스앨러모스 국립연구소(Los Alamos National Laboratory, LANL): 미국 에너지부 산하 국립연구소이며, 국가 안보와 핵융합 분야를 비롯해 우주 탐사 등 다양한 연구를 수행한다. 특히, 2차 세계대전 당시 맨해튼 프로젝트에 참여해 세계 최초로 핵무기를 개발한 곳으로 알려짐
* CSD(Computational Storage Drive): 데이터를 직접 연산하는 저장장치

이번 데모에서는 SK하이닉스의 PIM* 제품군도 직접 확인할 수 있었다. 초당 16Gb(기가비트)의 속도로 데이터를 처리하는 GDDR6에 연산기능이 추가된 ▲GDDR6-AiM은 CPU/GPU와 함께 사용할 경우, 특정 조건에서 연산 속도가 최대 16배 이상 향상되는 제품이다. 또한 가속기 카드인 ▲AiMX*는 연산 처리 속도를 가속화하고 전력 소모를 줄여 대용량 데이터를 효율적으로 처리할 수 있는 고성능 저전력 설루션 제품이다.

* PIM(Processing-In-Memory): 메모리 반도체에 연산 기능을 더해 인공지능(AI)과 빅데이터 처리 분야에서 데이터 이동 정체 문제를 풀 수 있는 차세대 기술
* AiMX(AiM based Accelerator): GDDR6-AiM 칩을 사용해 대규모 언어 모델(Large Language Model, 대량의 텍스트 데이터로 학습하는 인공지능으로 챗GPT가 이에 해당)에 특화된 SK하이닉스의 가속기 카드 제품

▲ CXL Pooled Memory 설루션을 활용해 시연 중인 Memory Centric AI Machine 데모

마지막으로 Memory Centric AI Machine 데모에서는 Pooled Memory*를 활용하여 복수의 서버와 GPU들을 연결한 분산 LLM 추론 시스템을 선보였다. 네트워크 통신을 이용하는 LLM 추론 시스템 대비 CXL Pooled Memory 기반 데이터 통신을 사용할 경우 LLM 추론 시스템의 성능이 대폭 향상될 수 있음을 입증했다.

* Pooled Memory: 여러 개의 CXL 메모리를 묶어 풀(Pool)을 만들어 여러 호스트가 효과적으로 용량을 나누어 사용하여 전반적인 메모리 사용률을 높이는 기술

FMS 2025의 주요 연사로 참여해 차세대 AI 인프라 리더십 강조

SK하이닉스는 기조연설과 Executive AI 특별패널 참여 그리고 총 13번의 세션 발표 등 FMS 2025의 주요 연사로 참여해 차세대 AI 메모리 시장을 이끄는 글로벌 리더의 면모를 보여줬다.

SK하이닉스 김천성 부사장(eSSD PD 담당)과 최준용 부사장(HBM사업기획 담당)은 ‘Where AI begins: Full-Stack Memory Redefining the future’라는 주제로 기조연설을 진행했다. 김천성 부사장은 이번 기조연설에서 “AI 산업이 AI 학습에서 AI 추론으로 빠르게 전환됨에 따라 메모리 기술의 진화가 필수적”이라고 전하며 “SK하이닉스의 스토리지 설루션은 AI 추론 시나리오에서 데이터 집약적인 워크로드에 빠르고 안정적으로 액세스할 수 있도록 설계되어 있다”고 설명했다.

이어 최준용 부사장은 “높은 대역폭과 낮은 전력 소모라는 구조적 장점을 갖춘 HBM은 고객들의 다양한 요구를 충족할 수 있다”라며, “AI 시스템의 확장성과 TCO를 형성하는 두 가지 핵심 요소인 성능과 전력 효율성을 충족하기 위해 다양한 AI 환경에 최적화된 포괄적인 메모리 포트폴리오를 제공할 것”이라고 전했다.

3일간 이어진 세션 발표에서는 회사의 구성원들이 주요 강연자로 참석해 메모리 기술과 인프라 확장, 비휘발성 및 고효율 메모리 기술, AI 인프라와 LLM 학습 최적화, 데이터 분석 및 거버넌스, AI 기반 인재 관리 등에 대해 발표하며 차세대 AI 시장에 대한 인사이트를 공유했다.

또한, SK하이닉스 강선국 부사장(미주DRAM기술 담당)은 NVIDIA가 주관한 Memory and Storage Scaling for AI Inferencing에 대한 특별패널 토론에 참여해 AI 기술 동향과 산업 간 협력 방안에 대해 깊이 있게 논의했다. 그는 “AI 학습에는 원시 대역폭이 중요하지만, AI 추론에는 이를 넘어선 지능형 메모리와 스토리지 설루션이 필요하다”며, 초고성능 네트워킹과 스마트 메모리 기술이 AI 추론 처리량을 획기적으로 높일 수 있다고 강조했다.

이번 행사를 통해 SK하이닉스는 혁신적인 제품들을 다양하게 선보이며, 메모리 및 스토리지 분야에서의 뛰어난 기술 역량을 널리 알렸다. 앞으로도 AI 시대의 변화하는 요구에 부응하여 끊임없는 연구개발을 이어가고, D램과 낸드 전 영역에서 독보적인 AI 메모리 리더로서의 입지를 더욱 확고히 다져 나갈 계획이다.

]]>
[세미의 시대 1편] 당신의 질문 하나가 데이터센터를 더 뜨겁게 만든다면? /the-semiconductor-era-ep1/ Thu, 17 Jul 2025 00:00:21 +0000 /?p=50954

0과 1로 움직이는 디지털 세상 속에서 ‘반도체가 이끄는 산업의 현재와 미래’를 조망하는 다큐멘터리 시리즈, [세미의 시대; 세상을 설계하는 작은 조각]을 새롭게 선보입니다.
SK하이닉스 뉴스룸이 깊이 있게 준비한 이번 시리즈에서는 산업별 최신 이슈를 심층적으로 분석하고, 전문가와 함께 해법 및 발전 방향을 모색합니다. 이 과정에서 작지만 혁신적인 반도체 기술이 어떤 돌파구를 제시하는지도 살펴봅니다. 1편에서는 AI 데이터센터가 불러온 기후위기의 실태를 짚어보고, 그 해결책으로 주목받는 반도체 기술을 조명합니다.

“챗GPT(ChatGPT)에 ‘고맙다’는 말을 자제해 주세요.”
– 샘 올트먼(Samuel H. Altman) 오픈AI 최고경영자

모든 것을 알고 있고 무엇이든 답하는 생성형 AI이지만, 유독 ‘인사’만은 자제 해달라고 당부한다. 우리가 AI에게 건네는 짧은 인사 한마디가 전력 소비를 증가시키고 지구를 더 뜨겁게 만들어 기후위기를 앞당기고 있기 때문이다. AI를 쓰면 쓸수록 지구가 뜨거워진다는 역설적인 현실 속에서 뉴스룸은 AI가 환경에 미치는 영향을 구조적으로 살펴보고 해결책을 모색해 봤다.

급증하는 데이터센터 전력 소비… 원인은 ‘AI 서버’

지난 2023년 챗GPT의 등장과 함께 생성형 AI가 확산되면서 일상과 산업 전반은 큰 변화를 맞았다. 가장 큰 영향을 받은 분야는 ‘데이터센터(Data Center)’였다. AI 서비스가 급증하면서 AI 연산량도 기하급수적으로 늘었는데, 이로 인해 전력 소비와 탄소 배출도 급격히 증가했다.

국제에너지기구(IEA) 보고서(Energy and AI, 2025)에 따르면, 2024년 전 세계 데이터센터 전력 소비량은 약 415TWh(테라와트시)에 달할 것으로 추정된다. 이는 주행거리 약 500km의 전기차 55억 대를 충전할 수 있는 막대한 양이다. 더 심각한 문제는 이 수치가 앞으로 더욱 증가한다는 사실이다. IEA는 2030년 데이터센터 전력 소비량이 약 945TWh를 기록할 것으로 전망했다.

▲ 이병훈 교수(포스텍 반도체공학과)가 AI 서버의 전력 소비량에 관해 설명하고 있다.

원인은 AI 연산을 담당하는 가속 서버(Accelerated Server), 즉 AI 서버에 있다. 이 서버의 GPU는 CPU 기반의 일반 서버보다 월등히 많은 전력을 소비한다. 이병훈 교수(포스텍 반도체공학과)는 “AI 서버는 일반 서버보다 약 7~8배 많은 전력을 사용하며, 특히 CPU 중심의 AI 연산 과정에서 막대한 전력이 소모된다”고 설명했다.

데이터센터 전력 소비의 상당 부분을 AI 서버가 차지한다는 사실은 IEA 보고서에서도 엿볼 수 있다. IEA에 따르면 2030년 AI 서버의 전력 소비량은 약 300TWh에 이를 전망이다. 이는 전체 소비량의 약 1/3에 해당한다. 정리하자면 AI 활용이 늘수록 AI 서버의 전력 소비량과 탄소 배출도 급격히 증가할 수밖에 없는 것이다.

탄소 배출과 기후변화 우려… 다각적 해결책 필요

정수종 교수(서울대학교 기후테크센터 센터장)는 “2030년 데이터센터 전력 소비량인 945TWh는 일본 전체 전력 소비량과 비슷한 수준”이라며 “이러한 데이터센터 전력 소비로 인해 약 25억 톤의 탄소가 배출될 가능성이 있다”고 경고했다.

▲ 정수종 교수(서울대 기후테크센터 센터장)가 AI 데이터센터의 탄소 배출 문제를 지적하고 있다.

데이터센터에서 촉발된 기후변화 원인 물질이 지구온난화를 가속화해 다양한 부작용을 초래할 수 있다는 게 그의 설명이다.

하지만 AI 발전을 멈출 수 없기에 전문가들은 탄소 배출 최소화를 위한 다각적 해결책을 모색해야 한다고 입을 모은다. IEA에 따르면 AI 기반 에너지 관리와 워크로드 스케줄링 등 소프트웨어 최적화만으로도 최대 15%의 에너지를 절약할 수 있다. 또 데이터센터 효율 개선, 친환경 재생에너지 활용, 소형모듈원자로* 및 탄소포집* 등 새로운 대체 에너지 개발도 검토되고 있다.

* 소형모듈원자로(Small Modular Reactor, SMR): 기존 원전보다 작고 모듈 형태로 제작해 현장에 설치할 수 있으며, 이산화탄소 직접 배출이 없는 친환경 에너지원
탄소포집(Carbon Capture Utilization and Storage, CCUS): 발전소나 산업시설에서 나오는 이산화탄소를 포집해 지하 저장하거나 재활용하는 기술

근본적인 해결책은 반도체 기술 혁신이다. 데이터센터 주요 전력 소모원이 AI 서버인 만큼, 이 서버의 핵심 부품인 반도체의 성능과 효율을 높이는 것은 가장 효과적인 해결책일 수밖에 없다. 관련해 이병훈 교수는 “새로운 반도체 기술로 전력 소모를 기존 대비 1/100 수준까지 줄이는 연구가 진행 중”이라며 “데이터 이동량 감소를 위한 새로운 아키텍처도 고려되고 있다”고 밝혔다.

SK하이닉스, AI 메모리 기술로 데이터센터 전력 문제 해결

SK하이닉스 역시 데이터센터의 전력 효율을 높이기 위해 다양한 AI 메모리를 개발하고 있다.

고대역폭 메모리 HBM(High Bandwidth Memory)에는 어드밴스드 MR-MUF* 기술을 적용해 방열성과 안정성을 높였다. 최근에는 베이스다이(Base Die) 성능과 전력 효율을 개선한 HBM4 샘플도 선보였다.

전력 소모를 줄여주는 AI 데이터센터용 고용량 eSSD(기업용 SSD) 개발도 지속적으로 이뤄지고 있다. QLC* 기반 PS1012는 제한된 공간에 더 많은 데이터를 담고, 빠른 전송 속도로 AI 학습 시간을 줄여 전력 소비를 낮추는 데 기여할 수 있다.

저전력 D램 기반의 AI 서버 특화 메모리 모듈 SOCAMM*도 개발 중이다. 기존 서버용 메모리 대비 작은 폼팩터를 갖춘 이 제품은 AI 데이터센터의 에너지 효율을 높이는 데 기여할 것으로 기대된다.

이와 같이 SK하이닉스는 다양한 고효율 메모리 기술을 개발하며, 데이터센터 문제에 직접적인 해법을 제시하는 중이다.

* 어드밴스드(Advanced) MR-MUF: 기존 칩 두께 대비 40% 얇은 칩을 휘어짐 없이 적층할 수 있는 칩 제어 기술(Warpage Control)이 적용되었으며, 신규 보호재를 통해 방열 특성까지 향상된 차세대 MR-MUF 기술
* QLC: 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개)-PLC(Penta Level Cell, 5개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음
* SOCAMM(Small Outline Compression Attached Memory Module): 기존의 서버용 메모리 모듈보다 더 작은 폼팩터를 가지면서 전력 효율이 높은 저전력 D램 기반의 AI 서버 특화 메모리 모듈

AI 메모리 기술과 함께 AI의 발전은 앞으로도 계속될 전망이다. 투자 또한 계속된다. 스타게이트 사(社)는 2029년까지 수 GW(기가와트)급 데이터센터를 건설할 계획이며, 대만도 엔비디아와 협력해 AI 데이터센터를 건립한다고 밝혔다. 한국의 경우 SK가 AWS와 협력해 울산에 100MW(메가와트)급 친환경 AI 데이터센터를 건설하며, 장기적으로 1GW 규모로 확대한다는 계획이다.

이처럼 세계 곳곳에서 데이터센터의 수가 빠르게 증가하는 가운데, AI의 발전 속도는 결국 얼마나 효율적으로 에너지를 관리하느냐에 달려 있다고 해도 과언이 아니다. 어쩌면 그 시작은 작은 반도체 칩 하나에 달려 있을지도 모른다.

]]>
SK하이닉스, ‘HPE Discover 2025’ 참가… AI 시대를 선도할 서버 및 스토리지 기술 전략 선봬 /hpediscover-2025/ Thu, 26 Jun 2025 05:00:41 +0000 /?p=49797

SK하이닉스가 6월 23일부터 26일까지(미국시간) 미국 라스베이거스에서 열린 ‘HPE Discover 2025’(이하 HPED)에 참가해 인공지능(AI) 시대를 선도할 기술 로드맵과 서비스 전략, AI 클라우드 비전을 공유했다.

HPED는 HPE(Hewlett Packard Enterprise) 사(社)가 매년 개최하는 글로벌 기술 컨퍼런스다. 올해는 ‘AI is here. Unlock what’s next(AI와 함께 다음의 가능성을 열다).’라는 슬로건 아래 AI 시대의 본격적인 개막과 그 이후의 가능성에 관해 집중 조명했다. 행사에서는 Tech Academy, AI Developer Workshop 등의 실습 교육과 기술 발표 세션, 데모와 전시가 어우러진 실무 중심의 네트워크 프로그램 등이 다채롭게 진행됐다.

SK하이닉스는 AI 인프라 구현의 핵심이 되는 차세대 AI 메모리 기술과 서버 및 스토리지 설루션을 중심으로 다양한 전시와 발표를 진행하며 회사의 기술 리더십을 적극 소개했다. SK하이닉스의 전시 부스는 ▲HBM* ▲Server DIMM* ▲eSSD* ▲CMM(CXL* Memory Module)-DDR5 등 총 네 개 섹션으로 구성됐다. 각 섹션에는 주요 제품 및 설루션을 직관적으로 전달하는 홍보 키오스크가 마련됐다. 또한, 자사 제품 캐릭터를 활용한 부스 디자인으로 관람객들의 이목을 집중시켰다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨
* DIMM(Dual In-line Memory Module): 서버와 같은 컴퓨팅 시스템에 장착되는 표준 메모리 모듈로, 전송 속도와 용량, 구조적 설계에 따라 다양한 형태로 분류
* eSSD(Enterprise Solid State Drive): 서버나 데이터센터에 탑재되는 기업용 SSD
* CXL(Compute Express Link): 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스. 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있음

HBM 섹션에서는 ‘HBM4 12단’과 ‘HBM3E 12단’을 공개했다. HBM4는 AI 메모리에 요구되는 세계 최고 수준의 속도인 초당 2TB(테라바이트) 이상의 데이터를 처리하는 제품으로, 회사는 최근 업계 최초로 주요 고객사에 해당 제품 샘플을 공급하며 AI 메모리 기술 리더십을 다시 한번 증명한 바 있다[관련기사].

HBM3E는 현존하는 HBM 제품 가운데 최대 용량인 36GB를 구현한 제품이다. 방대한 데이터 처리를 위한 고용량 메모리 수요가 증가함에 따라, 회사는 지난해 9월 업계 최초로 HBM3E 12단 양산에 돌입했다[관련기사]. SK하이닉스는 HBM3E의 공급을 본격 확대하는 한편, HBM4 역시 고객 수요에 맞춰 적기에 개발·제공함으로써 글로벌 고객사들과의 파트너십을 더욱 강화해 나간다는 계획이다.

Server DIMM 섹션에서는 차세대 서버 시장을 겨냥한 DDR5 D램 기반의 메모리 모듈 라인업을 소개했다. 특히, 10나노(nm)급 6세대(1c)* 미세공정 기술을 적용한 RDIMM*, MRDIMM* 등 다양한 폼팩터의 제품이 전시돼 눈길을 끌었다. 이 중 DDR5 TALL MRDIMM은 고용량 구현을 위해 일반 MRDIMM 대비 높아진 물리적 폼팩터를 적용한 제품이다. 최대 256GB 용량과 12.8Gbps 속도를 지원하며, 고밀도 서버 환경에 대응하는 차세대 설루션으로 주목받고 있다. 또한, 저전력·고성능 구현이 가능한 LPDDR5X 기반의 고집적 메모리 모듈 SOCAMM도 함께 선보이며, 고성능 컴퓨팅(HPC) 및 AI 워크로드에 최적화된 메모리 포트폴리오를 강조했다.

* 10나노(nm)급 D램 공정 기술은 1x(1세대)-1y(2세대)-1z(3세대)-1a(4세대)-1b(5세대)-1c(6세대) 순으로 개발되어 왔으며, SK하이닉스는 2024년 8월 세계 최초로 1c 기술 개발에 성공했다.

* RDIMM(Registered Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품

* MRDIMM(Multiplexed Rank Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품으로, 모듈의 기본 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품

eSSD 섹션에서는 PS1010, PE1010, PE9010, SE5110 등의 기업용 SSD 라인업을 통해 다양한 서버 환경과 성능 요구를 충족할 수 있는 폭넓은 제품군을 공개했다. 또한, HPE ProLiant 서버에 PS1010을 탑재한 데모를 통해 실제 운용 환경에서의 성능과 안정성을 입증하고, HPE와의 견고한 파트너십을 강조했다. PS1010은 176단 4D NAND 기반의 고성능 eSSD로, PCIe* 5.0 인터페이스를 지원하며 AI 연산과 데이터센터 환경에 최적화된 설루션이다.

* PCIe(Peripheral Component Interconnect express): 디지털 기기의 메인보드에서 사용하는 직렬 구조의 고속 입출력 인터페이스

CMM-DDR5 섹션에서는 CXL 기반 메모리 모듈의 확장성과 효율성을 부각했다. CMM-DDR5는 기존 구성 대비 최대 50% 확장된 용량과 30% 향상된 메모리 대역폭을 제공한다. 회사는 CMM-DDR5가 탑재된 인텔 GNR-SP 플랫폼 서버를 통해 실제 운용 환경에서의 적용 가능성과 시스템 확장성을 함께 제시했으며, 기존 메모리 단독 구성 대비 성능과 비용 효율 측면 모두에서 경쟁력이 높다는 점을 강조했다[관련기사].

한편, SK하이닉스는 이번 행사에서 CXL 및 eSSD를 주제로 총 2건의 발표를 진행했다. 이 중 Breakout 세션에서는 HPE와의 공동 발표를 통해 파트너십 기반 기술 협력 사례를 소개했다. ‘Empowering AI and Enterprise Storage: SK hynix’s Readiness for AI workload(AI 시대를 위한 eSSD의 혁신: AI워크로드에 대응하는 SK하이닉스)’를 주제로, SK하이닉스의 김학인 TL(NAND TP), 애니윤(Annie Yuan) TL(NAND TP)과 HPE의 Erik Grigson이 공동 발표자로 참여해, 엔터프라이즈 스토리지 환경에서의 AI 워크로드 대응 전략과 eSSD의 기술적 차별성을 공유했다.

Theater 세션에서는 김병율 TL(DRAM solution)과 산토스 쿠마르(Santosh Kumar) TL(DRAM TP)이 ‘CXL Memory Usage Model and Next CMM Proposal(CXL 메모리 활용 모델 및 차세대 CMM 제안)’을 주제로 발표를 진행했으며, 실제 활용 가능한 CXL 메모리 모델과 CMM-DDR5의 발전 방향에 대해 설명했다.

SK하이닉스는 “AI 인프라 확산 속도가 빨라지는 가운데, 고성능 메모리와 스토리지가 핵심 설루션으로 자리잡고 있다”며 “앞으로도 HPE 등 글로벌 파트너와의 협력을 바탕으로 시장 요구에 선제적으로 대응하며, 메모리 기반의 AI 인프라 혁신을 가속화해 나가겠다”라고 밝혔다.

]]>
SK하이닉스, DTW 25에서 AI·서버 시장 공략할 핵심 AI 메모리 선보이다 /dtw-25/ Thu, 22 May 2025 05:00:37 +0000 /?p=48104

SK하이닉스가 19일(미국시간)부터 나흘간 미국 라스베이거스에서 열린 DTW 25(Dell Technologies World 2025)에 참가해 AI 서버 및 PC에 최적화된 메모리 설루션을 선보였다.

DTW는 미국 전자기업 델 테크놀로지스(Dell Technologies, 이하 델)가 주최하는 컨퍼런스로, 미래 기술 트렌드를 한눈에 확인할 수 있는 자리다. ‘아이디어로부터 혁신을 가속하다(Accelerate from ideas to Innovation)’를 주제로 열린 올해 행사에서는 AI 혁신을 이끌어낼 다양한 제품과 기술이 공유됐다.

▲ SK하이닉스 부스에 방문한 많은 관람객들

SK하이닉스는 델 사(社)와 긴밀한 협력 관계를 바탕으로, AI 리더십을 굳건히 하고자 매년 이 행사에 참여하고 있다. 올해 회사는 ▲HBM* ▲CMM(CXL* Memory Module)-DDR5 ▲서버 D램 ▲PC D램 ▲eSSD* ▲cSSD* 등 6개 섹션으로 부스를 꾸리고, D램(DRAM)과 낸드플래시(NAND flash) 전 영역에서 독보적 경쟁력을 갖춘 제품들을 소개했다. 특히 AI 서버와 스토리지, PC 시장을 총망라한 제품으로 부스를 구성해 많은 관객의 호응을 이끌었다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨
* CXL(Compute Express Link): 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스. 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있음
* eSSD(Enterprise Solid State Drive): 서버나 데이터센터에 탑재되는 기업용 SSD
* cSSD(Client Solid State Drive): PC, 태블릿 등 개인용 전자기기에 탑재되는 소비자용 SSD

HBM 섹션에서는 초당 2TB(테라바이트) 이상의 데이터를 처리하며, AI 메모리에 요구되는 세계 최고 수준의 속도를 구현한 ‘HBM4 12단’, 현존 최고 성능 및 용량을 갖춘 ‘HBM3E 12단’을 공개했다. 이중 HBM4는 베이스 다이(Base Die) 성능을 개선하고 전력 소모를 줄이는 방향으로 개발 중인 차세대 HBM으로, 최근 회사는 세계 최초로 주요 고객사에 샘플을 제공하며 AI 메모리 리더십을 다시 한번 증명한 바 있다[관련기사].

이번 전시에서 회사는 HBM3E를 엔비디아(NVIDIA)의 최신 GPU(블랙웰) 모듈인 ‘B100’과 함께 전시하며 글로벌 고객사들과의 견고한 파트너십 또한 강조했다.

CMM-DDR5 섹션에서는 96/128GB(기가바이트) 고용량의 ‘CMM-DDR5’를 만나볼 수 있었다. 이 제품은 CXL 기술을 적용한 DDR5 메모리 모듈로, 기존 구성 대비 50% 확장된 용량과 30% 늘어난 대역폭을 자랑한다. 전시에서는 영상 데모 시연도 진행됐는데, 주요 CPU 제조사의 서버용 프로세서가 장착된 시스템에서 용량 확장의 한계를 돌파하면서도 안정적인 성능을 보여주며 많은 관객의 이목을 집중시켰다.

서버 D램 섹션에서는 DDR5 D램 기반의 서버용 모듈 라인업이 관객을 맞았다. 현장에서는 10나노(nm)급 6세대(1c)* 미세공정 기술이 적용된 ‘1c DDR5 RDIMM* 및 MRDIMM*’이 눈길을 끌었다. 이외에도 회사는 ‘DDR5 RDIMM(96GB)’, ‘3DS* DDR5 RDIMM(256GB)’, ‘DDR5 MRDIMM(96GB, 256GB)’ 등 AI 서버 성능을 극대화하고, 전략 소모를 줄여줄 D램 제품을 다수 선보였다.

* 10나노(nm)급 D램 공정 기술은 1x(1세대)-1y(2세대)-1z(3세대)-1a(4세대)-1b(5세대)-1c(6세대) 순으로 개발되어 왔으며, SK하이닉스는 2024년 8월 세계 최초로 1c 기술 개발에 성공했다.
* RDIMM(Registered Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품
* MRDIMM(Multiplexed Rank Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품으로, 모듈의 기본 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품
* 3DS(3D Stacked Memory): 2개 이상의 D램칩을 TSV(수직관통전극)로 연결해 패키징을 완료한 고대역폭 메모리 제품

PC D램 섹션에서는 LPDDR5X* 여러 개를 하나의 모듈로 묶어 저전력·고성능을 구현한 ‘LPCAMM2’, 세계 최고 사양의 그래픽 메모리 ‘GDDR7’ 등 온디바이스 AI 시장에서 활약할 SK하이닉스의 주력 D램 제품을 확인할 수 있었다.

* LPDDR5X: 스마트폰과 태블릿, 노트북 등 모바일용 제품에 들어가는 D램 규격으로, 전력 소모량을 최소화하기 위해 저전압 동작 특성을 갖고 있음. 규격 명에 LP(Low Power)가 붙으며, 최신 규격은 LPDDR 7세대(5X)로 1-2-3-4-4X-5-5X 순으로 개발됨. LPDDR5T는 SK하이닉스가 최초 개발한 버전으로, 8세대 LPDDR6가 업계에 공식 출시되기 전 7세대인 LPDDR5X의 성능을 업그레이드한 제품

eSSD/cSSD 섹션에서는 차세대 낸드 제품이 대거 공개됐다. 특히 회사는 ‘PS1010’을 장착한 델 서버 시스템(R7625)을 선보였다. PCIe* 5세대 eSSD 제품인 PS1010은 176단 4D 낸드를 다수 결합해 만든 패키지 제품으로, 데이터 사용이 많은 AI 구동 및 데이터센터에 최적화됐다고 회사는 설명했다.

이밖에 ‘PS1012’, ‘PCB01’ 등도 AI 서버 및 PC 시장을 이끌 SSD로 소개됐다. 61TB 대용량을 자랑하는 PS1012는 PCIe 5세대/QLC* 기반의 eSSD로, 급격히 증가한 고용량 eSSD 수요에 대응할 제품으로 주목받고 있다.

* PCIe(Peripheral Component Interconnect express): 디지털 기기의 메인보드에서 사용하는 직렬 구조의 고속 입출력 인터페이스
* 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개)-PLC(Penta Level Cell, 5개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음

PCB01은 초당 14GB 연속 읽기, 초당 12GB 연속 쓰기 속도를 자랑하는 cSSD 제품으로, 이번 전시에서는 데모 시연도 살펴볼 수 있었다. 인텔 PC용 프로세서가 장착된 데스크톱 환경에서 뛰어난 성능과 호환성을 보여준 이 제품은 AI PC 등 온디바이스 AI 시장에서 활약할 것으로 기대를 모으고 있다.

한편, SK하이닉스는 발표 세션을 통해 AI 메모리 및 차세대 기술에 대한 인사이트를 공유하기도 했다. 이교영, 박정원 TL(SSD제품기획)은 ‘AI 스토리지에서 고려해야 할 것(Key things to consider for your AI storage)’을 주제로 발표를 진행했고, 산토시 쿠마르(Santosh Kumar) TL(DRAM TP)은 ‘AI 시대에 CMM 제품이 필요한 이유(Why do we need CMM device in AI era?)’란 주제로 CMM 제품의 미래가치를 강조했다.

SK하이닉스는 “DTW 25를 통해 AI 서버와 PC는 물론 산업 전반에서 AI 메모리 및 스토리지에 대한 수요가 빠르게 증가하고 있음을 확인했다”며 “앞으로도 고객과의 원팀 파트너십을 바탕으로 기술 협업을 강화하고, 고성능·고품질 설루션을 적시에 제공해 나가겠다”고 밝혔다.

]]>
SK하이닉스, ‘COMPUTEX 2025’ 참가… HBM4와 AI 메모리 포트폴리오 공개 /computex-taipei-2025/ Thu, 22 May 2025 01:00:09 +0000 /?p=48099

▲ 컴퓨텍스 2025에 마련된 SK하이닉스 부스

SK하이닉스가 20일부터 23일까지 나흘간 대만 타이베이에서 열리는 ‘컴퓨텍스 타이베이 2025(COMPUTEX TAIPEI 2025, 이하 컴퓨텍스)’에 참가해 AI 서버·PC·모바일 등을 아우르는 폭넓은 제품 포트폴리오를 공개했다.

컴퓨텍스는 글로벌 IT 기업이 모여 최신 기술과 설루션을 소개하는 아시아 최대 규모의 ICT 박람회로, AI, 데이터센터 등 주요 산업의 혁신 기술과 트렌드가 공유되는 자리다. ‘AI Next’를 주제로 열린 올해 행사에는 1,400여 기업이 참가해 AI와 로봇, 차세대 기술, 미래 모빌리티와 관련한 다양한 전시를 진행했다.

이번 행사에서 SK하이닉스는 ‘MEMORY, POWERING AI AND TOMORROW’를 슬로건으로 ▲HBM for AI ▲Data Center ▲Mobile/PC ▲Ethic & ESG 등 4개 섹션의 부스를 꾸리고 다양한 AI 메모리 설루션을 선보였다.

HBM for AI 섹션에서 SK하이닉스는 ‘HBM4* 12단’과 ‘HBM3E 12단’을 공개했다. 이와 함께 회사는 내년을 목표로 개발 중인 HBM4 16단의 로드맵을 제시했다. HBM4는 현존 최고 속도인 초당 2TB(테라바이트)가 특징인 차세대 HBM으로, 지난 3월 SK하이닉스는 12단 제품 샘플을 주요 고객사에 업계 최초로 공급했다[관련기사]. HBM과 로직(Logic) 반도체를 연결해주는 베이스 다이(Base-die) 성능 개선 및 전력 감축을 목표로 개발 중인 HBM4 12단은 올 하반기 양산에 들어갈 예정이라고 회사는 밝혔다.

이밖에도, SK하이닉스는 엔비디아의 AI 서버용 GPU 모듈인 GB200과 여기에 탑재되는 HBM3E 12단 36GB(기가바이트)를 함께 전시했다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨

Data Center 섹션에서는 AI 서버에 장착돼 성능을 극대화하고 전력 소모를 줄여줄 서버 D램 모듈과 eSSD(기업용 SSD) 제품이 공개됐다. 서버 D램 모듈로는 초당 8Gb(기가비트) 속도의 D램이 탑재된 64GB~256GB 용량의 ‘RDIMM*’ 라인업과 초당 12.8Gb 속도의 D램이 들어간 96GB~256GB 용량의 ‘MRDIMM*’ 제품군, 초당 7.5Gb 속도의 ‘LPDDR5X*’가 도입된 128GB 용량의 SOCAMM* 등이 소개됐다.

특히 SK하이닉스가 세계 최초로 개발한 10나노(nm)급 6세대(1c)* 미세공정 기술이 적용된 DDR5 기반 고성능 모듈이 많은 주목을 받았다고 회사는 설명했다.

* RDIMM(Registered Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품
* MRDIMM(Multiplexed Rank Dual In-line Memory Module): 모듈의 기본 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품
* LPDDR5X: 모바일용 저전력 D램 규격인 LPDDR의 7세대(5X) 제품으로 1-2-3-4-4X-5-5X 순으로 개발됨
* SOCAMM(Small Outline Compression Attached Memory Module): 저전력 D램 기반의 AI 서버 특화 메모리 모듈
* 10나노(nm)급 D램 공정 기술은 1x(1세대)-1y(2세대)-1z(3세대)-1a(4세대)-1b(5세대)-1c(6세대) 순으로 개발되어 왔으며, SK하이닉스는 2024년 8월 세계 최초로 1c 기술 개발에 성공했다.

초고용량 스토리지 설루션인 eSSD 존에서는 0.5TB부터 최대 61TB에 이르기까지 다양한 용량의 제품들이 모습을 드러냈다. 특히 238단 4D 낸드 기반의 PCIe* 5세대 제품인 ‘PEB110’과 QLC* 기반 61TB의 고용량을 구현한 ‘PS1012’ 등이 AI 데이터센터에 최적화된 성능을 제공할 것이라고 회사는 강조했다.

* PCIe(Peripheral Component Interconnect express): 디지털 기기의 메인보드에서 사용하는 직렬 구조의 고속 입출력 인터페이스
* 낸드플래시 셀(Cell)에 몇 비트를 저장하는지에 따라 SLC(Single Level Cell, 1비트)-MLC(Multi Level Cell, 2비트)-TLC(Triple Level Cell, 3비트)-QLC(Quadruple Level Cell, 4비트)로 나뉨

Mobile/PC 섹션에서는 온디바이스 AI를 이끌 D램 및 낸드 제품이 관객들을 맞았다. 모바일용 제품으로는 초당 10.7Gb 속도의 저전력 D램 ‘LPDDR5X’, 238단 4D 낸드 기반의 스토리지 ‘UFS 4.1’ 등이 공개됐고, PC용 제품으로는 1c DDR5 D램 기반 ‘CSODIMM*’, LPDDR5X 여러 개를 모듈화한 ‘LPCAMM2*’, AI PC 등에 탑재되는 고성능 SSD ‘PCB01’, 단일 칩 기준으로 세계 최고 속도인 초당 28Gb의 그래픽 D램 ‘GDDR7’ 등이 소개됐다.

* CSODIMM(Compression SODIMM): PC에서 사용하는 초소형 모듈 ‘SODIMM(Small Outline DIMM)’을 기반으로 해 새롭게 만든 폼팩터. SODIMM 대비 고성능/고밀도를 구현할 수 있음
* LPCAMM2(Low-Power Compression Attached Memory Module): LPDDR5X 기반의 모듈 설루션 제품으로 기존 DDR5 SODIMM 2개를 LPCAMM2 1개로 대체하는 성능 효과를 가지면서 공간을 절약하고 저전력과 고성능 특성을 구현

또, SK하이닉스는 기가바이트(GIGABYTE), 에이수스(ASUS), 레노보(Lenovo) 등 글로벌 파트너사들의 하드웨어에 장착된 자사 D램 및 낸드 제품을 선보이며, 노트북부터 서버까지 폭넓은 수요에 대응할 수 있는 포트폴리오를 갖췄다고 설명했다.

이외에도 SK하이닉스는 Ethic & ESG 섹션에서 ‘2025년 세계에서 가장 윤리적인 기업(World’s Most Ethical Companies®)’에 선정된 사례를 들며, 글로벌 최고 수준의 윤리경영을 통해 이해관계자와 신뢰를 강화하고 있다고 강조했다[관련기사].

SK하이닉스는 “이번 행사에서 회사의 AI 메모리 리더로서의 인식을 높이고, 글로벌 기업과의 파트너십을 더 견고히 할 수 있었다”며 “AI 서버와 데이터센터는 물론, 온디바이스 AI 등 다양한 분야에서 고객과의 협업을 통해 최적의 제품을 적기에 공급, 풀스택 AI 메모리 프로바이더로서의 위상을 강화해나갈 것”이라고 말했다.

]]>
SK하이닉스, GTC 2025서 독보적인 AI 메모리 기술 리더십 선봬 /gtc-2025/ /gtc-2025/#respond Wed, 19 Mar 2025 07:00:22 +0000 /?p=45725

SK하이닉스가 3월 17일부터 21일(현지 시간)까지 미국 캘리포니아주 새너제이(San Jose)에서 열리는 ‘GTC(GPU Technology Conference) 2025’[관련링크]에 참가해, AI 시대를 선도하는 메모리 기술을 선보였다.

GTC는 엔비디아(NVIDIA)가 매년 개최하는 세계 최대 AI 전문 콘퍼런스다. 올해는 ‘What’s Next in AI Starts Here’라는 슬로건 아래 약 1,000개 이상의 세션과 300개 이상의 전시가 진행됐으며, AI 관련 최신 기술과 솔루션이 공유됐다.

이번 행사에서 SK하이닉스는 ‘Memory, Powering AI and Tomorrow(메모리가 불러올 AI의 내일)’라는 주제로 전시 부스를 운영하며 ▲AI/DC(Data Center) ▲HBM* ▲온디바이스(On-Device) ▲오토모티브(Automotive) 등 네 가지 주요 영역에서 AI 혁신을 가속하는 메모리 제품들을 소개했다. 특히, HBM 섹션에서는 현재 개발 중인 HBM4 12단 모형을 공개하며 압도적인 기술 우위를 선보였다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨

AI/DC 섹션에는 대규모 데이터 처리와 저장에 최적화된 기업용 SSD(Enterprise SSD, eSSD) ▲PEB110 ▲PS1010 ▲PE9010 등과 데이터센터용 DIMM* 제품인 ▲DDR5 RDIMM과 ▲MRDIMM, 세계 최고 사양의 그래픽 메모리 ▲GDDR7이 전시됐다. 또한, DDR5 기반의 CXL* 제품인 ▲CMM-DDR5과 AI 서버용 저전력 D램 모듈인 ▲SOCAMM* 등 차세대 AI 메모리도 함께 선보여 눈길을 끌었다. 회사는 LPDDR5X와 서버용 메모리 시장에서의 경쟁력을 바탕으로 SOCAMM 시장이 개화하는 시기에 맞춰 양산을 시작해 AI 메모리 포트폴리오를 확대해 나갈 계획이다.

* DIMM(Dual In-line Memory Module): 여러 개의 D램이 기판에 결합한 모듈
* CXL(Compute Express Link): 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스. 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있음
* SOCAMM(Small Outline Compression Attached Memory Module): 기존의 서버용 메모리 모듈보다 더 작은 폼팩터를 가지면서 전력 효율이 높은 LPDDR5X 기반 차세대 메모리 모듈

HBM 섹션에서 가장 주목받은 제품은 단연 HBM4였다. 이번 행사에서 처음 공개된 SK하이닉스의 HBM4는 베이스 다이(Base Die) 성능을 대폭 개선하고, 전력 소모를 획기적으로 줄이는 방향으로 개발 중이다. 회사는 AI 메모리 솔루션인 HBM4를 선보이며 업계 선도적 위치를 더욱 공고히 할 것이라고 설명했다. 또한, 현존 최고 성능과 용량을 갖춘 HBM3E 12단 제품[관련기사]과 엔비디아의 ‘GB200 그레이스 블랙웰 슈퍼칩(GB200 Grace™ Blackwell Superchip)’을 함께 전시해 시장에서의 경쟁 우위를 증명했다.

온디바이스 섹션에는 디바이스 자체에서 데이터 처리와 AI 연산을 수행할 수 있도록 최적화된 ▲LPDDR6 ▲LPCAMM2 ▲PCB01 ▲ZUFS 4.0 등의 고성능·저전력 메모리 솔루션들이 소개됐다.

오토모티브 섹션에서는 ▲HBM2E ▲LPDDR5 ▲UFS 3.1 ▲Gen4 SSD 등의 차량용 메모리 솔루션을 선보이며, 자율주행 및 미래 모빌리티 시대를 앞당길 혁신 기술을 제시했다.

이번 행사에서는 오프라인 전시 부스와 함께 온라인 방문객들을 위한 버추얼 부스(Virtual Booth)도 마련됐다. [관련링크] 회사는 지난해 성과와 함께 서버 솔루션, PS1012, GDDR7, CMM-DDR5 등의 주요 제품 정보를 웹 브로슈어로 제공하고, HBM, 1c DDR5*, Automotive 등의 혁신 솔루션을 소개하는 영상을 공개해 방문객들이 SK하이닉스의 지속적인 기술 리더십을 확인할 수 있게 했다.

* 10나노급 6세대(1c) 미세공정을 적용한 16Gb(기가비트) DDR5 D램. 10나노급 D램 공정 기술은 1x-1y-1z-1a-1b 순으로 개발돼 1c는 6세대다. 2024년 8월 SK하이닉스가 세계 최초로 개발에 성공했다.

▲ AI시대 HBM의 중요성에 대해 발표 중인 박정수 TL(HBM상품기획)

회사는 전시 외에도 발표 세션을 통해 업계 관계자들과 인사이트를 공유했다. 박정수 TL(HBM상품기획)은 ‘High-Bandwidth Memory: Backbone of High Performance Computing and AI(HBM: 고성능 컴퓨팅 및 AI의 핵심)’라는 주제로 발표를 진행하며, HBM 기술의 발전과 SK하이닉스의 독보적인 리더십을 강조했다.

▲ SK하이닉스의 차량용 메모리에 대해 발표 중인 김기홍 TL(Mobility사업)

김기홍 TL(Mobility사업)은 온라인 세션을 통해 ‘Preparing for the Future: Automotive Memory and Storage requirements(미래 전략: 차량용 메모리 및 스토리지 요구 사항)’라는 주제로 자동차 산업에서의 메모리 및 스토리지 특성과 SK하이닉스의 전략을 소개했다.

SK하이닉스는 “AI 기술이 급속도로 발전하는 가운데, 메모리 솔루션의 중요성도 더욱 커지고 있다”며, “이번 GTC 2025에서 AI 시대를 위한 최적의 메모리 솔루션을 선보이며 원팀 파트너십을 바탕으로 글로벌 AI 기업들과의 협력을 더욱 강화할 것”이라고 밝혔다.

]]>
/gtc-2025/feed/ 0
[CES 2025 스케치] SK하이닉스, CES 2025에서 AI 인프라 혁신 기술 공개… ‘지속 가능한 미래’ 선도 /ces-2025-sketch/ /ces-2025-sketch/#respond Wed, 08 Jan 2025 00:00:59 +0000 /?p=45605

SK하이닉스가 1월 7일(이하 현지시간)부터 10일까지 나흘간 미국 라스베이거스에서 열린 세계 최대 IT/가전제품 전시회 ‘CES 2025(Consumer Electronics Show 2025)’에 참가했다.

올해 CES는 ‘연결하고, 해결하며, 발견하라: 뛰어들다(Connect, Solve, Discover: DIVE IN)’를 주제로 개최됐으며, 전 세계 글로벌 ICT 기업들의 기술력을 엿볼 수 있는 다양한 전시가 진행됐다.

SK하이닉스는 SK멤버사*와 함께 ‘혁신적인 AI 기술로 지속가능한 미래를 만든다(Innovative AI, Sustainable tomorrow)’를 주제로 전시관을 꾸미고, 지속가능한 미래를 위한 다양한 AI 메모리 기술력을 선보이며, SK의 미래 비전을 제시했다.

놀라운 기술력으로 CES 2025를 빛낸 SK 전시관(이하 SK관)을 함께 살펴보자.

* SK하이닉스, SK텔레콤, SKC, SK엔무브 등

지속가능한 미래, AI로 그리다

‘AI’와 ‘지속가능성’을 핵심 테마로 590여 평 규모의 전시관을 꾸민 SK는 AI 기술력을 활용해 개인의 생활과 공공 분야 서비스를 혁신하는 인프라 구축 모델을 선보이며, 지속가능한 미래를 만들겠다는 의지를 전시에 담아냈다.

SK관은 크게 ▲AI 데이터센터(Data Center, DC) ▲AI 서비스(Service) ▲AI 생태계(Eco-system)로 파트를 구성했다. 각 파트에서는 SK멤버사들의 최신 AI 기술과 AI를 활용한 다양한 서비스 및 시스템 등을 확인할 수 있었다.

SK관 외부에는 데이터의 최소 단위인 비트(bit)를 파도(Wave)처럼 형상화한 그래픽을 구현해 관람객들의 발길을 끌어모았다. 여기에는 데이터와 ICT 기술이 세상을 바꾸는 파도가 될 것이라는 의미를 담았다.

또한, AI 시대에서 핵심적인 역할을 하게 될 데이터센터를 형상화한 전시관에는 SK하이닉스의 AI 메모리 반도체를 비롯해 더욱 효율적이고 안정적인 데이터센터 운영을 위한 AI 솔루션들을 확인할 수 있었다.

우리가 일상생활에서 활용할 수 있는 다양한 AI 서비스와 함께, AI 전문 회사인 가우스랩스[관련기사]를 비롯해, SK멤버사들과 지속적인 협력 관계를 맺고 있는 글로벌 AI 파트너사(SGH, 람다, 앤트로픽, 퍼플렉시티 등)의 소식을 함께 전하기도 했다.

SK관을 방문한 관람객들은 “AI 구현을 위한 데이터센터 혁신 기술뿐만 아니라 AI 활용 방안 등에 대한 자세한 내용을 확인할 수 있어 유익했다”고 소감을 밝혔다.

혁신적인 AI 기술력 선보인 SK하이닉스

SK하이닉스는 이번 CES 2025에서 ▲AI 데이터센터와 ▲AI 서비스 파트에 최신 AI 메모리 반도체 제품을 전시했다. 회사는 이와 관련해 “AI를 활용해 지속가능한 미래를 실현하려는 SK의 비전에 적극 동참하며, 이번에 전시된 혁신적인 AI 메모리 반도체 제품들은 SK의 비전을 실현하는 데 큰 도움이 될 것”이라고 밝혔다.

1. 압도적 성능의 AI 메모리 반도체, 데이터센터를 혁신하다

AI 데이터센터 전시관에서 가장 먼저 눈길을 끄는 제품은 기업용 SSD(Enterprise SSD, 이하 eSSD)다. 대규모 데이터 처리와 저장에 최적화된 eSSD는 데이터센터의 핵심 구성요소로 최근, 데이터양이 기하급수적으로 증가하면서 중요성이 더 부각되고 있다.

이에, SK하이닉스는 176단 4D 낸드플래시(NAND Flash, 이하 낸드) 기반의 데이터센터 eSSD인 ▲PS1010 E3.S를 비롯해 ▲PE9010 M.2, 238단 4D 낸드 기반의 ▲PEB110 E1.S, QLC* 기반 61TB(테라바이트) 제품인 ▲PS1012 U.2* 등 압도적인 성능의 eSSD 제품을 선보였다.

* 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개)-PLC(Penta Level Cell, 5개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음
* U.2: SSD의 형태를 칭하는 폼팩터(FormFactor)의 일종으로 2.5인치 크기의 SSD로 주로 서버나 고성능 워크스테이션(Workstation)에서 사용됨. 대용량 저장과 높은 내구성이 특징

여기에는 자회사 솔리다임(Solidigm)이 작년 11월 개발한 ▲D5-P5336 122TB 제품도 포함됐다. 이 제품은 현존 최대 용량을 자랑하며, 높은 수준의 공간 및 전력 효율성까지 갖춰 AI 데이터센터 고객들로부터 큰 관심을 받았다.

고도화된 AI 구현을 지원하는 대용량 메모리 제품도 소개했다. SK하이닉스는 최근 AI 메모리 제품으로 많은 관심을 받는 HBM*의 최신 제품인 ▲16단 HBM3E를 공개했다. 이 제품은 1.2TB 이상의 대역폭과 48GB(기가바이트)의 용량을 갖춘 현존 최고 사양의 HBM으로 업계 관계자와 관람객으로부터 큰 관심과 호응을 얻었다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨. HBM3E는 HBM3의 확장(Extended) 버전

▲ DDR5 RDIMM과 MRDIMM

이와 함께, 데이터센터용 DIMM* 제품군인 ▲DDR5 RDIMM과 ▲MRDIMM* 등도 선보였다. 2024년, SK하이닉스는 업계 최초로 10nm 공정의 6세대 기술(1cnm)을 기반으로 한 DDR5를 개발했으며, 이 기술이 적용된 DDR5 RDIMM은 기존 제품 대비 동작 속도는 11%, 전력 효율은 9% 향상된 제품이다.

* DIMM(Dual In-line Memory Module): 여러 개의 D램이 기판에 결합한 모듈
* MRDIMM(Multiplexer Ranks Dual In-line Memory Module): DIMM 제품 중에서도, 모듈의 기본 정보처리 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품

차세대 인터페이스로 주목받는 DDR5 기반의 CXL* 제품으로 최대 128GB의 개별 용량과 초당 35GB의 대역폭을 자랑하는 ▲CMM-DDR5* 역시 큰 관심을 받았다. 부스에서는 카드 형태의 CXL 메모리 제품인 ▲CMM-Ax의 모습도 확인할 수 있었다. CMM-Ax는 내부에 NMP(Near Memory Processing) 장치를 탑재해 연산 기능을 더한 제품으로, 최대 512GB 용량과 초당 76.8GB 대역폭의 압도적인 성능을 보인다.

* CXL(Compute Express Link): 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스. 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있음
* CMM-DDR5: CXL 기술을 적용한 DDR5 기반 메모리 모듈로, 기존 대비 대역폭을 50% 확장하고 메모리 용량을 두 배로 늘려 고성능 컴퓨팅(HPC)과 AI 응용에서 탁월한 성능을 발휘함. SK하이닉스의 CMM-DDR5는 AI 추론 및 인메모리 데이터베이스(DB) 환경에서 데이터 접근 속도와 자원 활용을 최적화해 데이터 처리 효율을 크게 높임

▲ GDDR6-AiM과 AiMX

부스에서는 PIM* 제품군 역시 찾아볼 수 있었다. 초당 16Gb(기가비트)의 속도로 데이터를 처리하는 GDDR6에 연산기능을 더한 ▲GDDR6-AiM은 CPU/GPU와 함께 사용할 경우, 특정 조건에서 연산 속도가 최대 16배 이상 빨라지는 제품이다. 또한 가속기 카드 제품인 ▲AiMX*를 전시하며, AI 데이터센터를 혁신하는 ‘풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)’로서의 면모를 뽐냈다.

* PIM(Processing-In-Memory): 메모리 반도체에 연산 기능을 더해 인공지능(AI)과 빅데이터 처리 분야에서 데이터 이동 정체 문제를 풀 수 있는 차세대 기술
* AiMX(AiM based Accelerator): GDDR6-AiM 칩을 사용해 대규모 언어 모델(Large Language Model, 대량의 텍스트 데이터로 학습하는 인공지능으로 챗GPT가 이에 해당)에 특화된 SK하이닉스의 가속기 카드 제품

2. 일상 속 AI의 발견, ‘온디바이스 AI’

SK하이닉스는 데이터센터용 AI 메모리 제품에 이어 일상에서 사용하는 디바이스에 최적화된 온디바이스 AI* 제품들도 선보였다. LPCAMM2, ZUFS 4.0, PCB01 등 혁신적인 제품들은 전시 내내 많은 관람객의 이목을 끌었다.

* 온디바이스(On-Device) AI: 물리적으로 떨어진 서버의 연산을 거치지 않고 기기 자체에서 AI 기능을 구현하는 기술. 스마트폰 기기가 자체적으로 정보를 수집하고 연산하기 때문에 AI 기능의 반응 속도가 빨라지고 사용자 맞춤형 AI 서비스 기능도 강화되는 장점이 있음

먼저, 저전력, 고성능, 모듈 방식으로 구현한 ▲LPCAMM2*는 여러 개의 LPDDR5X*를 하나로 묶은 모듈로 기존 SODIMM* 두 개를 하나로 대체하는 성능을 제공한다. 저전력 특성에 더해, 공간 절약까지 가능해 최근 온디바이스 AI 제품으로 주목받고 있다.

* LPCAMM2(Low-Power Compression Attached Memory Module): 데스크톱/노트북/태블릿용 메모리를 차세대 모듈 규격(CAMM)에 맞춰 개발한 제품. 기존 모듈 대비 단면 구성으로 두께가 반으로 줄고, 고용량 저전력의 특성을 지니고 있음
* LPDDR5X: 스마트폰과 태블릿 등 모바일용 제품에 들어가는 D램 규격으로, 전력 소모량을 최소화하기 위해 저전압 동작 특성을 갖고 있음. 규격 명에 LP(Low Power)가 붙으며, 최신 규격은 LPDDR 7세대(5X)로 1-2-3-4-4X-5-5X 순으로 개발됨. LPDDR5T는 SK하이닉스가 최초 개발한 버전으로, 8세대 LPDDR6가 업계에 공식 출시되기 전 7세대인 LPDDR5X의 성능을 업그레이드한 제품
* SODIMM(Small Outline DIMM): PC에서 사용되는 초소형 모듈로 전체 길이가 짧음

함께 전시된 ▲ZUFS* 4.0은 스마트폰에서 온디바이스 AI를 구현하는 데 최적화된 낸드 솔루션으로, 업계 최고 성능을 자랑한다. 기존 UFS와 달리, 데이터를 용도와 사용 빈도에 따라 다른 공간에 저장해 스마트폰 OS의 동작 속도와 저장 장치의 관리 효율성을 높인다는 특징이 있다. SK하이닉스는 이 제품 사용 시, 장시간 사용 환경에서 기존 UFS 대비 앱 실행 시간이 약 45% 개선되며, 성능 저하에 따른 제품 수명이 40% 늘어난 것을 확인했다.

* ZUFS(Zoned Universal Flash Storage): 디지털카메라, 휴대전화 등 전자제품에 사용되는 플래시 메모리 제품인 UFS의 데이터 관리 효율이 향상된 제품

▲PCB01은 온디바이스 AI PC에 최적화된 고성능 PCIe 5세대 SSD 제품이다. 연속 읽기 속도는 초당 14GB, 연속 쓰기 속도는 초당 12GB로 업계 최고 수준의 속도를 자랑한다. 또한, 전력 효율 역시 이전 세대 대비 30% 이상 개선되며 대규모 AI 연산 작업의 안정성을 제공한다.

이처럼 SK하이닉스는 CES 2025를 통해 데이터센터와 온디바이스 AI를 포괄하는 다양한 제품을 선보이며 기술의 폭넓은 적용 가능성을 제시했다. 회사는 “CES 2025에서 선보인 압도적인 성능의 AI 메모리 제품들을 통해 명실공히 ‘풀 스택 AI 메모리 프로바이더’의 면모를 선보였으며, AI 분야의 리더십을 확고히 다졌다”고 평가하며, “앞으로도 지속가능한 미래를 위해 AI 혁신을 지속적으로 추진할 것”이라고 밝혔다.

]]>
/ces-2025-sketch/feed/ 0
SK하이닉스, AI 데이터센터용 고용량 SSD ‘PS1012 U.2’ 개발 완료 /ps1012-u2-development/ /ps1012-u2-development/#respond Wed, 18 Dec 2024 00:30:57 +0000 /?p=44128 · QLC 기반 61TB 제품 확보… AI 데이터센터용 SSD 시장에서 솔리다임과의 시너지 강화
· PCIe 5세대 적용해 데이터 전송 속도 최대 32GT/s 구현, 순차 읽기는 4세대 적용 제품 대비 2배 향상
· “고용량 eSSD 기술 리더십 바탕으로 풀스택 AI 메모리 프로바이더로 도약 위한 성장 기반 다질 것”

▲ SK하이닉스가 개발한 AI 데이터센터용 고용량 SSD ‘PS1012 U.2’

SK하이닉스가 AI 데이터센터용 고용량 SSD(Solid State Drive) 제품인 ‘PS1012 U.2*’(이하 PS1012) 개발을 완료했다고 18일 밝혔다.

*U.2: SSD의 형태를 칭하는 폼팩터(FormFactor)의 일종으로 2.5인치 크기의 SSD로 주로 서버나 고성능 워크스테이션(Workstation)에서 사용됨. 대용량 저장과 높은 내구성이 특징

SK하이닉스는 “AI 시대의 본격화로 고성능 기업용 SSD(eSSD, enterprise SSD)의 수요가 급격히 늘고 있고, 이를 고용량으로 구현할 수 있는 QLC* 기술이 업계 표준으로 자리 잡고 있다”며, “이런 흐름에 맞춰 당사는 이 기술을 적용한 61TB(테라바이트) 제품을 개발해 시장에 선보이게 됐다”고 설명했다.

* 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개)-PLC(Penta Level Cell, 5개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음

앞서 SK하이닉스는 QLC 기반 eSSD를 세계 최초로 상용화한 자회사 솔리다임(Solidigm)을 중심으로 AI 데이터센터용 SSD 시장을 이끌어 왔다. 회사는 PS1012의 개발로 균형 잡힌 SSD 포트폴리오를 구축하게 되어 양사 간 시너지를 극대화할 수 있을 것으로 기대하고 있다.

PS1012는 최신 PCIe* 5세대(Gen5)를 적용해 4세대 기반 제품보다 대역폭이 2배로 확대됐다. 이에 따라 데이터 전송 속도는 32GT/s**(초당 기가트랜스퍼)에 달하며, 순차 읽기 성능은 이전 규격 제품 대비 2배 수준인 13GB/s(초당 기가바이트)다.

*PCIe(Peripheral Component Interconnect express): 디지털 기기의 메인보드에서 사용하는 직렬 구조의 고속 입출력 인터페이스
**GT/s(Giga-Transfers per second): 초당 전송(Transfer)되는 동작(Operation) 또는 정보의 수

또, 회사는 이 제품이 OCP* 2.0 버전을 지원할 수 있도록 개발해 글로벌 AI 고객들의 여러 데이터센터 서버 장치와 호환성을 높였다.

* OCP(Open Compute Project): 전 세계 데이터센터 관련 주요 기업들이 참여해 초고효율 데이터센터 구축을 위한 하드웨어, 소프트웨어 및 eSSD의 표준을 논의하는 국제 협의체

회사는 이번 신제품 샘플을 연내 글로벌 서버 제조사에 공급해 제품 평가를 진행하고, 이를 바탕으로 내년 3분기에는 제품군을 122TB까지 확대할 계획이다. 아울러 eSSD의 용량 한계를 극복하기 위해 지난 11월 개발한 세계 최고층 321단 4D 낸드 기반 244TB 제품 개발도 함께 진행해 초고용량 데이터센터용 SSD 시장을 선도해 나간다는 방침이다.

SK하이닉스 안현 개발총괄(CDO, Chief Development Officer) 사장은 “당사와 솔리다임은 QLC 기반 고용량 SSD 라인업을 강화해 AI 낸드 솔루션 분야 기술 리더십을 확고히 하고 있다”며, “앞으로 당사는 eSSD 분야에서의 높은 경쟁력을 바탕으로 AI 데이터센터 고객들의 다양한 니즈(Needs)를 충족시켜, 풀스택(Full Stack) AI 메모리 프로바이더(Provider)로 도약하기 위한 성장 기반을 다지겠다”고 말했다.

]]>
/ps1012-u2-development/feed/ 0
‘OCP 글로벌 서밋 2024’에서 만난 SK하이닉스의 차세대 AI 메모리 솔루션 /2024-ocp-global-summit/ /2024-ocp-global-summit/#respond Wed, 16 Oct 2024 21:00:00 +0000 http://localhost:8080/2024-ocp-global-summit/ OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_01_행사_사진_2024_RE

SK하이닉스가 지난 15일부터 미국 캘리포니아주 새너제이(San Jose)에서 개막한 ‘OCP 글로벌 서밋(OCP Global Summit 2024, 이하 OCP 서밋)’에 참가해 미래 반도체 시장 리더십을 이어갈 AI 메모리 반도체 기술과 제품을 선보였다.

OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_02_행사_사진_2024

▲ OCP 서밋에 설치된 SK하이닉스 부스 모습

OCP 서밋은 전 세계 최대 규모의 개방형 데이터센터 기술 협력 협회인 OCP(Open Compute Project)가 주최하는 글로벌 행사로 미래 데이터센터 환경을 구현하기 위한 AI 기술 중심의 반도체 최신 기술과 연구 성과, 기술력 등을 공유하는 자리다. 올해의 주제는 ‘From Ideas To Impact(비전을 현실로 전환하다)’로, 이론적 논의를 넘어 구체적인 솔루션으로 구현하는 업계의 혁신 기술과 노력을 다뤘다.

AI 시대를 선도하는 토탈 AI 메모리 솔루션 제시

SK하이닉스는 2016년 첫 OCP 서밋 참여를 시작으로 매년 혁신 기술과 비전을 제시해 왔다. 특히 올해는 최고 등급인 다이아몬드 회원으로 참여해 ‘MEMORY, THE POWER OF AI’라는 슬로건으로 전시를 열어 SK하이닉스의 선도적인 기술력을 확인할 수 있는 다양한 AI 메모리 제품을 선보였다.

회사는 ▲HBM 5세대 최신 제품이자 현존 최고 성능을 구현하는 HBM3E*를 비롯해 ▲CXL* 기반 연산 기능을 통합한 차세대 메모리 솔루션 ▲10나노급 6세대(1c) 공정* 기반의 DDR5 RDIMM ▲고용량 저장장치 eSSD* 등 다양한 AI 메모리를 전시하며 눈길을 끌었다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨. HBM3E는 HBM3의 확장(Extended) 버전. 기존 HBM3E의 최대 용량은 3GB D램 단품 칩 8개를 수직 적층한 24GB였음
* CXL(Compute eXpress Link): 고성능 컴퓨팅 시스템을 효율적으로 활용하기 위한 PCle 기반 차세대 인터페이스. 기존 D램 제품과 함께 서버 시스템의 메모리 대역폭을 늘려 성능을 향상하고, 쉽게 메모리 용량을 확대할 수 있는 차세대 메모리 솔루션
* 10나노급 D램 공정 기술은 1x-1y-1z-1a-1b 순으로 개발돼 1c는 6세대
* eSSD(Enterprise Solid State Drive): 기업용 SSD, 주로 서버나 데이터센터에 탑재됨

OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_07_행사_사진_2024

▲ SK하이닉스가 OCP 서밋에서 전시한 HBM3E와 엔비디아의 H200/GB200

이중 HBM3E 12단은 SK하이닉스가 지난 9월 세계 최초로 양산하기 시작한 현존 최고 성능과 용량을 갖춘 제품[관련기사]으로 엔비디아(NVIDIA)의 신형 ‘H200 텐서 코어 GPU(Tensor Core GPU)’ 및 ‘GB200 그레이스 블랙웰 슈퍼칩(Grace Blackwell Superchip)’과 함께 전시됐다. HBM3E 12단은 D램 칩을 기존보다 40% 얇게 만들어 기존 8단 제품과 동일한 두께로 12단 적층에 성공해 최대 36GB 용량을 구현했으며 데이터 처리 속도는 9.6Gbps로 높였다. 또 SK하이닉스의 핵심 기술인 어드밴스드 MR-MUF*공정을 적용해 발열 성능을 10% 향상시키며 속도, 용량, 안정성 등 모든 부문에서 세계 최고 수준이라는 평가를 받고 있다.

* 어드밴스드(Advanced) MR-MUF: 기존 칩 두께 대비 40% 얇은 칩을 휘어짐 없이 적층할 수 있는 칩 제어 기술(Warpage Control)이 적용되었으며, 신규 보호재를 통해 방열 특성까지 향상된 차세대 MR-MUF 기술

또한 SK하이닉스는 CXL 기반 연산 기능을 통합한 차세대 메모리 솔루션 ▲CMM-Ax* ▲CMM-DDR5/HMSDK* ▲나이아가라(Niagara) 2.0과 함께 ▲CSD*를 선보였다.

CMM-Ax는 기존 CMS* 2.0의 명칭을 변경한 것으로 이번 전시에서 새로운 이름과 함께 소개됐다. CMM-Ax는 고용량 메모리를 확장할 수 있는 CXL의 장점에 머신러닝과 데이터 필터링 연산 기능을 함께 제공하며 차세대 서버 플랫폼에 탑재되어 시스템의 성능과 에너지 효율 향상에 기여할 수 있다. 회사는 CMM-Ax를 탑재한 서버를 통해 멀티모달* 라이브 데모를 선보이며 차세대 연산 메모리 성능을 입증했다.

이에 더해, CMM-DDR5와 이를 지원하는 소프트웨어인 HMSDK, 나이아가라(Niagara) 2.0 제품을 시연하는 자리도 마련했다. HMSDK는 CMM-DDR5가 장착된 시스템의 대역폭과 용량을 확장해 주는 솔루션으로 D램 모듈과 CMM-DDR5 간의 효율적인 교차 배열을 통해 대역폭을 넓히고, 데이터 사용 빈도에 따라 적합한 메모리 장치로 데이터를 재배치해 시스템 성능을 개선해 준다[관련기사].

나이아가라(Niagara)는 CXL 풀드 메모리(Pooled Memory)를 위한 하드웨어∙소프트웨어 통합 솔루션으로, 대용량의 메모리 풀을 여러 호스트(CPU, GPU 등)가 최적의 상태로 나눠 쓰도록 해 유휴 메모리를 최소화함으로써 전체 시스템의 비용을 줄일 수 있는 것이 특징이다. 또한 데이터 사용 빈도와 접근 패턴에 따라 데이터를 재배치해 시스템의 성능을 대폭 개선할 수 있다[관련기사].

* CMM(CXL Memory Module)-Ax: CMM은 CXL Memory Module의 약자로 제품에 CXL 기반 솔루션의 정체성을 부각했고, Accelerator와 xPU의 의미를 가져와 ‘Ax’라는 이름을 붙임
* HMSDK(Heterogeneous Memory S/W Development Kit): SK하이닉스 고유의 이종(異種) 메모리 소프트웨어 개발 도구. 효과적인 메모리 제어로 CXL 메모리를 포함한 이종 메모리 시스템의 성능을 향상시킴
* CSD(Computational Storage Drive): 데이터를 직접 연산하는 저장장치
* CMS(Computational Memory Solution): 고용량 메모리를 확장할 수 있는 CXL 메모리에 빅데이터 분석이나 AI와 같은 대용량 데이터가 필요한 응용 프로그램에서 주로 사용되는 연산 기능이 포함된 메모리 솔루션
* 멀티모달(Multi Modal): 텍스트, 사진 음성, 동영상 등 여러 복합 정보를 이해할 수 있는 AI 서비스/p>

데이터센터의 대규모 언어 모델(Large Language Model, 이하 LLM) 서비스는 여러 사용자의 요청 사항을 동시에 처리하는 방식으로 GPU 효율을 개선하고 있으나, 생성 토큰 길이가 증가함에 따라 GPU 효율이 낮은 어텐션 레이어*의 연산량이 커지는 문제가 있다. 이에 회사는 GDDR6-AiM* 기반 가속기 카드인 AiMX*로 최신 모델인 Llama3 70B*의 어텐션 레이어를 가속하는 라이브 데모를 시연했다. AiMX를 탑재해 대량의 데이터를 다루면서도 최신 가속기 대비 고성능, 저전력 등 뛰어난 성능을 보여줄 수 있다는 것을 확인시켰다[관련기사].

* 어텐션 레이어(Attention Layer): 딥러닝 모델, 특히 자연어 처리 분야에서 입력 데이터의 각 부분에 가중치를 부여하여 관련 정보에 더 집중하게 하는 메커니즘
* AiM(Accelerator-in-Memory): SK하이닉스의 PIM 반도체 제품명, PIM은 메모리 반도체에 연산 기능을 더해 인공지능(AI)과 빅데이터 처리 분야에서 데이터 이동 정체 문제를 풀 수 있는 차세대 기술
* AiMX(AiM based Accelerator): GDDR6-AiM 칩을 사용해 대규모 언어 모델(Large Language Model, 대량의 텍스트 데이터로 학습하는 인공지능으로 챗GPT가 이에 해당)에 특화된 SK하이닉스의 가속기 카드 제품
* Llama3(Large Language Model Meta AI): 메타의 최신 LLM 모델로 700억 개의 매개변수를 가짐

이와 함께 슈퍼마이크로(Supermicro)와의 협업으로 고성능 컴퓨팅 시장에서 주목받는 ▲DDR5 RDIMM ▲MCRDIMM*과 ▲E3.S eSSD PS1010* ▲M.2 2280 eSSD PE9010을 함께 전시했다. 이 제품들은 데이터센터 전력 소비량이 늘어나는 가운데, 이전 세대 대비 속도와 전력 효율을 크게 향상시켜 AI용 서버 시장에 핵심 솔루션이 될 것으로 기대를 모은다.

* MCRDIMM(Multiplexer Combined Ranks Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 모듈 제품으로, 모듈의 기본 정보처리 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품

* PS1010: 초고성능-고용량 데이터센터/서버향 SSD로 PCIe 5세대 E3.S & U.2/3(폼팩터 규격) 기반 제품

이 밖에도 SK하이닉스는 다양한 서버에 호환이 가능한 폼팩터(Form Factor)를 갖춘 eSSD 제품군을 선보이며 현장의 큰 관심을 받았다. 이중 PS1010과 PS1030은 업계 최고의 성능의 5세대 PCle* 기반 eSSD 제품으로 이전 세대 대비 전송 속도가 빠르고 전력 소모가 적은 고효율 AI 메모리다. 대량의 데이터를 처리하는 인공지능과 데이터센터 등에 최적화된 제품으로 생성형 AI 시대 핵심 반도체로 떠오르고 있다.

* PCle(Peripheral Component Interconnect Express): 직렬 구조의 고속 입출력 인터페이스로 디지털 장치의 메인보드에서 사용

세션 발표를 통해 글로벌 No.1 AI 메모리 프로바이더 입증

SK하이닉스는 이번 OCP 서밋에서 총 일곱 번의 세션 발표와 패널 참여를 통해 회사의 AI 메모리 기술력과 비전을 공유했다. 특히, AI 시대의 개화와 함께 주목받고 있는 HBM과 CXL을 중심으로 이야기를 풀어내며 혁신의 경계를 넓히기 위해 반도체 업계의 협력을 제안했다.

OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_20_행사_사진_2024

▲ 회사의 CXL 기반 메모리 솔루션을 발표 중인 주영표 부사장(Software Solution 담당)

먼저, ‘Pioneering the AI Enlightenment : Future Memory Solution R&D in SK Hynix(AI 시대를 여는 선구자 : SK하이닉스의 미래 메모리 솔루션 R&D)’를 주제로 발표한 주영표 부사장(Software Solution 담당)은 CMM-DDR5를 비롯한 CXL 기반 메모리 솔루션을 소개하며 AI 메모리 경쟁력을 강화하는 SK하이닉스의 강력한 의지를 보여줬다.

최정민 TL(Composable System)은 ‘CXL 메모리 풀링* 및 공유 기능, 데이터 사용 빈도와 패턴 분석을 통한 핫-콜드 데이터* 검출 및 이에 따른 시스템 이점과 다양한 활용 사례’를 다뤘고, 김홍규 TL(System SW)은 회사가 자체 개발한 CXL 최적화 소프트웨어인 HMSDK를 소개했다.

* 메모리 풀링(Memory Pooling): 대용량 메모리 풀(Pool)을 만들고 다수의 서버가 메모리 풀에서 필요한 만큼 메모리를 할당받아 사용할 수 있는 기술
* 핫-콜드 데이터(Hot-Cold Data): ‘Hot Data’는 매우 빈번하게 액세스, 업데이트되는 데이터를 가리키며, ‘Cold Data’는 자주 또는 전혀 액세스하지 않는 비활성 데이터를 의미

OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_22_행사_사진_2024

▲ HBM4 도입과 업계에 주는 시사점에 대해 발표하고 있는 김연수 TL(DRAM TP)

이어서 김연수 TL(DRAM TP)은 ‘The Next Chapter of HBM(다가올 HBM의 미래)’을 주제로 HBM 시장의 성장 배경과 최신 HBM3E 제품을 소개하고, 지속적으로 늘어나는 커스텀(Custom) 제품 요구에 적기 대응하기 위한 전략을 발표했다.

OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_23_행사_사진_2024

▲ 회사의 AiM 제품 강점을 설명 중인 임의철 부사장(Solution AT 담당)

생활 전반에 걸쳐 혁신적인 변화를 예고하는 생성형 AI를 위한 솔루션을 주제로 한 발표도 이어졌다. 임의철 부사장(Solution AT 담당)은 데이터센터부터 엣지 디바이스까지 LLM 서비스의 핵심 솔루션이 된 AiM 기술을 강조하며, 회사의 AiM 제품 소개와 미래 비전을 공유했다.

김종률 팀장(AI System Infra)과 Kevin Tang TL(AI System Infra)은 LLM 학습 시스템 장애로 인한 자원 및 비용 낭비를 줄이기 위한 기술인 체크포인팅*을 효과적으로 지원할 수 있는 차세대 SSD에 대한 연구 결과를 발표했다.

* 체크포인팅(Checkpointing): 학습 과정 중 특정 시점의 모델 파라미터와 관련 주요 데이터를 저장하여 시스템 장애 발생 시 저장된 특정 시점에서 학습을 재시작할 수 있도록 지원하는 기술

▲ 메모리 인접 연산 기술의 비전에 대해 발표하고 있는 김호식 부사장(SOLAB 담당)

김호식 부사장(SOLAB 담당)은 ‘Opportunities, Challenges, and Road Ahead in Data Centric Computing(데이터 센트릭 컴퓨팅의 기회, 도전과 방향성)’을 주제로 한 패널 세션에 참가했다. 이 자리에서 메모리와 프로세서 간의 데이터 병목 현상을 해결하기 위한 메모리 인접 연산* 기술의 비전에 관해 설명했다. 또, 이를 실제 시스템에 적용하기 위해 해결해야 하는 HW와 SW 레벨의 다양한 이슈와 방법에 대해 토론을 진행했다.

* 메모리 인접 연산(Near Memory Processing): 폰노이만 아키텍처의 한계인 메모리와 프로세서 간의 병목 이슈를 해결하기 위한 목적으로, 메모리 내부에서 특정 연산을 처리함으로써 프로세서의 이용 효율을 높이고 메모리와 프로세서 간의 데이터 이동량을 줄여 시스템 성능 및 TCO 개선을 가능하게 하는 차세대 메모리 솔루션 기술

기술 파트너들과 공동으로 발표한 김명서 TL(AI Open Innovation)은 우버(Uber) 데이터센터의 쿠버네티스 클라우드* 환경에서의 문제점을 해결하기 위해 회사의 CXL 풀드 메모리 프로토타입과 잭래빗 랩스(Jackrabbit Labs)의 오픈소스 소프트웨어인 클라우드 오케스트레이션*을 활용한 성과를 소개했다. 이는 쿠버네티스 클라우드 환경에서 발생하는 스트랜디드 메모리* 이슈를 해결할 수 있도록 개발됐다. 앞으로도 다양한 빅테크 기술 파트너들과 협력해 생태계를 구축하고, 미래 시장에서의 기술 리더십을 강화할 것이라고 전했다.

* 쿠버네티스 클라우드(Kubernetes Cloud): 독립된 환경 및 애플리케이션을 하나로 통합하여 실행할 수 있도록 컨테이너화된 애플리케이션을 실행하기 위한 일련의 노드 머신
* 오케스트레이션(Orchestration): 컴퓨터 시스템과 서비스, 애플리케이션 설정을 자동화하여 컴퓨팅 자원을 관리하고 조정하는 것으로 여러 개의 작업을 함께 연결하여 크기가 큰 워크플로우나 프로세스를 실행하는 방식을 취함
* 스트랜디드 메모리(Stranded Memory): 메모리가 사용되지 않고 남는 이슈

SK하이닉스는 “이번 OCP 서밋을 통해 AI 중심으로 급격히 변하는 시장 환경에서 ‘글로벌 No.1 AI 메모리 프로바이더(Global No.1 AI Memory Provider)’로 성장하는 SK하이닉스의 혁신 기술을 선보일 수 있었다”라며 “앞으로도 장기적인 관점에서 기술력을 확보하고 고객 및 다양한 파트너사와의 협업을 통해 AI 시장의 핵심 플레이어가 될 것”이라고 전했다.

]]>
/2024-ocp-global-summit/feed/ 0