HBM – SK hynix Newsroom 'SK하이닉스 뉴스룸'은 SK하이닉스의 다양한 소식과 반도체 시장의 변화하는 트렌드를 전달합니다 Thu, 11 Sep 2025 23:04:41 +0000 ko-KR hourly 1 https://wordpress.org/?v=6.7.1 https://skhynix-prd-data.s3.ap-northeast-2.amazonaws.com/wp-content/uploads/2024/12/ico_favi-150x150.png HBM – SK hynix Newsroom 32 32 SK하이닉스, 세계 최초 ‘HBM4’ 개발 완료하고 양산 체제 구축 /mass-production-hbm-4/ Thu, 11 Sep 2025 23:30:04 +0000 /?p=53421 · 현존 최고 성능 HBM4 고객 일정 맞춰 공급…경쟁 우위 실현
· HBM3E 대비 2배로 늘어난 대역폭과 40% 향상된 전력 효율 확보
· “AI 인프라의 한계를 뛰어넘는 상징적 전환점, AI 시대 기술 난제 해결할 것”

SK하이닉스가 초고성능 AI용 메모리 신제품인 HBM4* 개발을 성공적으로 마무리하고, 양산 체제를 세계 최초로 구축했다고 12일 밝혔다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨

회사는 “새로운 AI 시대를 견인하게 될 HBM4 개발에 성공하고 이 기술적 성과를 기반으로 세계 최초의 HBM4 양산 체제를 구축했다”며, “이를 통해 당사의 AI 메모리 기술 리더십을 글로벌 시장에서 다시 한번 입증했다”고 밝혔다.

개발을 이끈 SK하이닉스 조주환 부사장(HBM개발 담당)은 “HBM4 개발 완료는 업계에 새로운 이정표가 될 것”이라며, “고객이 요구하는 성능, 에너지 효율, 신뢰성을 모두 충족하는 제품을 적시에 공급해 AI 메모리 시장에서의 경쟁 우위를 확보하고 신속한 시장 진입(Time to Market)을 실현할 것”이라고 밝혔다.

AI 수요와 데이터 처리량이 폭발적으로 늘어나면서 더 빠른 시스템 속도를 구현하기 위한 고대역폭* 메모리 수요가 최근 급증하고 있다. 여기에 막대한 전력을 소모하는 데이터센터 운영 부담까지 가중되면서 메모리의 전력 효율 확보가 고객들의 핵심 요구사항으로 부상했다. SK하이닉스는 향상된 대역폭과 전력 효율을 갖춘 HBM4가 이 같은 요구를 해결하는 최적의 설루션(Solution)이 될 것으로 내다봤다.

* 대역폭(Bandwidth): HBM 제품에서 대역폭은, HBM 패키지 1개가 초당 처리할 수 있는 총 데이터 용량을 뜻함

새롭게 양산 체제를 갖춘 HBM4는 이전 세대보다 2배 늘어난 2,048개의 데이터 전송 통로(I/O)를 적용해 대역폭을 2배로 확대하고 전력 효율은 40% 이상 끌어올렸다. 세계 최고 수준의 데이터 처리 속도와 전력 효율을 실현한 것이다. 이 제품을 고객 시스템에 도입 시 AI 서비스 성능을 최대 69%까지 향상시킬 수 있어, 데이터 병목 현상을 근본적으로 해소하는 동시에 데이터센터 전력 비용도 크게 줄일 것으로 회사는 전망했다.

회사는 또 이 제품에 10Gbps(초당 10기가비트) 이상의 동작 속도를 구현해, HBM4의 JEDEC* 표준 동작 속도인 8Gbps를 크게 뛰어 넘었다.

* JEDEC(Joint Electron Device Engineering Council): 반도체 기기의 규격을 규정하는 반도체 분야 표준화 기구인 국제반도체표준협의기구

회사는 HBM4 개발에 시장에서 안정성이 검증된 자사 고유의 어드밴스드(Advanced) MR-MUF* 공정과 10나노급 5세대(1bnm) D램 기술을 적용해 양산 과정의 리스크도 최소화했다.

* MR-MUF: 반도체 칩을 쌓아 올린 뒤 칩과 칩 사이 회로를 보호하기 위해 액체 형태의 보호재를 공간 사이에 주입하고, 굳히는 공정. 칩을 하나씩 쌓을 때마다 필름형 소재를 깔아주는 방식 대비 공정이 효율적이고, 열 방출에도 효과적이라는 평가. 특히, SK하이닉스의 어드밴스드 MR-MUF는 기존 공정보다 칩을 쌓을 때 가해지는 압력을 줄이고, 휨 현상 제어(Warpage control)도 향상해 HBM 공급 생태계 내에서 안정적인 양산성을 확보하는 데 핵심이 되고 있음

SK하이닉스 김주선 AI Infra 사장(CMO, Chief Marketing Officer)은 “이번에 세계 최초로 양산 체제 구축을 공식 발표한 HBM4는 AI 인프라의 한계를 뛰어넘는 상징적인 전환점으로, AI 시대 기술 난제를 해결할 핵심 제품”이라며, “당사는 AI 시대가 요구하는 최고 품질과 다양한 성능의 메모리를 적시에 공급하여 풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)로 성장해 나가겠다”고 말했다.

]]>
[AI 산업 생태계 톺아보기 3편] AI 생태계의 미래와 SK하이닉스의 비전(완결) /exploring-the-ai-industry-ep3/ Mon, 08 Sep 2025 00:00:03 +0000 /?p=52786 AI가 수십 년 걸리던 신약 개발을 획기적으로 단축하고, 자율주행 성능을 한층 더 고도화하며, 금융 거래의 보안을 강화하는 등 새로운 산업 패러다임을 이끌어나가고 있다. 이제는 직장, 학교, 가정 심지어 여행지에서도 AI가 활용되는 등 일상과 사회가 빠르게 변화되고 있는 오늘날, AI 산업 생태계를 총체적으로 조망하는 시도는 이 시대를 살아가고 있는 모든 이들에게 의미 있는 인사이트가 될 것이다. ‘AI 산업 생태계 톺아보기’ 시리즈가 총 3회에 걸쳐 친절한 길잡이가 되고자 한다.

AI 기술이 고도화되면서 AI 산업은 진화를 거듭하고 있다. 유엔무역개발회의 보고서에 따르면 글로벌 AI 시장은 2023년 1,890억 달러 규모에서 2033년 4조 8,000억 달러 규모로, 10년간 약 25배 성장할 것으로 예상된다. 급격히 성장하는 AI 시장에서 주도권을 확보하기 위한 치열한 경쟁이 다양한 AI 혁신을 가속화하고 있다.

AI 산업의 미래

미래 AI 산업의 핵심 키워드 중 하나는 기술 융합(Technological Convergence)이다. AI가 생명공학, 로보틱스, 자율주행 등 기존 산업과 결합하면서 완전히 새로운 생태계를 만들어내고 있다. 구글 딥마인드의 ‘알파폴드(AlphaFold)’가 아미노산 서열로 단백질의 구조를 예측하는 데 기여한 공로로 2024년 노벨화학상을 수상한 것은 AI와 생명공학 융합의 대표적인 사례다.

테슬라의 ‘옵티머스(Optimus)’나 보스턴다이내믹스의 ‘아틀라스(Atlas)’ 등과 같이 AI와 로보틱스가 융합한 자율이동로봇(Autonomous Mobile Robot, AMR) 혹은 휴머노이드 로봇은 제조현장을 넘어 가정 및 병원 등으로 활용 범위가 확장될 수 있다. 엔비디아의 젠슨 황 CEO는 AI가 로봇, 자율주행차, 스마트 공간 등 물리적 환경에서 직접 행동하며 현실 세계와 상호작용 하는 기술을 ‘피지컬 AI(Physical AI)’로 정의하고, 이를 미래 AI의 최종 단계로 제시한 바 있다.

에이전틱(Agentic) AI 개발도 가속화되고 있다. 이는 인간의 개입을 최소화해 독립적·자율적으로 목표를 설정하고 실행하는 기술로 사용자 입력에 따라 텍스트, 이미지, 코드 등을 생성하는 생성형 AI에서 한 단계 진화한 버전이다. 고객 응대, 코드 생성, IT 보안 자동화 등 복잡한 업무를 자율적으로 처리할 수 있어 오픈AI, 구글, 엔비디아 등이 기술 개발에 힘을 쏟고 있다.

텍스트·이미지·음성·비디오 등 다양한 데이터를 통합적으로 학습하고 처리하는 멀티모달(Multi-Modal) AI 역시 더욱 부상할 것이다. 인간이 여러 감각을 동시에 활용하듯, AI가 복합 데이터를 기반으로 보다 정교한 판단을 내릴 수 있어, 환자의 영상과 진료 기록을 함께 분석하거나, 자율주행차량이 카메라, 센서 등 시각 정보를 종합해 주행 결정을 내린다. 구글의 제미나이(Gemini), 오픈AI의 달리2(Dall-E 2) 등의 주요 모델은 멀티모달 처리 성능을 지속적으로 고도화하고 있다.

이 모든 기술과 산업의 진화는 한 가지 공통분모를 갖는다. 연산량이 기하급수적으로 증가하고 데이터 처리 속도 및 효율성이 더욱 중요해진다는 점이다.

폭발적으로 성장하는 AI 인프라와 메모리 산업

이러한 기술 발전은 인프라 투자로 이어지고 있다. 데이터센터와 GPU에 대한 투자가 급증하고 있으며, 마이크로소프트·구글·아마존·메타 등 글로벌 4대 빅테크 기업들은 올해 AI 인프라에 466조 원을 투자할 계획이다.

AI 연산 가속기에 대한 수요도 계속 증가할 것이다. 포춘비즈니스인사이트에 따르면 전 세계 GPU 시장 규모가 2024년 615억 8,000만 달러에서 2032년 4,610억 2,000만 달러까지 성장할 것으로 예상된다. 강력한 프로세서를 뒷받침하는 메모리의 중요성도 커지고 있다. 세계반도체무역통계기구(WSTS)는 AI용 반도체 수요가 크게 증가하면서 내년 메모리 시장 성장률을 17.8%로 전망했다. AI의 진화 속도에 발맞춰 메모리가 AI 핵심 인프라로 자리매김하고 있는 것이다.

SK하이닉스의 비전과 전략

이런 변화의 흐름 속에 SK하이닉스는  ‘풀스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)’로 도약한다는 비전[관련기사]을 제시하며 혁신에 박차를 가하고 있다. ‘풀스택 메모리는 메모리 반도체 기술과 제품설루션서비스를 아우르는 개념으로, ‘전방위 AI 메모리 공급자로서 AI 관련 다양한 포트폴리오를 구축해 이를 포괄적으로 제공하겠다는 의지를 나타낸다. 이를 위해 SK하이닉스는 기술 리더십을 더욱 강화하고 인재와 연구개발에 적극 투자하며 글로벌 협력 생태계를 확장한다는 전략이다.

기술 리더십은 SK하이닉스가 글로벌 시장에서 AI 메모리를 선도할 수 있는 핵심 동력이다. SK하이닉스는 글로벌 1위인 HBM 분야에서 기술 격차를 더 확대하기 위해 올해 3월 세계 최초 6세대 HBM4 12단 샘플 공급에 이어 하반기에는 양산 준비를 완료할 예정이다[관련기사]. 아울러 HBM4 16단도 내년을 목표로 개발을 진행 중이다. 또한 빅테크 기업들이 자체 AI 칩을 설계하면서 각각에 특화된 맞춤형 반도체 설계 수요가 증가함에 따라 커스텀(Custom) HBM에도 선제적으로 대응하며 연구개발에 역량을 쏟고 있다.

또한 SK하이닉스는 AI 데이터센터, 온디바이스 등 다양한 환경에 최적화된 차세대 메모리 설루션 개발에 속도를 내고 있다. 대규모 데이터의 처리와 저장에 최적화된 eSSD*, 메모리에 연산 기능을 추가한 PIM*, 온디바이스 AI용 낸드 설루션 ZUFS*, 인간의 뇌 구조를 모방해 효율성을 높인 뉴로모픽* 반도체 등의 연구 개발에 역량을 집중하고 있다. 이러한 다목적 고성능 메모리 설루션은 AI에 새로운 가능성을 제공하고 그 잠재력을 극대화할 것이다.

* eSSD(Enterprise Solid State Drive): 서버나 데이터센터에 탑재되는 기업용 SSD
* PIM(Processing-In-Memory): 메모리에 프로세서의 연산 기능을 더해, 기존 메모리와 프로세서 사이 데이터 병목현상을 해소하고 속도 성능을 획기적으로 높여주는 차세대 메모리
* ZUFS(Zoned Universal Flash Storage):  스마트폰, 태블릿 등 전자제품에 사용되는 플래시 메모리 제품인 UFS의 데이터 관리 효율이 향상된 제품. 이 제품은 유사한 특성의 데이터를 동일한 구역(Zone)에 저장하고 관리해 운용 시스템과 저장 장치 간의 데이터 전송을 최적화함
* 뉴로모픽(Neuromorphic): 사람 뇌의 정보 처리방식을 모방해, 처리장치와 메모리 반도체가 직렬로 연결되는 현재의 컴퓨팅 구조를 뉴런과 시냅스 간 정보 처리방식처럼 병렬로 연결한 구조로 변경한 컴퓨팅 시스템

기술 리더십을 확고히 하기 위해 대규모 투자도 진행 중이다. SK하이닉스는 용인에 120조 원을 투자해 반도체 클러스터를 조성하고 있으며, 2027년 상반기 1기 팹(Fab) 준공을 목표로 하고 있다[관련기사]. 20조 원을 투자한 청주 M15X D램 생산기지로서 2025 11월 준공 후 양산을 시작할 계획이다[관련기사]. 5조 원 규모로 미국 인디애나주(州) 웨스트라피엣(West Lafayette)에 건설되는 AI 메모리용 어드밴스드 패키징 생산 기지에서는 2028년 하반기부터 차세대 HBM을 생산한다[관련기사].

SK하이닉스가 AI 메모리 분야 글로벌 선도 기업으로 자리매김할 수 있었던 또 하나의 원동력은 ‘원팀 스피릿’이다. 탁월한 전문성을 갖춘 구성원들이 한마음으로 힘을 모아 오늘의 경쟁력을 만들어냈다. AI 시대 핵심 경쟁력은 인재라는 믿음을 바탕으로, 앞으로도 인재 영입과 역량 강화를 위한 투자를 지속할 예정이다.

AI 산업 생태계가 협업의 가치 사슬로 연결되어 있는 만큼, 글로벌 테크 기업들과의 파트너십도 지속 확대·강화해 나갈 예정이다. SK하이닉스는 이미 엔비디아, TSMC 등과 긴밀히 협력하며 AI 산업 생태계 내에서 중요한 일원으로 자리 잡고 있다.

AI 생태계의 미래를 주도하는 SK하이닉스

세계적인 경영학자 피터 드러커는 ‘미래를 예측하는 가장 좋은 방법은 미래를 창조하는 것’이라 말했다. 이는 급변하는 AI 시대 SK하이닉스의 전략과도 맞닿아 있다. SK하이닉스는 세계 최고 수준의 압도적인 기술력으로 AI 메모리 분야를 선도하며, ‘풀스택 AI 메모리 프로바이더’로서 AI 산업 생태계의 미래를 만들어가고 있다.

]]>
[AI 산업 생태계 톺아보기 2편] 메모리에서 시작되는 AI 혁신, SK하이닉스 /exploring-the-ai-industry-ep2/ Thu, 21 Aug 2025 00:00:04 +0000 /?p=52201 AI가 수십 년 걸리던 신약 개발을 획기적으로 단축하고, 자율주행 성능을 한층 더 고도화하며, 금융 거래의 보안을 강화하는 등 새로운 산업 패러다임을 이끌어나가고 있다. 이제는 직장, 학교, 가정 심지어 여행지에서도 AI가 활용되는 등 일상과 사회가 빠르게 변화되고 있는 오늘날, AI 산업 생태계를 총체적으로 조망하는 시도는 이 시대를 살아가고 있는 모든 이들에게 의미 있는 인사이트가 될 것이다. ‘AI 산업 생태계 톺아보기’ 시리즈가 총 3회에 걸쳐 친절한 길잡이가 되고자 한다.

AI 산업 생태계는 ▲산업별 적용•활용 영역 ▲AI 모델•플랫폼 영역 ▲AI 인프라 영역 ▲AI 연산 가속기 영역 ▲AI 연산 인프라 영역으로 이어지는 거대하고 복잡한 체계다. 많은 기업이 치열하게 경쟁하면서도, 기술적 연결성과 상호 의존성을 바탕으로 함께 진화 중이다. 이 중 전체 생태계의 근간이 되는 AI 연산 인프라의 핵심, 고성능 메모리 영역에서 SK하이닉스는 독보적인 기술 리더십으로 AI 산업 생태계를 움직이며 중요한 역할을 담당하고 있다.

HBM, AI를 움직이는 핵심 기술로 산업 생태계 추동

2016년, 구글 딥마인드의 알파고와 이세돌 9단의 대결은 AI의 가능성을 보여준 역사적인 순간이었다. 하지만 그것은 오랜 기술 진화의 결과였다. 수십 년간 ‘머신러닝(Machine Learning)’과 ‘딥러닝(Deep Learning)’의 알고리즘이 축적되고 인공신경망이 고도화되면서, AI는 비약적인 계산 능력을 요구하기 시작했다.

2,000년대 후반 인공신경망이 반도체와 만나면서 비로소 연산 성능이 향상되기 시작했다. 주로 게임 등에서 그래픽 연산을 담당했던 GPU(Graphics Processing Unit)가 여러 입력값을 동시다발적으로 계산하는 특유의 병렬처리 방식으로 인공신경망의 연산에 활용되면서 AI 혁신이 가속화된 것이다. 그러나 연산 장치인 프로세서와 메모리 사이에서 발생하는 데이터 병목 현상은 여전히 인공지능이 넘어야 할 산이었다. 데이터를 얼마나 빠르게 읽고 쓰느냐, 즉 메모리의 속도와 효율이 AI 성능의 핵심 과제가 된 것이다.

지난 7월, 엔비디아가 전 세계 기업 중 처음으로 장중 시가총액 4조 달러를 터치하며 화제가 됐다. AI 시대에 GPU의 위상이 드러나는 순간이었다. 현재 다수의 글로벌 기업들이 생성형 AI와 가속 컴퓨팅을 위해 엔비디아의 GPU를 더 많이, 더 빨리 구하기 위해 치열한 경쟁을 벌이고 있다.

GPU의 성능을 좌우하는 기술 중의 하나가 바로 고대역폭 메모리, HBM(High Bandwidth Memory)이다. 이 반도체는 여러 개의 D램을 실리콘 관통 전극(TSV)으로 수직 연결하고 기존 D램 대비 수십 배의 대역폭을 제공해 데이터 처리 속도를 혁신적으로 끌어올린 제품이다. 이는 초고속 연산을 지원하면서도 전력 소비를 줄인 고성능 메모리로, 방대한 데이터를 빠르게 처리해야 하는 AI를 멈추지 않게 하는 핵심 기술이다.

SK하이닉스는 이러한 HBM 분야의 선두 주자다. 초거대 언어모델의 학습과 추론에는 막대한 연산량이 요구된다. HBM은 고성능 연산 장치인 GPU를 효율적으로 뒷받침하는 메모리 환경을 제공한다. SK하이닉스는 세계 최고 수준의 HBM을 통해 AI의 기술적 기반을 제공하고 산업 생태계를 추동하는 역할을 하고 있다.

독보적 기술 리더십

SK하이닉스는 AI 메모리 분야에서 독보적인 기술 리더십을 구축하고 있다. 2013년 세계 최초로 1세대 HBM을 개발한 이후, 회사는 2세대(HBM2), 3세대(HBM2E), 4세대(HBM3), 5세대(HBM3E) 제품을 연이어 선보이며 업계 기술 발전을 선도해 왔다. 그리고 올해 3월 SK하이닉스는 6세대 제품인 HBM4 12단 샘플을 세계 최초로 주요 고객사에 제공했다.

이러한 기술 리더십은 실적으로도 입증됐다. SK하이닉스는 HBM 성장에 힘입어 지난해 66조 원의 매출과 23조 원의 영업이익을 기록하며 역대 최대 실적을 달성했다. 또 회사는 올해 1분기 사상 최초로 글로벌 D램 매출 기준 시장점유율 1위에 올라선 것으로 나타났다. 기술적으로도 SK하이닉스는 최신 양산 제품인 HBM3E의 공급 비중을 빠르게 확대하고 있으며, 세계 최초로 샘플을 선보인 HBM4의 개발과 양산에도 박차를 가하고 있다. 이를 위해 SK하이닉스는 구성원과 조직은 물론, 파트너 및 고객과 한 몸처럼 움직이는 ‘원팀 스피릿’을 강조하며 기술 선도기업의 위상을 더 공고히 하고 있다.

AI 산업 생태계가 성숙하면서, 글로벌 빅테크 기업들의 맞춤형 반도체 설계 수요도 증가하고 있다. 아마존, 구글, 메타 등이 주문형반도체(ASIC, Application Specific Integrated Circuit) 설계 분야에서 HBM 시장의 새로운 고객으로 부상하고 있다. 이에 발맞춰 SK하이닉스는 커스텀(Custom) HBM에도 연구개발 역량을 쏟고 있다. 단순히 제품의 성능을 높이는 차원을 넘어, 메모리와 로직(Logic) 반도체 간 경계를 재정의함으로써 고객의 특화된 요구에 최적화된 맞춤형 AI 메모리 설루션을 제공한다는 전략이다. 이를 통해, SK하이닉스는 범용 제품부터 다양한 기능과 스펙을 지닌 제품군까지 갖춘 ‘풀스택(Full-stack) AI 메모리 프로바이더’로 진화하고 있다.

AI 생태계 파트너십 강화

AI 산업 생태계는 상호 의존과 협업을 바탕으로 진화하고 있다. 모델, 하드웨어, 인프라가 유기적으로 연결되는 구조 속에서, SK하이닉스는 글로벌 파트너들과의 협업을 강화하고 있다.

SK하이닉스와 엔비디아는 AI 메모리 분야의 대표적 파트너십 사례다. 지난 3월 SK하이닉스는 엔비디아의 연례 AI 콘퍼런스인 GTC 2025(GPU Technology Conference 2025)에 참가해 HBM4 12단 기술력을 공개했으며, 5월 ‘컴퓨텍스 2025’에서는 엔비디아의 젠슨 황 CEO가 SK하이닉스 부스를 직접 방문하는 모습을 통해 파트너십을 강조하기도 했다.

또 SK하이닉스는 HBM 성능을 극대화하기 위해 첨단 패키지 공정인 CoWoS(Chip on Wafer on Substrate)* 공정 기술을 TSMC와 함께 고도화하고, SK텔레콤, 펭귄 솔루션스와는 AI 데이터센터 설루션 공동 연구개발 및 상용화를 추진한다는 계획이다. SK하이닉스는 이러한 생태계 기반 협력을 바탕으로, AI 산업 전반의 연결을 촉진하는 중심축으로 자리매김하고 있다.

* CoWoS(Chip on Wafer on Substrate): 기존 패키징은 서로 다른 칩들을 각각 패키징한 후 기판 위에서 연결하는 방식이라면, CoWoS는 여러 칩을 실리콘 기반의 인터포저 위에서 한꺼번에 패키징하는 방식. 이를 통해 칩 간 거리가 가까워져 제품 면적이 줄고, 배선 개수를 더 늘릴 수 있어 신호 전달 통로를 확장(속도를 향상)할 수 있는 특징이 있음. TSMC 고유의 패키징 기술이며, HBM과 GPU를 결합하는 방식 중 하나임

과학기술과 산업 발전에 기여

SK하이닉스는 인재 중심의 기술 혁신을 바탕으로 대한민국 과학기술 역량과 산업 경쟁력 제고에도 기여하고 있다. SK하이닉스 장태수 부사장(미래기술연구원 소속)은 세계 최초 10나노(nm)급 6세대 미세공정 기술이 적용된 DDR5 D램을 최단 기간 내 개발해 올해 3월 ‘제52회 상공의 날’ 기념행사에서 대통령 표창을 받았다. 장 부사장은 “공정 미세화를 통해 HBM 용량과 기능을 확장할 수 있고 발열 관리에서도 효과를 볼 수 있다”라고 말했다. 또한 도승용 부사장(DT담당)은 AI 및 DT(Digital Transformation) 기반의 스마트팩토리(Smart Factory)를 구축해 HBM을 포함한 메모리 제조 경쟁력을 높인 공로로 올해 4월 ‘2025년 과학•정보통신의 날’ 기념식에서 동탑산업훈장을 받았다.

반도체 산업 발전과 기술 경쟁력 확보를 위해 SK하이닉스는 오래전부터 인재 양성과 연구 활동 지원을 위한 산학협력에 힘써 왔다. 회사는 KAIST, 포항공대, 고려대, 서강대, 한양대 등에 계약학과를 개설•운영 중이며, 2013년부터 ‘산학연구과제 우수 발명 포상’ 시상식을 운영하며 신기술 창출을 장려하고 있다. 이러한 활동은 SK하이닉스가 대한민국의 반도체 위상을 높이는 밑거름이 되고 있다.

메모리 중심 AI 시대를 이끄는 SK하이닉스

AI 모델의 학습과 추론 능력이 진화하면서 실시간 데이터를 처리하는 능력, 곧 메모리의 속도와 효율이 그만큼 더 중요해지고 있다. AI의 성능을 결정짓는 핵심 요소의 하나로 HBM이 부각되면서, 앞으로는 메모리가 AI 산업 생태계에서 또 다른 혁신의 축이 될 것이다. SK하이닉스는 세계 최고 수준의 기술력을 바탕으로 AI 메모리 분야를 선도하고, 풀스택 AI 메모리 프로바이더로서 AI 산업 생태계의 혁신을 끌어 나갈 전망이다.

마지막 편에서는 AI 산업 생태계의 미래와 SK하이닉스의 비전에 대해 살펴볼 예정이다.

]]>
SK하이닉스, ‘FMS 2025’에서 AI·스토리지 미래 그려내… 혁신 기술 집중 조명 /fms-2025/ Fri, 08 Aug 2025 07:40:25 +0000 /?p=51560

▲ FMS 2025 SK하이닉스 부스 전경

SK하이닉스가 지난 5일부터 7일까지(미국시간) 3일간 미국 캘리포니아주 산타 클라라(Santa Clara)에서 열린 FMS(Future of Memory and Storage) 2025에 참가해 D램 및 낸드 제품과 AI 메모리 설루션을 선보이며 글로벌 메모리 시장에서의 리더십을 재확인했다.

올해로 19주년을 맞이한 FMS는 기존 Flash Memory Summit(플래시 메모리 서밋)에서 AI 시대에 발맞춰 지난해부터 행사명을 the Future of Memory and Storage(미래 메모리 및 저장장치, 이하 FMS)로 새롭게 정의하고, D램을 포함한 메모리 및 스토리지 전 영역으로 분야를 확대했다.

SK하이닉스는 ‘풀스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)’로서 차세대 AI 혁신을 이끌 다양한 메모리 제품과 미래 기술을 선보였다. 특히, 기조연설과 발표 세션, 부스 전시를 유기적으로 연계하여 회사의 메모리 및 스토리지 설루션을 효과적으로 알리고, 글로벌 파트너사들이 SK하이닉스의 선도적인 기술 리더십을 직접 체감할 수 있도록 하며 교류를 한층 강화했다.

AI 시대를 겨냥한 메모리 라인업 총출동

이번 행사에서 SK하이닉스는 D램과 낸드 전 영역에서 글로벌 AI 메모리 시장을 이끌 차세대 제품을 대거 전시했다. 업계 최초로 주요 고객사들에 샘플을 공급한 ▲HBM4 12단을 비롯해 ▲LPDDR5X ▲CMM(CXL* Memory Module)-DDR5 ▲3DS* RDIMM ▲Tall MRDIMM* 등의 차세대 D램 14종과 176단 4D 낸드 기반의 데이터센터 eSSD인 ▲PS1010 E3.S, 238단 4D 낸드 기반의 ▲PEB110 E1.S는 물론, 회사의 첫 QLC* PC 향 SSD인 PQC21 및 최고 용량 데이터센터 eSSD 245TB PS1101 E3.L를 새롭게 선보이는 등 총 19종의 낸드 설루션 제품들도 만나볼 수 있었다.

* CXL(Compute Express Link): 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스
* 3DS(3D Stacked Memory): 2개 이상의 D램칩을 TSV(수직관통전극)로 연결해 패키징을 완료한 고대역폭 메모리 제품
* MRDIMM(Multiplexed Rank Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품으로, 모듈의 기본 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품
* QLC: 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개)-PLC(Penta Level Cell, 5개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음

▲ SK하이닉스가 전시한 CMM-DDR5 데모

SK하이닉스는 제품 전시와 함께 성능 시연을 진행하며, 회사의 앞선 기술력과 차별성을 현장에서 생생하게 보여주었다. 먼저, 기존의 기본 서버 시스템을 기반으로 최대 50% 확장된 용량과 30% 향상된 메모리 대역폭을 제공하는 CMM-DDR5가 장착된 Intel Xeon 6 시연을 통해 실제 운용 환경에서의 활용 가능성과 시스템 확장성을 동시에 보여주었으며, 기존 단일 메모리 구성에 비해 성능과 비용 효율 측면에서 뛰어난 경쟁력을 갖추고 있음을 강조했다.

SK하이닉스는 미국 로스앨러모스 국립연구소*와 HPC 환경에서의 데이터 분석 성능 향상을 위한 차세대 스토리지 기술을 공동 연구하고 있다. 이번 데모에서는 데이터를 스스로 인지하고 분석 처리할 수 있는 Data-aware CSD* 기반의 Computational Storage(OASIS)를 개발해 실제 HPC 워크로드를 통해 데이터 분석 성능이 향상되는 효과를 시연하면서 관람객들의 큰 주목을 받았다.

* 로스앨러모스 국립연구소(Los Alamos National Laboratory, LANL): 미국 에너지부 산하 국립연구소이며, 국가 안보와 핵융합 분야를 비롯해 우주 탐사 등 다양한 연구를 수행한다. 특히, 2차 세계대전 당시 맨해튼 프로젝트에 참여해 세계 최초로 핵무기를 개발한 곳으로 알려짐
* CSD(Computational Storage Drive): 데이터를 직접 연산하는 저장장치

이번 데모에서는 SK하이닉스의 PIM* 제품군도 직접 확인할 수 있었다. 초당 16Gb(기가비트)의 속도로 데이터를 처리하는 GDDR6에 연산기능이 추가된 ▲GDDR6-AiM은 CPU/GPU와 함께 사용할 경우, 특정 조건에서 연산 속도가 최대 16배 이상 향상되는 제품이다. 또한 가속기 카드인 ▲AiMX*는 연산 처리 속도를 가속화하고 전력 소모를 줄여 대용량 데이터를 효율적으로 처리할 수 있는 고성능 저전력 설루션 제품이다.

* PIM(Processing-In-Memory): 메모리 반도체에 연산 기능을 더해 인공지능(AI)과 빅데이터 처리 분야에서 데이터 이동 정체 문제를 풀 수 있는 차세대 기술
* AiMX(AiM based Accelerator): GDDR6-AiM 칩을 사용해 대규모 언어 모델(Large Language Model, 대량의 텍스트 데이터로 학습하는 인공지능으로 챗GPT가 이에 해당)에 특화된 SK하이닉스의 가속기 카드 제품

▲ CXL Pooled Memory 설루션을 활용해 시연 중인 Memory Centric AI Machine 데모

마지막으로 Memory Centric AI Machine 데모에서는 Pooled Memory*를 활용하여 복수의 서버와 GPU들을 연결한 분산 LLM 추론 시스템을 선보였다. 네트워크 통신을 이용하는 LLM 추론 시스템 대비 CXL Pooled Memory 기반 데이터 통신을 사용할 경우 LLM 추론 시스템의 성능이 대폭 향상될 수 있음을 입증했다.

* Pooled Memory: 여러 개의 CXL 메모리를 묶어 풀(Pool)을 만들어 여러 호스트가 효과적으로 용량을 나누어 사용하여 전반적인 메모리 사용률을 높이는 기술

FMS 2025의 주요 연사로 참여해 차세대 AI 인프라 리더십 강조

SK하이닉스는 기조연설과 Executive AI 특별패널 참여 그리고 총 13번의 세션 발표 등 FMS 2025의 주요 연사로 참여해 차세대 AI 메모리 시장을 이끄는 글로벌 리더의 면모를 보여줬다.

SK하이닉스 김천성 부사장(eSSD PD 담당)과 최준용 부사장(HBM사업기획 담당)은 ‘Where AI begins: Full-Stack Memory Redefining the future’라는 주제로 기조연설을 진행했다. 김천성 부사장은 이번 기조연설에서 “AI 산업이 AI 학습에서 AI 추론으로 빠르게 전환됨에 따라 메모리 기술의 진화가 필수적”이라고 전하며 “SK하이닉스의 스토리지 설루션은 AI 추론 시나리오에서 데이터 집약적인 워크로드에 빠르고 안정적으로 액세스할 수 있도록 설계되어 있다”고 설명했다.

이어 최준용 부사장은 “높은 대역폭과 낮은 전력 소모라는 구조적 장점을 갖춘 HBM은 고객들의 다양한 요구를 충족할 수 있다”라며, “AI 시스템의 확장성과 TCO를 형성하는 두 가지 핵심 요소인 성능과 전력 효율성을 충족하기 위해 다양한 AI 환경에 최적화된 포괄적인 메모리 포트폴리오를 제공할 것”이라고 전했다.

3일간 이어진 세션 발표에서는 회사의 구성원들이 주요 강연자로 참석해 메모리 기술과 인프라 확장, 비휘발성 및 고효율 메모리 기술, AI 인프라와 LLM 학습 최적화, 데이터 분석 및 거버넌스, AI 기반 인재 관리 등에 대해 발표하며 차세대 AI 시장에 대한 인사이트를 공유했다.

또한, SK하이닉스 강선국 부사장(미주DRAM기술 담당)은 NVIDIA가 주관한 Memory and Storage Scaling for AI Inferencing에 대한 특별패널 토론에 참여해 AI 기술 동향과 산업 간 협력 방안에 대해 깊이 있게 논의했다. 그는 “AI 학습에는 원시 대역폭이 중요하지만, AI 추론에는 이를 넘어선 지능형 메모리와 스토리지 설루션이 필요하다”며, 초고성능 네트워킹과 스마트 메모리 기술이 AI 추론 처리량을 획기적으로 높일 수 있다고 강조했다.

이번 행사를 통해 SK하이닉스는 혁신적인 제품들을 다양하게 선보이며, 메모리 및 스토리지 분야에서의 뛰어난 기술 역량을 널리 알렸다. 앞으로도 AI 시대의 변화하는 요구에 부응하여 끊임없는 연구개발을 이어가고, D램과 낸드 전 영역에서 독보적인 AI 메모리 리더로서의 입지를 더욱 확고히 다져 나갈 계획이다.

]]>
[Analyst Interview | SK증권 한동희 위원] HBM 경쟁 심화 우려 속 SK하이닉스의 대응 전략은? /2025-analyst-interview-1/ Fri, 08 Aug 2025 00:00:53 +0000 /?p=51576 SK하이닉스는 올해 2분기 9조 2,129억원의 영업이익을 기록했습니다. 회사는 무역 분쟁과 경기 불확실성으로 인한 수요 둔화 우려 속에서도 사상 최대 실적을 달성했지만, 시장에서는 내년에도 SK하이닉스가 HBM 경쟁 우위를 지속할 수 있을지에 대해 시선이 엇갈리는 상황입니다. 일각에서는 경쟁사의 유의미한 물량 확보 가능성을 낮게 전망하며 2026년에도 SK하이닉스가 HBM 시장을 주도할 것으로 내다보는 반면, 일부 투자자들은 공급사 간 HBM 점유율 경쟁이 본격화될 것으로 예상하며 수익성 악화를 경계해야한다는 목소리를 내고 있습니다.

SK하이닉스는 내년도 HBM 시장에서 경쟁 우위를 유지할 수 있을까요? 그 답을 찾아보기 위해 SK증권 리서치센터 반도체 연구위원 한동희 애널리스트와 이야기 나누어 보았습니다.

긍정적인 2분기 실적과 해소되지 못한 불확실성

Q. SK하이닉스의 2분기 실적에 대해 전반적으로 어떻게 평가하는지?

SK하이닉스의 2분기 실적은 대외 리스크가 있는 국면이었음에도, 시장 기대를 상회하는 훌륭한 실적이었다고 생각합니다. 특히, 2분기 원/달러 환율 하락 폭이 예상보다 컸음에도, 1분기 실적 발표 이후 형성된 시장 컨센서스를 상회하면서 기대 이상의 실적을 보여주었습니다.

하지만, HBM 경쟁 심화에 따른 우려와 수요에 대한 불확실성을 완전히 해소하기에는 아쉬운 점도 있다고 판단합니다. 현재 시장은 단기 호실적이 아니라 2026년에도 SK하이닉스가 현재와 같은 차별적인 실적을 보여줄 수 있을지 확신을 가지고 싶어하기 때문입니다.

Q. 이번 실적에서 시장 기대 대비 긍정적이었던 점은 무엇인지?

2분기 실적을 긍정적으로 보는 가장 큰 이유는 이익이 지속적으로 성장하는 가운데, 재고 안정화와 더불어 수익성이 견조하게 유지되었다는 점입니다. 통상적인 경우, 재고 수준을 떨어뜨리기 위해서는 많이 팔아야 하는데, 이 때 시장 수요보다 많이 팔게 되면 가격이 하락하는 동시에 수익성이 하락하게 됩니다. 하지만, 2분기 SK하이닉스는 판매량이 예상 대비 크게 늘어났음에도 수익성을 지켜내는 성과를 보여주었습니다.

또 다른 긍정적인 점은, 낸드플래시(NAND Flash, 이하 낸드) 출하량이 예상을 상회했다는 것입니다. 시장에서는 미국의 반도체 관세 부과로 하반기 B2C 수요가 둔화된다면 낸드 업황이 어떻게 될 것인지에 대해 고민이 많았습니다. 다행히 SK하이닉스는 2분기에 판매량을 많이 늘리고 재고를 줄였기 때문에, 하반기 가격 협상력 관점에서 시장의 우려를 조금은 덜어냈다고 생각합니다. 이와 더불어, SK하이닉스의 장점인 고용량 eSSD 제품의 수요가 하반기 회복된다면 낸드 실적이 차별화 될 수 있는 구간이라고 생각하고 있습니다.

한편, 양호한 D램 업황 내에서도 SK하이닉스의 차별화 포인트는 여전했습니다. 저희는 2분기 전체 D램 출하량 중 85% 이상이 일반 D램 출하의 비중인 것으로 추정하고 있습니다. HBM 대비 낮은 일반 D램 제품의 수익성을 감안하면, 2분기 D램 전체 수익성은 하락했어야 하는데, 오히려 소폭 상승한 것으로 추정됩니다. 저는 이러한 성과가 가능했던 이유를 HBM3E 12단 제품 수율이 예상보다 빠르게 상승했을 가능성에서 찾고 있습니다. 일반 D램의 수익성이 갑자기 두드러지게 향상될 가능성은 낮고, 현재 주로 판매중인 HBM3E 8단 제품의 수율은 이미 궤도에 오른 것으로 보이기 때문입니다. HBM3E 12단의 수율 향상은 단기적으로나 중장기적으로나 HBM 경쟁 심화 국면에서 SK하이닉스의 차별화 포인트가 될 것입니다.

Q. 이번 실적과 업황에서 주목해야할 리스크는?

지금은 리스크가 굉장히 많은 시기입니다. 무엇보다도 HBM 시장의 경쟁 심화, 중국 업체의 DDR5 시장 진입 시점과 그 수준에 주목해야 합니다.

특히, 그동안 SK하이닉스가 누려왔던 차별적인 이익과 수익성, 그리고 Valuation의 근거는 ‘HBM에 대한 독보적인 경쟁력’이었기 때문에, 시장에서는 고민이 깊어질 수 밖에 없는 상황입니다. 또한, 중국 업체의 DDR5의 시장 진입은 향후 D램 시장 자체의 잠식을 의미하기 때문에, 메모리 업종 전반에 대한 리스크이며, 주의 깊게 지켜볼 수 밖에 없는 상황입니다.

전공정과 후공정 모두에서 강점을 지닌 SK하이닉스의 기술 리더십

Q. SK하이닉스가 제품 및 기술 경쟁력 측면에서 어떤 강점을 보여주고 있다고 평가하는지?

SK하이닉스의 경쟁력 측면에서 빼놓을 수 없는 부분은 당연하게도 HBM입니다. HBM3 제품부터 시작된 SK하이닉스의 압도적인 기술 경쟁력은 지금까지도 유지되고 있습니다. 경쟁사들은 지속적으로 시장에 진입하기 위해 노력해왔고 고객사도 Vendor를 다변화하기 위해 노력해왔지만, SK하이닉스의 압도적 지위는 변하지 않았습니다. 그 이유는 제품 성능, 신뢰성, 양산성의 측면에서 SK하이닉스가 가장 잘 하고 있기 때문이며, 이는 회사의 실적을 통해 분명히 드러나고 있습니다.

HBM을 잘하기 위해서는 전공정뿐 아니라, 후공정에서의 안정적인 양산성도 필요하기 때문에, SK하이닉스가 경쟁 우위를 유지하는 것은 곧 전공정과 후공정에서 모두 시장을 선도하는 업체가 되었다고 보는 것이 타당합니다. 결국 전반적인 기술력 자체가 올라간 것이기 때문에, 앞으로 HBM 시장의 경쟁이 심화되는 국면에서도 경쟁 업체들과의 격차는 좁혀질 수 있겠으나 당분간 SK하이닉스의 경쟁 우위는 유지될 것으로 전망합니다.

낸드 역시 과거 대비 회사의 경쟁력이 강화되고 있는 시기입니다. 기존 낸드는 단품 위주의 시장이었지만 지금은 점차 Solution 위주의 부가가치 창출 시장으로 재편되고 있습니다. 즉, 높은 적층을 통한 생산량 증대의 중요성이 낮아지고 있는 것이며, 이러한 관점에서 SK하이닉스의 고용량 eSSD 경쟁력은 새롭게 변화하고 있는 낸드 시장 내에서 회사의 입지를 높여줄 수 있는 포인트라고 생각합니다.

Q. 시장 리더십을 강화하기 위해 가장 중요한 요소는?

반도체 시장에서의 리더십은 결국 기술 경쟁력입니다. 일반적으로 반도체를 이야기할 때, 전공정 기술과 후공정 기술로 나누어 이야기하는데, 저희는 이 두 가지가 모두 중요하다고 생각합니다. AI Cycle에 진입한 이후, 반도체 성능을 높이기 위한 핵심이 점차 후공정으로 이동하면서 후공정에 대한 관심이 높아지고 있지만, 중요한 점은 전공정에 대한 고도화없이 후공정만으로 제품 성능을 높일 수는 없다는 것입니다. 당연한 이야기지만, 전공정과 후공정이 같이 고도화 되어야 이번 Cycle에서의 경쟁력을 유지할 수 있다고 생각합니다.

단기적으로는 D램 1cnm* 공정의 빠른 확보, 그리고 HBM에서는 지금의 12층을 넘어 16층 혹은 그 이상을 쌓아 올리기 위한 후공정과 저전력 특성 제고를 위한 로직 다이의 고도화가 매우 중요해질 것입니다. 한편, 그동안 낮은 원가로 더 높게 쌓아 올리는 것에 집중했던 낸드는 조금 더 컴팩트한 사이즈에서 높은 용량을 구현하기 위한 솔루션 강화가 리더십 확보를 위한 주요 요소라고 생각합니다.

* 1cnm(나노미터): 차세대 미세공정인 10나노급 6세대 기술

장기적인 관점에서 AI는 점차 더 높은 Computing Power를 요구하고 있고, 이에 걸맞는 반도체가 필요한 상황입니다. 따라서 고성능, 저전력, 그리고 높은 양산성을 모두 확보해야 합니다. 고객사가 요구하는 수준에 맞추어 제품을 만들어야 하기 때문에, 반도체를 Custom할 수 있는 능력도 앞으로는 점점 더 중요해질 것입니다.

견조한 AI 수요와 불투명한 HBM 공급 전망 속 과도한 경쟁 우려

Q. 2025년 하반기와 2026년 메모리 시장에 대해 어떻게 전망하는지?

우선, 2025년 하반기 업황은 지속적으로 견조할 것으로 전망합니다. 이미 작년 계약이 완료된 HBM의 판매 확대가 3~4분기 동안 지속될 것이며, 일반 D램의 공급 여력도 여전히 제한적이기 때문에 하반기 업황은 견조할 것입니다. 3분기 D램은 증익을 유지할 것으로 생각하며 4분기에는 이익의 증대가 일시적으로 정체될 수 있으나, 큰 폭의 하락 가능성은 낮아 보입니다. 낸드의 경우, 상대적으로 부진한 업황 대비 2분기 출하 강세를 보였기 때문에, 하반기에는 판매량 증가를 통한 외형 성장보다는 수익성 안정화에 집중될 것으로 생각합니다.

반면, 가시적으로 보이는 2025년 하반기 대비 2026년 전망은 불확실한 상황입니다. 통상적으로 HBM 계약은 선제적으로 진행되고, 이 계약에서 고객사는 어느 정도의 가격으로 어느 정도의 물량을 가져갈지 결정합니다. 이를 통해 HBM의 생산 수준뿐만 아니라 일반 D램의 생산 수준이 연쇄적으로 결정되기 때문에, HBM 계약의 완료가 지금의 메모리 시장 전망에서 가장 중요한 요소인 셈입니다. 현재 SK하이닉스와 주요 고객사의 HBM 계약은 어느 정도 가시성이 확보되었다고 보여지나, 아직 계약 절차가 마무리되지는 않았기에 내년을 전망하기에 불투명한 부분이 있다고 말씀드려야 할 것 같습니다.

다만, 가장 중요한 AI 수요는 여전히 견조하고, 2026년에도 견조할 것입니다. 토큰(Token)* 사용량이 급증하면서 AI 추론 수요가 증가하고 있음이 증명되고 있고, AI 서비스의 보편화와 고도화가 동시에 진행되고 있습니다. 또한 AI의 확장 법칙이 재강화 학습으로 다변화되며 훈련 수요도 여전히 견조한 상황입니다. 최근 중동과 유럽에서 시작되고 있는 소버린 AI* 에 대한 투자 역시 AI 수요의 추가 성장 동력으로 자리매김하고 있습니다. 이렇듯 AI 수요는 아직 시작 단계이며, 향후 몇 년간 지속적으로 성장할 가능성이 매우 높다고 판단합니다.

* 토큰(Token): AI가 정보를 처리(학습, 생성, 추론)하기 위해 이를 분해해 만든 데이터의 최소 단위
* 소버린 AI(Sovereign AI): 국가가 자체 인프라와 데이터, 인력 및 비즈니스 네트워크를 사용해 독립적인 AI 시스템을 구축하는 것

Q. 최근 HBM 경쟁 심화에 대한 우려가 커지고 있는데, 이에 대해 어떻게 생각하는지?

현재 시장에서는 HBM에 대한 최악의 시나리오를 고민하고 있습니다. 경쟁사가 HBM 시장에 본격적으로 진입하고, 그로 인해 HBM 가격과 동시에 SK하이닉스의 점유율이 하락하는 경우를 가정하는 것이죠. 그렇게 되면, 차별적으로 평가받던 SK하이닉스의 Valuation이 어느 수준까지 하락할 것인지에 대한 우려가 가장 큰 것 같습니다.

이러한 과정은 과거부터 매번 거쳐왔던 과정이고 1위 사업자의 숙명이라고 생각합니다. 다만, 현재까지 HBM 계약이 완료되지 않았다는 점 하나만으로도 시장에서는 SK하이닉스의 선점효과가 점점 낮아지는 것은 아닌지 고민하게 되는 상황입니다. 사실 저희는 경쟁사의 시장 진입 자체는 기정사실로 받아들이고 있어, SK하이닉스의 추가적인 점유율 상승은 산술적으로 어렵다고 보고 있습니다.

저는 향후 경쟁사가 시장에 진입하게 되더라도 SK하이닉스가 더 낮은 가격을 제시하여 출혈경쟁을 하기 보다는 가격과 물량의 최적점에서 수익성을 지키는 것이 유리한 전략이라고 생각하고 있습니다. AI Cycle에서의 핵심은 과거 일반 메모리 Cycle처럼 점유율만이 중요한 것이 아니라, 이익과 수익성을 극대화하기 위한 전략을 어떻게 설정할 것인가가 가장 중요하기 때문입니다. SK하이닉스의 높은 양산성과 낮은 원가를 감안해보면, HBM 공급 경쟁 속에서도 차별적인 이익과 수익성의 포인트는 여전히 유지될 수 있을 것으로 생각합니다.

특히, 저희는 HBM 공급 과잉에 대해 일반적인 시장의 우려와 조금은 다른 관점을 가지고 있습니다. HBM4 제품부터는 TSV Via가 급증하는데, 이는 곧 통로를 많이 뚫어야 한다는 뜻입니다. 많은 통로를 뚫기 위해서는 그만큼의 공간이 추가적으로 필요하게 되고, 이로 인해 Die Size(Chip 크기)가 커지게 됩니다. 결론적으로 HBM4에서는 한 장의 웨이퍼에서 더 적은 Die를 만들 수 밖에 없고, 이는 곧 전공정 단에서의 공급 제약인 셈입니다. 기존 HBM 시장에서는 수율이 가장 큰 제약 사항이었으나, 이제부터는 전공정에서의 Die Penalty도 제약이 될 수 있는 것이죠. 이렇듯 공급과정에서 제약 사항이 증가한다는 사실을 감안하면, 시장에서 고민하는 HBM 공급과잉에 대한 우려는 다소 과해보인다는 것이 저희의 의견입니다.

HBM 경쟁 심화 속 더 높은 기업가치를 위한 SK하이닉스의 전략

Q. SK하이닉스가 더 높은 기업가치를 받기 위해서 필요한 것은 무엇이라고 생각하는지?

AI Cycle에서 1위 사업자로 거듭났다는 점이 최근 SK하이닉스의 기업가치 제고에서 가장 중요한 역할을 했습니다. 과거 메모리 Cycle에서는 원가 경쟁을 기반으로 한 점유율 제고가 가장 중요했지만, AI Cycle에서는 누가 더 높은 성능의 제품을, 고객이 원하는 적절한 시기에, 높은 신뢰성으로 납품할 수 있느냐가 중요한 포인트이고, SK하이닉스는 이러한 경쟁에서 완벽히 승리했다고 생각합니다.

그동안 SK하이닉스가 증명해왔던 것처럼, 안정적인 실적과 차별화된 수익성, 투자 효율성 극대화가 지속된다면 기업가치 상승은 매우 가시적이라고 생각합니다. 기술 기업에 있어서 가장 중요한 기업가치 상승 요인은, 공고한 기술 리더십을 바탕으로 한 안정적인 실적이기 때문입니다.

예를 들어, Foundry 시장의 절대강자인 TSMC의 경우, 수익성이 조금 하락하거나 경쟁자가 진입할 가능성이 있다는 이유만으로 TSMC 주가가 크게 하락했던 적은 드물었습니다. TSMC가 지속적으로 증명해왔던 기술 리더십이 매우 공고했기 때문입니다. 이처럼 메모리 업종이 더 이상 가격 경쟁을 통한 점유율 싸움이 아니라 성능 경쟁을 통한 차별적인 부가가치 창출에 집중한다면, 안정적인 기업가치 상승은 시간 문제라고 생각합니다.

]]>
[세미의 시대 1편] 당신의 질문 하나가 데이터센터를 더 뜨겁게 만든다면? /the-semiconductor-era-ep1/ Thu, 17 Jul 2025 00:00:21 +0000 /?p=50954

0과 1로 움직이는 디지털 세상 속에서 ‘반도체가 이끄는 산업의 현재와 미래’를 조망하는 다큐멘터리 시리즈, [세미의 시대; 세상을 설계하는 작은 조각]을 새롭게 선보입니다.
SK하이닉스 뉴스룸이 깊이 있게 준비한 이번 시리즈에서는 산업별 최신 이슈를 심층적으로 분석하고, 전문가와 함께 해법 및 발전 방향을 모색합니다. 이 과정에서 작지만 혁신적인 반도체 기술이 어떤 돌파구를 제시하는지도 살펴봅니다. 1편에서는 AI 데이터센터가 불러온 기후위기의 실태를 짚어보고, 그 해결책으로 주목받는 반도체 기술을 조명합니다.

“챗GPT(ChatGPT)에 ‘고맙다’는 말을 자제해 주세요.”
– 샘 올트먼(Samuel H. Altman) 오픈AI 최고경영자

모든 것을 알고 있고 무엇이든 답하는 생성형 AI이지만, 유독 ‘인사’만은 자제 해달라고 당부한다. 우리가 AI에게 건네는 짧은 인사 한마디가 전력 소비를 증가시키고 지구를 더 뜨겁게 만들어 기후위기를 앞당기고 있기 때문이다. AI를 쓰면 쓸수록 지구가 뜨거워진다는 역설적인 현실 속에서 뉴스룸은 AI가 환경에 미치는 영향을 구조적으로 살펴보고 해결책을 모색해 봤다.

급증하는 데이터센터 전력 소비… 원인은 ‘AI 서버’

지난 2023년 챗GPT의 등장과 함께 생성형 AI가 확산되면서 일상과 산업 전반은 큰 변화를 맞았다. 가장 큰 영향을 받은 분야는 ‘데이터센터(Data Center)’였다. AI 서비스가 급증하면서 AI 연산량도 기하급수적으로 늘었는데, 이로 인해 전력 소비와 탄소 배출도 급격히 증가했다.

국제에너지기구(IEA) 보고서(Energy and AI, 2025)에 따르면, 2024년 전 세계 데이터센터 전력 소비량은 약 415TWh(테라와트시)에 달할 것으로 추정된다. 이는 주행거리 약 500km의 전기차 55억 대를 충전할 수 있는 막대한 양이다. 더 심각한 문제는 이 수치가 앞으로 더욱 증가한다는 사실이다. IEA는 2030년 데이터센터 전력 소비량이 약 945TWh를 기록할 것으로 전망했다.

▲ 이병훈 교수(포스텍 반도체공학과)가 AI 서버의 전력 소비량에 관해 설명하고 있다.

원인은 AI 연산을 담당하는 가속 서버(Accelerated Server), 즉 AI 서버에 있다. 이 서버의 GPU는 CPU 기반의 일반 서버보다 월등히 많은 전력을 소비한다. 이병훈 교수(포스텍 반도체공학과)는 “AI 서버는 일반 서버보다 약 7~8배 많은 전력을 사용하며, 특히 CPU 중심의 AI 연산 과정에서 막대한 전력이 소모된다”고 설명했다.

데이터센터 전력 소비의 상당 부분을 AI 서버가 차지한다는 사실은 IEA 보고서에서도 엿볼 수 있다. IEA에 따르면 2030년 AI 서버의 전력 소비량은 약 300TWh에 이를 전망이다. 이는 전체 소비량의 약 1/3에 해당한다. 정리하자면 AI 활용이 늘수록 AI 서버의 전력 소비량과 탄소 배출도 급격히 증가할 수밖에 없는 것이다.

탄소 배출과 기후변화 우려… 다각적 해결책 필요

정수종 교수(서울대학교 기후테크센터 센터장)는 “2030년 데이터센터 전력 소비량인 945TWh는 일본 전체 전력 소비량과 비슷한 수준”이라며 “이러한 데이터센터 전력 소비로 인해 약 25억 톤의 탄소가 배출될 가능성이 있다”고 경고했다.

▲ 정수종 교수(서울대 기후테크센터 센터장)가 AI 데이터센터의 탄소 배출 문제를 지적하고 있다.

데이터센터에서 촉발된 기후변화 원인 물질이 지구온난화를 가속화해 다양한 부작용을 초래할 수 있다는 게 그의 설명이다.

하지만 AI 발전을 멈출 수 없기에 전문가들은 탄소 배출 최소화를 위한 다각적 해결책을 모색해야 한다고 입을 모은다. IEA에 따르면 AI 기반 에너지 관리와 워크로드 스케줄링 등 소프트웨어 최적화만으로도 최대 15%의 에너지를 절약할 수 있다. 또 데이터센터 효율 개선, 친환경 재생에너지 활용, 소형모듈원자로* 및 탄소포집* 등 새로운 대체 에너지 개발도 검토되고 있다.

* 소형모듈원자로(Small Modular Reactor, SMR): 기존 원전보다 작고 모듈 형태로 제작해 현장에 설치할 수 있으며, 이산화탄소 직접 배출이 없는 친환경 에너지원
탄소포집(Carbon Capture Utilization and Storage, CCUS): 발전소나 산업시설에서 나오는 이산화탄소를 포집해 지하 저장하거나 재활용하는 기술

근본적인 해결책은 반도체 기술 혁신이다. 데이터센터 주요 전력 소모원이 AI 서버인 만큼, 이 서버의 핵심 부품인 반도체의 성능과 효율을 높이는 것은 가장 효과적인 해결책일 수밖에 없다. 관련해 이병훈 교수는 “새로운 반도체 기술로 전력 소모를 기존 대비 1/100 수준까지 줄이는 연구가 진행 중”이라며 “데이터 이동량 감소를 위한 새로운 아키텍처도 고려되고 있다”고 밝혔다.

SK하이닉스, AI 메모리 기술로 데이터센터 전력 문제 해결

SK하이닉스 역시 데이터센터의 전력 효율을 높이기 위해 다양한 AI 메모리를 개발하고 있다.

고대역폭 메모리 HBM(High Bandwidth Memory)에는 어드밴스드 MR-MUF* 기술을 적용해 방열성과 안정성을 높였다. 최근에는 베이스다이(Base Die) 성능과 전력 효율을 개선한 HBM4 샘플도 선보였다.

전력 소모를 줄여주는 AI 데이터센터용 고용량 eSSD(기업용 SSD) 개발도 지속적으로 이뤄지고 있다. QLC* 기반 PS1012는 제한된 공간에 더 많은 데이터를 담고, 빠른 전송 속도로 AI 학습 시간을 줄여 전력 소비를 낮추는 데 기여할 수 있다.

저전력 D램 기반의 AI 서버 특화 메모리 모듈 SOCAMM*도 개발 중이다. 기존 서버용 메모리 대비 작은 폼팩터를 갖춘 이 제품은 AI 데이터센터의 에너지 효율을 높이는 데 기여할 것으로 기대된다.

이와 같이 SK하이닉스는 다양한 고효율 메모리 기술을 개발하며, 데이터센터 문제에 직접적인 해법을 제시하는 중이다.

* 어드밴스드(Advanced) MR-MUF: 기존 칩 두께 대비 40% 얇은 칩을 휘어짐 없이 적층할 수 있는 칩 제어 기술(Warpage Control)이 적용되었으며, 신규 보호재를 통해 방열 특성까지 향상된 차세대 MR-MUF 기술
* QLC: 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개)-PLC(Penta Level Cell, 5개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음
* SOCAMM(Small Outline Compression Attached Memory Module): 기존의 서버용 메모리 모듈보다 더 작은 폼팩터를 가지면서 전력 효율이 높은 저전력 D램 기반의 AI 서버 특화 메모리 모듈

AI 메모리 기술과 함께 AI의 발전은 앞으로도 계속될 전망이다. 투자 또한 계속된다. 스타게이트 사(社)는 2029년까지 수 GW(기가와트)급 데이터센터를 건설할 계획이며, 대만도 엔비디아와 협력해 AI 데이터센터를 건립한다고 밝혔다. 한국의 경우 SK가 AWS와 협력해 울산에 100MW(메가와트)급 친환경 AI 데이터센터를 건설하며, 장기적으로 1GW 규모로 확대한다는 계획이다.

이처럼 세계 곳곳에서 데이터센터의 수가 빠르게 증가하는 가운데, AI의 발전 속도는 결국 얼마나 효율적으로 에너지를 관리하느냐에 달려 있다고 해도 과언이 아니다. 어쩌면 그 시작은 작은 반도체 칩 하나에 달려 있을지도 모른다.

]]>
SK하이닉스, ‘Intel AI Summit Seoul 2025’ 참가… AI 시대 메모리 반도체 중요성 강조하며 글로벌 테크 리더십 선보여 /intel-ai-summit-seoul-2025/ Wed, 02 Jul 2025 06:30:55 +0000 /?p=50450

SK하이닉스가 지난 1일 개최된 Intel AI Summit Seoul 2025에 참가해 고성능 AI 서버와 스토리지 분야에서 차별된 메모리 설루션을 선보이며 메모리 반도체 분야의 글로벌 경쟁력을 다시 한번 입증했다. Intel AI Summit은 인텔(Intel)이 전 세계 24개 주요 도시에서 매년 정기적으로 개최하는 행사로 AI 산업의 잠재력과 미래 전략을 논의하는 자리이다. 올해는 ‘AX: Designing the Future with AI Innovation(AI개발의 혁신, 미래를 디자인하다)’라는 주제로 AI 기술의 최신 트렌드와 혁신적인 적용 사례를 공유하고, 산업 전반에 걸친 AI의 발전 방향을 함께 모색했다.

SK하이닉스는 지난해 세션 발표에 참가한 데 이어, 올해 Platinum Sponsor로 참가해 ‘풀스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)’를 주제로 전시 부스를 운영하며 AI 혁신을 선도해 나갈 메모리 제품과 기술을 소개했다. 특히, SK하이닉스의 캐릭터를 활용한 디자인으로 독보적인 경쟁력을 갖춘 다양한 제품과 기술력을 관람객들에게 보다 친근하게 전달했다.

혁신적인 AI 메모리 제품, 전문가들의 설명과 함께 선보여

이번 행사에서 SK하이닉스는 현존하는 HBM 제품 가운데 최대 용량인 36GB를 구현한 ‘HBM3E 12단’과 초당 2TB 이상의 데이터 처리 속도를 자랑하는 ‘HBM4 12단’을 선보였다. HBM4 12단은 AI 메모리가 갖춰야 할 세계 최고 수준의 속도를 구현한 제품으로 회사는 최근 업계 최초로 주요 고객사에 해당 제품 샘플을 공급했다[관련기사]. 무엇보다 TSV*, 어드밴스드 MR-MUF* 등 HBM에 적용된 기술을 알기 쉽게 표현한 3D 구조물을 전시해 많은 관람객의 이목을 집중시키며 AI 메모리 기술 리더십을 다시 한번 증명했다.

HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨
* TSV(Through-Silicon Via): D램 칩에 수천 개의 미세 구멍을 뚫어 상하층 칩의 구멍을 수직 관통하는 전극으로 연결하는 기술
어드밴스드(Advanced) MR-MUF: 기존 칩 두께 대비 40% 얇은 칩을 휘어짐 없이 적층할 수 있는 칩 제어 기술(Warpage Control)이 적용되었으며, 신규 보호재를 통해 방열 특성까지 향상된 차세대 MR-MUF 기술

SK하이닉스는 ▲RDIMM* ▲3DS* RDIMM ▲Tall MRDIMM* ▲SOCAMM ▲LPCAMM2 ▲CMM(CXL* Memory Module)-DDR5 등 글로벌 AI 메모리 시장을 선도할 차세대 제품을 대거 선보였다. 이 가운데 CMM-DDR5는 DDR5 D램에 CXL 메모리 컨트롤러를 더한 제품으로, 서버 시스템에 이 제품을 적용할 경우 기존 DDR5 모듈 대비 용량이 50% 늘어나고 제품 자체의 대역폭도 30% 확장돼 초당 36GB의 데이터를 처리할 수 있다.

* RDIMM(Registered Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품
* 3DS(3D Stacked Memory): 2개 이상의 D램칩을 TSV(수직관통전극)로 연결해 패키징을 완료한 고대역폭 메모리 제품
MRDIMM(Multiplexed Rank Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품으로, 모듈의 기본 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품
* CXL(Compute Express Link): 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스. 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있음

뿐만 아니라, 176단 4D 낸드 기반의 데이터센터 eSSD*인 ▲PS1010 E3.S를 비롯해 238단 4D 낸드 기반의 ▲PEB110 E1.S, QLC* 기반 61TB(테라바이트) 제품인 ▲PS1012 U.2* 등 압도적인 성능의 eSSD 제품을 선보였다.

* eSSD(Enterprise Solid State Drive): 서버나 데이터센터에 탑재되는 기업용 SSD
* QLC: 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개)-PLC(Penta Level Cell, 5개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음
* U.2: SSD 형태를 칭하는 폼팩터(FormFactor)의 일종으로 주로 서버나 고성능 워크스테이션(Workstation)에 사용되며 대용량 저장과 높은 내구성을 가짐. 특히 U.2는 2.5인치 폼팩터로 기존의 서버 및 스토리지 시스템과의 호환성이 뛰어나, 별도의 인프라 변경 없이도 고성능 SSD로 전환 할 수 있음

SK하이닉스는 이번 전시에서 관람객과의 소통을 강화하기 위해 전문가와의 대화 시간을 마련했다. RDIMM, CXL Memory, eSSD 등 총 3개 제품의 담당자들이 직접 참여해 각 제품에 대한 깊이 있는 설명과 질의응답을 통해 SK하이닉스의 기술 중심 기업 이미지를 한층 더 공고히 했다.

당일 행사에서는 인텔(The Open Path to Enterprise AI, 엔터프라이즈 AI로 가는 길)과 네이버클라우드(네이버클라우드가 만들어가는 AI 생태계), 레노버(Smarter AI for All, 모두를 위한 더 스마트한 AI), SK하이닉스의 기조연설을 포함하여 테크 기업 리더, AI 개발자, 스타트업, 정부 관계자 등 각 분야의 전문가들이 한자리에 모여 AI 기술 동향과 산업 간 협력 방안에 대해 깊이 있게 논의는 자리도 마련됐다.

SK하이닉스는 기조연설을 통해 AI 시대 메모리 반도체의 중요성을 강조하고 그에 따른 미래 비전을 공유했다. 정우석 부사장(Software Solution 담당)은 ‘New Opportunities in the Memory-Centric AI Computing Ear(메모리센트릭 AI 컴퓨팅 시대의 새로운 기회)‘ 주제로 발표를 진행하며, AI시대 폭발적으로 증가하는 데이터를 효과적으로 처리하기 위한 메모리 중심의 AI 컴퓨팅의 중요성과 이를 위한 SK하이닉스의 다양한 차세대 AI 메모리 기술들을 소개했다.

SK하이닉스는 “이번 Intel AI Summit Seoul은 AI 시대를 이끌어갈 회사의 AI 메모리 기술의 현재와 미래를 공유할 수 있는 뜻깊은 자리였다”며, “앞으로도 인텔과의 원팀 파트너십을 바탕으로 AI 생태계의 진화를 앞당기는 데 앞장서겠다”고 밝혔다.

]]>
SK하이닉스, ‘HPE Discover 2025’ 참가… AI 시대를 선도할 서버 및 스토리지 기술 전략 선봬 /hpediscover-2025/ Thu, 26 Jun 2025 05:00:41 +0000 /?p=49797

SK하이닉스가 6월 23일부터 26일까지(미국시간) 미국 라스베이거스에서 열린 ‘HPE Discover 2025’(이하 HPED)에 참가해 인공지능(AI) 시대를 선도할 기술 로드맵과 서비스 전략, AI 클라우드 비전을 공유했다.

HPED는 HPE(Hewlett Packard Enterprise) 사(社)가 매년 개최하는 글로벌 기술 컨퍼런스다. 올해는 ‘AI is here. Unlock what’s next(AI와 함께 다음의 가능성을 열다).’라는 슬로건 아래 AI 시대의 본격적인 개막과 그 이후의 가능성에 관해 집중 조명했다. 행사에서는 Tech Academy, AI Developer Workshop 등의 실습 교육과 기술 발표 세션, 데모와 전시가 어우러진 실무 중심의 네트워크 프로그램 등이 다채롭게 진행됐다.

SK하이닉스는 AI 인프라 구현의 핵심이 되는 차세대 AI 메모리 기술과 서버 및 스토리지 설루션을 중심으로 다양한 전시와 발표를 진행하며 회사의 기술 리더십을 적극 소개했다. SK하이닉스의 전시 부스는 ▲HBM* ▲Server DIMM* ▲eSSD* ▲CMM(CXL* Memory Module)-DDR5 등 총 네 개 섹션으로 구성됐다. 각 섹션에는 주요 제품 및 설루션을 직관적으로 전달하는 홍보 키오스크가 마련됐다. 또한, 자사 제품 캐릭터를 활용한 부스 디자인으로 관람객들의 이목을 집중시켰다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨
* DIMM(Dual In-line Memory Module): 서버와 같은 컴퓨팅 시스템에 장착되는 표준 메모리 모듈로, 전송 속도와 용량, 구조적 설계에 따라 다양한 형태로 분류
* eSSD(Enterprise Solid State Drive): 서버나 데이터센터에 탑재되는 기업용 SSD
* CXL(Compute Express Link): 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스. 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있음

HBM 섹션에서는 ‘HBM4 12단’과 ‘HBM3E 12단’을 공개했다. HBM4는 AI 메모리에 요구되는 세계 최고 수준의 속도인 초당 2TB(테라바이트) 이상의 데이터를 처리하는 제품으로, 회사는 최근 업계 최초로 주요 고객사에 해당 제품 샘플을 공급하며 AI 메모리 기술 리더십을 다시 한번 증명한 바 있다[관련기사].

HBM3E는 현존하는 HBM 제품 가운데 최대 용량인 36GB를 구현한 제품이다. 방대한 데이터 처리를 위한 고용량 메모리 수요가 증가함에 따라, 회사는 지난해 9월 업계 최초로 HBM3E 12단 양산에 돌입했다[관련기사]. SK하이닉스는 HBM3E의 공급을 본격 확대하는 한편, HBM4 역시 고객 수요에 맞춰 적기에 개발·제공함으로써 글로벌 고객사들과의 파트너십을 더욱 강화해 나간다는 계획이다.

Server DIMM 섹션에서는 차세대 서버 시장을 겨냥한 DDR5 D램 기반의 메모리 모듈 라인업을 소개했다. 특히, 10나노(nm)급 6세대(1c)* 미세공정 기술을 적용한 RDIMM*, MRDIMM* 등 다양한 폼팩터의 제품이 전시돼 눈길을 끌었다. 이 중 DDR5 TALL MRDIMM은 고용량 구현을 위해 일반 MRDIMM 대비 높아진 물리적 폼팩터를 적용한 제품이다. 최대 256GB 용량과 12.8Gbps 속도를 지원하며, 고밀도 서버 환경에 대응하는 차세대 설루션으로 주목받고 있다. 또한, 저전력·고성능 구현이 가능한 LPDDR5X 기반의 고집적 메모리 모듈 SOCAMM도 함께 선보이며, 고성능 컴퓨팅(HPC) 및 AI 워크로드에 최적화된 메모리 포트폴리오를 강조했다.

* 10나노(nm)급 D램 공정 기술은 1x(1세대)-1y(2세대)-1z(3세대)-1a(4세대)-1b(5세대)-1c(6세대) 순으로 개발되어 왔으며, SK하이닉스는 2024년 8월 세계 최초로 1c 기술 개발에 성공했다.

* RDIMM(Registered Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품

* MRDIMM(Multiplexed Rank Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품으로, 모듈의 기본 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품

eSSD 섹션에서는 PS1010, PE1010, PE9010, SE5110 등의 기업용 SSD 라인업을 통해 다양한 서버 환경과 성능 요구를 충족할 수 있는 폭넓은 제품군을 공개했다. 또한, HPE ProLiant 서버에 PS1010을 탑재한 데모를 통해 실제 운용 환경에서의 성능과 안정성을 입증하고, HPE와의 견고한 파트너십을 강조했다. PS1010은 176단 4D NAND 기반의 고성능 eSSD로, PCIe* 5.0 인터페이스를 지원하며 AI 연산과 데이터센터 환경에 최적화된 설루션이다.

* PCIe(Peripheral Component Interconnect express): 디지털 기기의 메인보드에서 사용하는 직렬 구조의 고속 입출력 인터페이스

CMM-DDR5 섹션에서는 CXL 기반 메모리 모듈의 확장성과 효율성을 부각했다. CMM-DDR5는 기존 구성 대비 최대 50% 확장된 용량과 30% 향상된 메모리 대역폭을 제공한다. 회사는 CMM-DDR5가 탑재된 인텔 GNR-SP 플랫폼 서버를 통해 실제 운용 환경에서의 적용 가능성과 시스템 확장성을 함께 제시했으며, 기존 메모리 단독 구성 대비 성능과 비용 효율 측면 모두에서 경쟁력이 높다는 점을 강조했다[관련기사].

한편, SK하이닉스는 이번 행사에서 CXL 및 eSSD를 주제로 총 2건의 발표를 진행했다. 이 중 Breakout 세션에서는 HPE와의 공동 발표를 통해 파트너십 기반 기술 협력 사례를 소개했다. ‘Empowering AI and Enterprise Storage: SK hynix’s Readiness for AI workload(AI 시대를 위한 eSSD의 혁신: AI워크로드에 대응하는 SK하이닉스)’를 주제로, SK하이닉스의 김학인 TL(NAND TP), 애니윤(Annie Yuan) TL(NAND TP)과 HPE의 Erik Grigson이 공동 발표자로 참여해, 엔터프라이즈 스토리지 환경에서의 AI 워크로드 대응 전략과 eSSD의 기술적 차별성을 공유했다.

Theater 세션에서는 김병율 TL(DRAM solution)과 산토스 쿠마르(Santosh Kumar) TL(DRAM TP)이 ‘CXL Memory Usage Model and Next CMM Proposal(CXL 메모리 활용 모델 및 차세대 CMM 제안)’을 주제로 발표를 진행했으며, 실제 활용 가능한 CXL 메모리 모델과 CMM-DDR5의 발전 방향에 대해 설명했다.

SK하이닉스는 “AI 인프라 확산 속도가 빨라지는 가운데, 고성능 메모리와 스토리지가 핵심 설루션으로 자리잡고 있다”며 “앞으로도 HPE 등 글로벌 파트너와의 협력을 바탕으로 시장 요구에 선제적으로 대응하며, 메모리 기반의 AI 인프라 혁신을 가속화해 나가겠다”라고 밝혔다.

]]>
SK하이닉스 손윤익 팀장, 대한민국 엔지니어상 수상…”끊임없는 기술 혁신, 원팀 스피릿 덕분” /2025-korea-engineer-awards/ Wed, 18 Jun 2025 05:00:13 +0000 /?p=49851

SK하이닉스는 지난 17일, 서울 강남구 삼정호텔에서 개최된 ‘2025년 상반기 대한민국 엔지니어상 시상식’에서 미래기술연구원 DPERI조직 손윤익 팀장이 ‘대한민국 엔지니어상(이하 엔지니어상)’을 수상했다고 밝혔다.

과학기술정보통신부와 한국산업기술진흥협회가 수여하는 엔지니어상은 산업 현장에서 탁월한 연구개발 성과를 이뤄낸 엔지니어에게 수여되며, 우리나라 기술 경쟁력을 높이는 데 기여한 주역들을 조명하고 있다.

IT 엔지니어 분야에서 수상하게 된 손 팀장은 SK하이닉스의 차세대 AI 반도체 기술 개발을 이끌어온 주역이다. 그는 AI 시대를 이끌어가는 핵심 반도체인 HBM*과 모바일용 저전력 D램인 LPDDR*의 개발을 주도하며, 기술 한계에 지속적으로 도전해 온 공로를 인정받았다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨.
* LPDDR(Low Power Double Data Rate): 스마트폰과 태블릿 등 모바일용 제품에 들어가는 D램 규격으로, 전력 소모량을 최소화하기 위해 저전압 동작 특성이 있음. 규격 명에 LP(Low Power)가 붙으며, 1-2-3-4-4X-5-5X 순으로 개발됨.

올해로 입사 19년 차를 맞은 손 팀장은 소자 엔지니어로서 다양한 D램 제품의 Peri* 트랜지스터 개발을 위해 힘써왔으며, 고성능·저전력·고신뢰성을 요구하는 까다로운 조건 속에서도 고객이 체감할 수 있는 수준의 성능 향상을 위한 기술 리더십을 발휘해 왔다.

특히, LPDDR5 개발 과정에서는 D램에 HKMG* 공정[관련기사]을 성공적으로 적용해 업계의 주목을 받기도 했다. 이 기술은 기존 대비 성능과 전력 효율을 동시에 개선할 수 있는 공정으로, SK하이닉스 메모리 제품의 경쟁력을 획기적으로 끌어올리는 데 이바지했다.

뉴스룸은 손윤익 팀장을 만나 수상 소감과 함께 그동안의 기술 여정에 대해 들어봤다.

* Peri(Peripheral): 데이터를 저장하는 셀(Cell)들을 선택하고 컨트롤하는 역할을 하는 주변부 회로 영역
* HKMG(High-K Metal Gate): 유전율(K)이 높은 물질을 D램 트랜지스터 내부의 절연막에 사용해, 공정 미세화로 인해 발생하는 누설 전류를 막고 정전용량(Capacitance, 데이터 저장에 필요한 전자량)을 개선한 차세대 공정. 처리 속도를 빠르게 하면서도 소모 전력을 줄일 수 있음

“원팀 스피릿으로 뭉친 동료들과 수상의 기쁨 나누고파”

▲팀원들과 기념사진을 촬영하고 있는 손윤익 팀장(가운데)

동료들과 수상의 기쁨을 나누고 싶습니다. 이번 수상은 저 혼자만의 성과라기보다, 수많은 동료와 함께 고민하고 도전해 온 시간에 대한 값진 결실이라고 생각합니다. 특히, 한계에 부딪힐 때마다 함께 머리를 맞대고 해결책을 찾아갔던 순간들이 떠오릅니다. 앞으로도 ‘원팀 스피릿’으로 똘똘 뭉쳐 국가 산업 발전을 이끌 기술 혁신을 이어가겠습니다.”

손 팀장은 성과를 함께 이룬 동료들에게 먼저 감사를 전하며, ‘원팀 스피릿[관련기사]’이야말로 지금의 기술 경쟁력을 가능케 한 핵심 가치였다고 말했다.

“LPDDR과 HBM은 단순히 성능만 높인다고 되는 것이 아니라, 저전력, 신뢰성, 양산성까지 동시에 확보해야 했던 어려운 도전이었습니다. 각 조직이 SUPEX*를 추구하며 각자의 전문 영역에서 최선을 다했고, 서로를 이해하고 협력한 덕분에 지금의 AI 메모리 리더십을 유지할 수 있었습니다.”

* SUPEX(Super Excellent Level): SK 경영철학인 SKMS에서 말하는 인간의 능력으로 도달할 수 있는 최고 수준

완전히 새로운 접근… “기술 혁신 위해선 ‘패러다임 전환’ 필요해”

손 팀장의 여정에서 가장 상징적인 성과는 D램에 HKMG 공정을 성공적으로 적용한 일이다. 본래 HKMG 공정은 CPU나 AP와 같은 로직(Logic) 반도체에 적용됐던 공정으로 D램 제조에 적용하기에는 많은 제약이 있어, 그동안은 시도되지 않았다. 그러나 손 팀장은 기술 혁신을 위해 과감히 도전했고, 결과적으로 제품의 성능과 전력 효율을 획기적으로 개선하는 데 성공했다.

“D램에 HKMG를 도입한다는 것은 단순한 기술 확장이 아닌, 패러다임 전환이었습니다. 셀(Cell) 트랜지스터에 미치는 영향을 최소화하면서도 HKMG의 단점인 GIDL*과 신뢰성 문제를 극복해야 했습니다. 새로운 시도를 두려워하지 않고 도전한 덕분에 결국 최고의 경쟁력을 확보할 수 있었습니다.”

* GIDL(Gate-Induced Drain Leakage): 게이트 전극에 인가된 전압이 드레인과 소스 영역에 예기치 않은 누설 전류(Leakage Current)를 유발하는 현상으로 트랜지스터가 꺼진(off) 상태임에도 불구하고, 게이트 전압 때문에 드레인-소스 간에 전류가 흐르는 현상을 의미한다.

손 팀장이 이룬 또 다른 주목할 만한 성과는 그동안 꾸준히 연구·개발해 온 Peri 영역의 소자 기술들이다. 해당 기술들은 AI 메모리 반도체의 시장의 핵심 제품인 HBM의 성능 개선에도 크게 이바지하며, SK하이닉스 반도체 제품 전반에 걸친 혁신을 이뤄냈다.

“최근 AI에 사용되는 고성능 D램은 초고속, 초저전력 특성이 필수인데, 이를 만족하기 위해선 Peri 영역의 성능이 중요한 역할을 합니다. 방대한 양의 데이터를 처리해야 하는 AI 메모리의 경우, 데이터가 다니는 입구와 출구 역할을 하는 Peri 영역의 성능이 뒷받침되지 않는다면, 결국 병목현상이 발생할 수밖에 없고, 제품 자체의 성능 향상도 기대할 수 없기 때문입니다.”

이러한 기술적 과제를 해결하기 위해 손 팀장은 Peri 영역에 대한 집요한 탐구를 이어왔다. 그는 팀원들과 함께 끊임없이 토론하고 연구하며, 때로는 새로운 기술을 고안해 내고, 때로는 과거에 연구되었던 기술을 다시 꺼내어 재해석했다. 이를 통해 축적된 경험과 성과들은 오늘날 SK하이닉스가 자랑하는 ‘Peri 기술력’의 기반이 됐다.

“엔지니어, ‘기술에 대한 믿음’과 ‘실패를 견디는 끈기’가 중요해”

이번 수상을 통해 국가의 산업을 이끌어가는 엔지니어로 인정받은 만큼, 손 팀장에게서 엔지니어로서 자부심도 엿볼 수 있었다.

“엔지니어는 기술을 통해 세상의 문제를 해결하는 사람들입니다. 여러 제약 속에서도 새로운 가능성을 찾아내고 실현하는 것이 엔지니어의 본질이죠. 미래 엔지니어들에게는 ‘기술에 대한 믿음’과 ‘실패를 견디는 끈기’를 꼭 당부하고 싶습니다. 자신이 만든 기술이 세상을 바꿀 수 있다는 확신을 갖고, 패기를 실천하길 바랍니다.”

마지막으로 손 팀장은 격변의 시기를 함께하는 SK하이닉스 구성원들에 향한 당부의 말도 빼놓지 않았다.

우리는 지금 AI 시대로 전환하는 중대한 시점에 있습니다. 기술은 결국 사람이 만드는 것이며, 구성원 개개인의 열정과 집중력, 협업이 가장 큰 경쟁력입니다. 기술의 깊이만큼, 동료와의 신뢰와 협업의 깊이도 중요합니다. 함께 배우고 실패하며 성장하는, 진정한 원팀이 되었으면 좋겠습니다.”

]]>
SK하이닉스, 반도체 기술 쉽게 설명하는 ‘방구석 반도체’ 영상 콘텐츠 공개 /banggu-seok-semiconductor_ep1/ Wed, 11 Jun 2025 05:00:11 +0000 /?p=48807

▲ (왼쪽부터)방구석 반도체 1편을 촬영하고 있는 조기홍 앰버서더, 이수인 앰버서더, 김기환 MC, 이주완 인더스트리 애널리스트, 김동환 앰버서더

SK하이닉스가 반도체 기술을 일반인도 쉽게 이해할 수 있도록 풀어낸 유튜브 콘텐츠 ‘방구석 반도체’ 시리즈를 선보였다.

‘방구석 반도체’는 이주완 박사(인더스트리 애널리스트)와 SK하이닉스 대학생 앰버서더가 함께 참여해 복잡한 반도체 기술을 친근하게 설명하는 영상 콘텐츠이다. 첫 번째 에피소드는 ‘AI 시대의 진짜 주인공, 메모리 반도체’를 주제로 제작됐다.

‘방구석 반도체’는 대학생 앰버서더들이 챗GPT, 음성-텍스트 변환 등 일상에서 사용하는 AI 서비스 경험담을 나누는 것으로 시작된다. 이를 통해 AI가 어떻게 우리 생활에 스며들어 있는지 자연스럽게 소개하고, 이러한 AI 서비스를 가능하게 하는 핵심 요소 중 하나가 바로 메모리 반도체라는 점을 설명했다.

영상에서는 메모리 반도체의 종류와 특징을 퀴즈로 흥미롭게 소개했다. 휘발성 메모리인 D램과 비휘발성 메모리인 낸드플래시의 차이점을 ‘전원을 껐을 때 데이터가 사라지는지 여부’로 쉽게 구분하고, D램의 쓰기 속도가 낸드플래시보다 1,000배 빠르다는 사실을 퀴즈로 제시해 참가자들의 놀라움을 자아냈다. AI 연산 과정에서 빠른 임시 저장이 필요하기 때문에 고성능, 고대역폭 D램이 핵심 역할을 한다는 점을 강조했다.

‘방구석 반도체’는 AI 시대에 주목받고 있는 차세대 메모리 기술에 대해서도 다뤘다. 최근 AI 메모리 제품으로 많은 관심을 받는 ▲HBM* 을 비롯해 대규모 데이터 처리와 저장에 최적화된 ▲eSSD* 와 메모리에 연산 기능을 더한 ▲PIM* , 여러 컴퓨팅 자원을 하나로 묶어 고성능을 구현하는 ▲CXL* 등을 소개했다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨

* eSSD(Enterprise Solid State Drive): 서버나 데이터센터에 탑재되는 기업용 SSD

* PIM(Processing-In-Memory): 메모리에 프로세서의 연산 기능을 더해, 기존 메모리와 프로세서 사이 데이터 병목현상을 해소하고 속도 성능을 획기적으로 높여주는 차세대 메모리

* CXL(Compute Express Link): 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스. 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있음

이주완 박사는 “현재 우리가 사는 세상의 모든 곳에는 메모리가 존재한다”라며 “디지털화와 모바일화의 핵심에 반도체가 있다”라고 설명했다.

‘방구석 반도체’ 시리즈는 총 3회로 구성된다. 2회차에서는 글로벌 AI 메모리 시장을 선도하는 SK하이닉스의 HBM에 대해 더욱 심도 있게 다루고, 3회차에서는 반도체가 바꿀 커리어와 진로에 대해 논의할 계획이다. 시리즈는 SK하이닉스 공식 유튜브 채널을 통해 순차적으로 공개된다.

SK하이닉스는 “복잡하고 어렵게 느껴지는 반도체 기술을 누구나 쉽게 이해할 수 있도록 제작한 콘텐츠”라며 “반도체에 대한 관심과 이해 확산에 기여하고자 한다”고 밝혔다.

반도체 1도 몰라도 이건 알아야 함! 반도체 전문가 이주완 박사가 말아주는 AI 메모리 A to Z | 방구석 반도체 EP.1

]]>