카페검색 본문
카페글 본문
-
엔비디아 H100 2025.03.31해당카페글 미리보기
1. H100의 주요 특징 1) Hopper 아키텍처 NVIDIA Hopper 아키텍처는 이전 Ampere 아키텍처의 성능을 대폭 향상시켰으며, H100 GPU는 이를 대표하는 제품입니다. Hopper Streaming Multiprocessors(SM): 더 높은 병렬 처리 성능과 에너지 효율성 제공. 2...
-
AI, GPU와 HBM 2025.04.14해당카페글 미리보기
GPU와 HBM이 결합되면, 데이터 처리 속도와 전력 효율이 크게 향상됩니다. 적용 사례 1) AI 및 머신러닝 NVIDIA A100, H100 GPU는 HBM2E와 HBM3를 사용하여 AI 모델 학습과 추론 성능을 극대화. 대규모 데이터를 병렬로 처리하는 AI 작업에서 HBM은 필수적...
-
점점 커지고 있는 AI 엔지니어들의 영향력 …엔비디아 차세대 GPU 'H100'에 SK하이닉스 'HBM3' 2023.11.23해당카페글 미리보기
그를 다시 ... blog.naver.com 점점 커지고 있는 AI 엔지니어들의 영향력 출처 : 피우스의 .. | 블로그 엔비디아 차세대 GPU 'H100'에 SK하이닉스 'HBM3' 탑재된다 < 산업일반 < 산업 < 기사본문 - AI타임스 - https://www.aitimes.com/news/articleView...
-
엔비디아 H100 GPU 보유 순위 (2024.10기준) 2024.10.23해당카페글 미리보기
-
GPU 품귀현상에 광주AI데이터센터 뜬다 2024.05.13해당카페글 미리보기
지능 기업과 기관의 단비가 되고 있다. 특히 인공지능제품 개발에 최적화된 것으로 알려진 엔비디아의 그래픽처리장치(GPU) ‘H100’이 탑재된 서버를 갖춘 국가AI데이터센터에 수요가 몰리면서 ‘인공지능 중심도시 광주’의 존재감이 부각되고 있다...
-
AI 데이터센터 발목잡는 GPU 발열…액침냉각이 열쇠[미래on] 2025.04.08해당카페글 미리보기
엔비디아 '블랙웰' 등 최신 그래픽처리장치(GPU)로 인공지능 데이터센터(AIDC)를 구현하고 싶어도 발열이 문제다. 기존 공랭식...기반 AI 가속기 'GB200'은 회사의 이전 호퍼 시리즈 기반 'H100' 대비 추론 능력이 5배, 데이터 처리 능력이 18배 뛰어나다...
-
반도체 산업 Note: GPU와 HBM은 침몰하는가 2025.02.04해당카페글 미리보기
최적화하는 방향을 찾기 위함이었을 것 - 딥시크는 엔비디아 GPU 중 중국 수출이 허용된 H800, H20 등의 저가형 모델을 사용한 것으로 알려졌는데, 이들 칩의 특징은 AI연산에 주로 사용되는 H100, H200 보다 메모리 용량과 밴드위스가 현저히 낮다는 점...
-
아마존의 새로운 AWS 서비스를 통해 고객은 빠른 AI 프로젝트를 위해 엔비디아 GPU를 임대 가능 2023.11.02해당카페글 미리보기
혁신적인 새로운 방법입니다. 고객은 인스턴스당 8개의 GPU를 갖춘 1~64개 인스턴스의 클러스터 크기로 NVIDIA H100 Tensor Core GPU 인스턴스에 액세스할 수 있습니다. 최대 8주 전부터 1일 단위로 최대 14일까지 시간을 예약할 수 있습니다. 고객의 관점...
-
서버 칩이 우리 일상을 완전히 바꾼다고요? NVIDIA라면 가능! Computex 2023에서 발표된 Grace CPU + H100 G 2023.06.02해당카페글 미리보기
서버 칩이 우리 일상을 완전히 바꾼다고요? NVIDIA라면 가능! Computex 2023에서 발표된 Grace CPU + H100 GPU 슈퍼칩 기반 서버 DGX GH200 분석
-
박태웅의 AI 강의 2025 -박태웅 저자(글) / AI 특이점, 5년 안에 온다고? 2025.03.17해당카페글 미리보기
우선 현재의 AI는 자원을 너무 많이 씁니다. 챗GPT를 학습시키는 데 3.7조 원이 들었다고 합니다. 라마3.1은 최신 GPU H100을 1만 6,000대나 돌렸습니다. 한 번에 몇천 가구분의 전기를 씁니다. 이래서는 수지를 맞추기가 어렵습니다. _3강 196쪽 중에서...