고객지원

고객 여러분의 어려움을 해결하기 위해 최선을 다하겠습니다.

Home고객지원공지사항

공지사항

공지 [Intel AI Specialist] HPC / AI 워크로드 최적화 고밀도 서버 (Walker Pass)​

안녕하세요, 디에스앤지입니다! ​ ​Intel의 ITP Platinum 파트너이자 AI Specialist 파트너인 디에스앤지가 오늘 소개해드릴 제품은 시뮬레이션, 모델링, AI Training(학습), AI Inference(추론)과 같은 어플리케이션에 최적화된 Intel® 서버 시스템 S9200WK입니다! ‘Walker Pass’로 불리는 Intel® S9200WK 제품군은 Intel® Xeon® Platinum 9200 프로세서가 장착되었으며 Cascade Lake AP를 지원하여, HPC / AI 워크로드에 최적화된 성능을 제공합니다. Intel Cascade Lake Advanced Processor는 단일 프로세서에 다수의 다이(die)를 가지고 있어 기존의 Xeon® Scalable 프로세서 제품군과 달리 더 크고 새로운 소켓을 필요로 합니다. ​ Intel의 신뢰할 수 있는 품질과 품질, 안정성 그리고 성능을 바탕으로 만들어진 Intel® S9200WK는 단일 컴퓨트 모듈에서 최대 24개 메모리 채널을 지원하여 메모리 집약적인 워크로드에 최적화된 만큼, Deep Learning 및 AI 데이터 처리에 우수합니다.    ​ ​ 극대화된 코어 수 가장 복잡하고 까다로운 워크로드 처리를 위해 설계된 Intel® Xeon® Platinum 9200 프로세서는 모델 별로 각각 32, 48, 56 코어를 지원하며, 이를 장착하는 Intel® S9200WK 제품군은 단일 노드에서 최대 112개의 강력한 프로세서 코어를 지원합니다. 높은 코어 수를 바탕으로 연산(compute)에 있어 최상의 성능을 자랑하여, 대규모 고성능 컴퓨팅 구축에 탁월합니다. ▲ 2U 인클로저 / 최대 448개 코어 지원 ​ 최상의 메모리 Bandwidth Intel® S9200WK 제품군은 노드 당 최대 24개의 DDR4 DIMM 슬롯을 통해 최대 2933MHz 메모리를 지원합니다. 실시간 어플리케이션 등 메모리 집약적인 워크로드를 위해 CPU 당 12개의 메모리 채널, 그리고 컴퓨팅 모듈 당 24개의 메모리 채널을 통해 2배의 메모리 Bandwidth(대역폭)을 제공합니다. 2U 4Node / 2U 2Node의 고밀도 서버 Intel® 서버 시스템 S9200WK는 높은 밀도의 멀티-노드 서버로 설계되었습니다. 더 높은 성능을 위한 고급 냉각 기술인 수랭식(Liquid Cooing)과 공랭식(Air Cooling) 2가지 쿨링 옵션을 제공하여, 고밀도와 높은 에너지 효율성을 지원 가능합니다. 고성능 워크로드를 위해 공랭식은 최대 350W 프로세서 TDP를 지원하며, 수랭식은 최대 400W 프로세서 TDP까지 지원합니다. Intel® Deep Learning Boost 최적화 데이터 분석을 위한 새로운 Intel® Deep Learning Boost 명령어로 Inference(추론) 성능을 크게 가속화합니다. Intel® DL Boost를 이용하는 경우, Intel® Xeon® Platinum 8180 프로세서 대비 최대 30배의 Deep Learning AI Inference(추론) 성능을 제공할 수 있습니다. Machine Learning과 AI 어플리케이션 용 Neural Network(신경망) 연산을 가속화하기 위해, 기존의 AVX-512 명령에서 확장된 VNNI (Vector Neural Network Instruction)를 사용하도록 워크로드를 최적화할 수 있습니다. HPC / AI 워크로드를 위한 최상급 성능의 고밀도 서버인 Intel® S9200WK에 대해 더 궁금하신 분은 고객센터로 연락 주시면 디에스앤지의 IT 전문가를 통해 깊이 있는 상담이 가능합니다!

2019.10.31
공지 [슈퍼마이크로] 최신 GPU 시스템 라인업 확장 1 – 16x GPU 서버 (HGX-2 플랫폼)

안녕하세요! 디에스앤지입니다 :)  슈퍼마이크로는 CPU에서 과도한 부동 소수점 작업을 없애기 위하여 사용되어, Deep Learning에 최적화된 GPU 시스템 라인업을 올 상반기에 확장했습니다:  1. 한 서버 노드에서 최대 16개의 NVLink 기반 (SXM3) GPU를 지원 가능한 10U GPU 시스템 (9029GP-TNVRT) 2. Deep Learning에서 Training(학습)의 다음 단계인 Inference(추론)을 타깃으로 설계된 NVIDIA T4 GPU를 최대 20개까지 지원 가능한 시스템 (6049GP-TRT) 3. GPU 간 연결 속도를 극대화하여 보다 대규모의 Deep Learning 워크로드를 해결 가능하도록 마든 Single Root 시스템 (4029GP-TRT3)   총 3가지의 GPU 시스템을 추가하여 업계에서 가장 탄탄하고 빈틈 없는 포트폴리오를 구축하고 있습니다. 앞으로 이 3가지 시스템에 대해 더욱 자세히 알아보는 시간을 준비했으니 많이 기대해주세요!  ▲ Supermicro X11 GPU Server Portfolio. (Deep Learning Platform)​우선, 첫 번째 시스템인 10U 16x NVLink GPU 시스템 (9029GP-TNVRT)을 먼저 소개 드리겠습니다. 해당 시스템은 최대 16개의 엔터프라이즈 고성능 GPU를 지원할 수 있도록 최적화된 설계로, 대용량 고효율 파워 서플라이를 장착하였으며 GPU의 발열을 해결할 수 있도록 커다란 팬과 공기흐름을 원활하게 하는 아키텍처를 가지고 있으며, 이는 AI, Deep Learning, HPC를 위한 NVIDIA HGX-2 플랫폼을 기반으로 설계되었습니다.  GPU는 본래 컴퓨터 그래픽을 빠른 속도로 처리하기 위해 만들어졌습니다. 애초에 특정된 많은 계산을 동시에 처리하는 목적으로 만들어졌기에, 포괄적인 컴퓨팅을 처리해야 하는 CPU와 달리 제어 영역을 제외하고 빠른 연산 속도를 발휘할 수 있는 병렬 프로세싱이 가능하도록 설계되었습니다. 기존에 연산을 주로 담당하던 CPU는 직렬 처리에 최적화된 Multi Core 방식으로 병렬화 (슈퍼 컴퓨팅) 분석에 있어서 굉장히 많은 비용과 시간이 필요해 사용 분야가 제한적이었던 반면, 최근 몇 년 간 급부상한 GPU는 병렬처리로 설계된 소형의 수천 개의 코어로 구성되어 대규모 데이터를 병목현상 없이 처리할 수 있다는 장점이 있습니다.  인공지능 AI, 클라우드, 자율주행차, 스마트시티, 5G, 스트리밍 컨텐츠 플랫폼 등 4차 산업혁명의 분야들에는 데이터 생성 및 사용량의 폭증이라는 공통점이 있습니다. 이 같은 빅 데이터 시대에서 방대한 데이터의 빠른 처리가 필수 조건인 만큼, 병렬화 연산에 강점을 지닌 GPU는 4차 산업혁명의 생산동력으로 대두되고 있으며 하드웨어 업계에서도 높은 밀도의 GPU 서버가 지속적으로 각광을 받고 있습니다. 슈퍼마이크로 9029GP-TNVRT는 이러한 니즈를 적극적으로 반영하여 한 대의 서버에서 최대 16개의 초고성능 GPU를 지원 가능한 시스템입니다.  ▶ 딥러닝 알고리즘에 최적화된 GPU 사람의 두뇌 신경계를 모방하여 만든 Neural Network 알고리즘의 진화로 인공지능 알고리즘은 크게 변화하였으며, 현재 사용되는 인공지능 알고리즘의 상당수가 병렬화된 알고리즘에 특화되어 발전했습니다. 특히, AI의 핵심으로 자리 잡은 딥러닝 알고리즘은 복잡한 신경망에 특화돼 수천 개 이상의 연산을 동시에 처리해야 하는 병렬 컴퓨팅 기술이 요구됩니다. GPU는 이러한 대규모 병렬 연산에 강점이 있어 AI 구현을 위한 딥러닝 알고리즘 처리에 최적화되어 있습니다.      [AI 트레이닝 및 HPC 최적화 시스템] 1. 대규모 GPU 팜(Farm) 구축 강력한 HPC 활용 여부는 AI 개발에 있어 매우 중요한 문제입니다. GPU 팜(Farm)은 AI 개발을 위해 최적화된 리소스 분배를 기반으로 최단 시간 내에 복잡하고 까다로운 연산을 수행할 수 있도록 하는 여러 대의 서버 집합을 의미합니다. 이는 하나로 연결된 대규모 컴퓨팅 리소스를 바탕으로 렌더링, 신경망 학습 및 여러 가지 기타 과학적 연산 등의 분야를 극도로 가속화시킬 수 있습니다. 하나로 연결된 GPU 팜(Farm)은 분산된 GPU 서버로는 해결할 수 없는 대규모, 극도로 까다로운 연산 처리를 위해 필요합니다. Supermicro 9029GP-TNVRT는 최대 16개의 NVLink GPU를 지원 가능해 이러한 GPU 팜(Farm)을 구축하기에 최적의 조건을 갖추고 있으며, 이 경우 대용량 데이터 훈련(Training) 기반을 마련할 수 있습니다. GPU 팜(Farm)은 다음과 같은 특징을 제공합니다: GPU 호스트 매니지먼트, 공유 가능한 리소스 풀, Chaining 기능, 지능형 스케줄링.  게다가 AI와 IoT가 결합된 AIoT 분야가 급부상 중인 최근의 흐름에 비추어 GPU 팜(Farm)은 더욱 이상적인 GPU 사용 환경입니다. 현재 AIoT 산업은 초기(Initial) 단계를 지나 확장(Scale out) 단계로 접어들었습니다. 확장 단계로 들어서며 더 많은 AIoT 기반의 서비스와 어플리케이션을 제공하기 위해 GPU 시스템에 대한 수요가 증가하고 있습니다. 초기 단계와 달리 어떤 IT 환경에서 사용할지 그리고 어떤 Deep Learning 기술을 적용할지에 따라 GPU 시스템 선택의 폭이 넓어졌습니다. GPU 팜(Farm)에 최적화된 9029GP-TNVRT의 경우, 다수의 GPU와 아주 높은 GPU 성능 그리고 최상의 GPU-to-GPU bandwidth를 기반으로 하여 클라우드 환경에서 Training(학습) 워크로드를 수행하는 데 가장 적합한 시스템입니다. ▲ AIoT 3단계. 현재 확장 단계로 다양한 GPU 서버들이 각광받고 있습니다.​2. NVIDIA HGX-2 플랫폼 Supermicro의 9029GP-TNVRT는 AI 트레이닝 및 HPC 어플리케이션을 위해 설계된 NVIDIA HGX-2 컴퓨팅 플랫폼을 기반으로 하여 기존 GPU 서버 대비 2배의 GPU를 장착할 수 있도록 만들어진 서버입니다. NVIDIA HGX-2 플랫폼은 전세계에서 가장 강력한 가속 스케일-업 서버 플랫폼입니다. Mixed-precision 컴퓨팅으로 설계되어, 이러한 가장 까다로운 과제들을 해결하는 모든 워크로드를 가속화 합니다. HGX-2 플랫폼은 업계 최초의 AI 벤치마크인 MLPerf에서 기록을 세우며 최고의 단일 노드 성능을 제공하고 세계에서 가장 강력하고, 범용적이며, 확장 가능한 컴퓨팅 플랫폼임을 검증했습니다.16개 NVIDIA Tesla V100 GPU 및 NVIDIA NVSwitch™로 가속화된 성능을 제공하는 HGX-2는 전례 없는 연산 성능, 밴드위스, 그리고 메모리 토폴로지를 보유하고 있어 더 빠르고 더 효율적으로 거대한 모델을 학습시키고, 데이터셋을 분석하며 시뮬레이션을 해결할 수 있습니다. 실제로 NVIDIA HGX-2 플랫폼은 FP64 및 FP32를 이용하여 과학 연구용 컴퓨팅 및 시뮬레이션에 있어 초정밀 연산을 가능하게 합니다. 또한, FP16 및 INT8을 이용해 딥러닝과 머신러닝 분야에도 초정밀 연산을 지원합니다. 이렇듯 이전에는 찾아볼 수 없었던 범용성은 미래의 컴퓨팅을 지원하는 데 있어 독보적인 위치를 갖게 합니다. 하드웨어, 소프트웨어, 그리고 라이브러리에 걸친 NVIDIA의 stack-to-stack 강화는 단 6개월 만에 AI Training(학습) 속도를 10배 빠르게 가속시켰습니다.​▲ Source: https://www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/hgx-2/hgx-2-datasheet-nv-us-843369-r2.pdf​HGX-2 플랫폼이 기존의 NVLink 기반 GPU 서버와 가장 크게 달라진 부분은 NVSwtich™를 적용했다는 점입니다. 12개의 NVIDIA NVSwitch™를 통해 총 16개의 GPU 간 직접적인 GPU-to-GPU 커넥션이 이루어집니다. NVSwitch™는 모든 GPU를 다른 모든 GPU에 2.4TB/s의 full bandwidth로 연결하여 커뮤니케이션 가능하도록 만들어줍니다. 이를 통해 최대 규모의 AI 및 HPC 문제를 해결할 수 있습니다. 16개 Tesla V100 GPU는 총 0.5TB의 HBM2 메모리에 16TB/s의 bandwidth로 완전히 접근 가능하여 하나의 단일 2PFLOPS 가속기와 마찬가지로 동작합니다. 이를 통해 가장 계산 집약적인 워크로드 및 가장 큰 규모의 데이터세트도 처리 가능하며, “세계 최대의 GPU”로서 기능하게 합니다. 단일 서버 노드로 작동 가능하여, NVSwitch™는 복잡한 AI 딥러닝, AI 머신러닝 및 HPC 어플리케이션을 극도로 가속화 시켜줍니다.​▲ NVSwitch™ 토폴로지 다이어그램은 간단하게 2개의 GPU 간의 커넥션을 보여줍니다. 모든 16개 GPU는 동일한 방식으로 NVSwtich™에 연결됩니다.​3. 9029GP-TNVRT / 10U 16x GPU 서버 그 규모와 복잡성이 지속적으로 증가하고 있는 딥러닝 모델을 처리하여 데이터 과학자들의 니즈를 충족시키기 위해, 업계는 더욱 더 높은 연산 능력을 찾고 있습니다. 이 같은 흐름에 맞추기 위해 Supermicro에서 출시한 9029GP-TNVRT 시스템은 앞서 소개 드린 NVIDIA HGX-2 컴퓨팅 플랫폼을 기반으로 설계된 10U GPU 시스템입니다. 32GB의 메모리를 지닌 16개의 NVIDIA V100 SXM3 GPU를 지원합니다. 총 16개의 GPU는 모두 NVIDIA의 NVSwitch™ 및 NVLink 기술을 통해 GPU 간 커뮤니케이션을 극대화하여 상호 연결되며, 이를 통해 GPU 간 최대 300GB/s의 throughput 또는 PCIe 대비 20배 높은 bandwidth를 지닌 통합 메모리 맵과 논 블로킹 스위치 패브릭을 사용 가능합니다.▲ Supermicro 9029GP-TNVRT 시스템 아키텍처.​대규모 데이터센터 클러스터 내에서 다수의 노드로 확장 시, 모든 GPU는 Mellanox Infiniband, EDR NIC를 통해 low latency로 다른 노드의 GPU와 직접 커뮤니케이션 가능합니다. 이는 대량의 병렬 클러스터에서 운영체제를 포함하지 않고 하나의 컴퓨터 메모리에서 다른 컴퓨터 메모리로 DMA하는 RDMA (Remote Direct Memory Access) 기술을 통해 가능합니다. RDMA는 네트워크 내의 다른 서버의 메모리에 직접 접속하여 데이터를 교환 및 사용하는 기술로 높은 throughput과 low latency 네트워킹을 수행합니다.  9029GP-TNVRT 시스템은 기본으로 지원되는 온보드 듀얼 10GBase-T LAN포트 외에 최대 16개의 NIC를 지원합니다. 또한, 16개 GPU를 관리하기 위해, 이 시스템은 듀얼 Platinum 등급 Intel® Xeon® Scalable 프로세서와 함께 24개 DDR4 DIMM으로 최대 3TB까지 지원합니다. 최대 16개 NVMe 핫스왑 드라이브, 6개 SATA 드라이브 그리고 2개 M.2 NVMe 드라이브를 지원하여 로컬로 데이터를 저장할 수 있습니다. GPU, CPU, NIC 그리고 NVMe 드라이브는 모두 PCIe 3.0 스위치 컴플렉스를 통해 연결되어, 시스템 상의 장치들 간에 최적의 throughput을 제공합니다. 이렇듯 16개 SXM3 GPU 외에도 여러 가지 디바이스를 지원해야 하기에, 6개의 (5+1) 3000W 리던던트 파워 서플라이를 장착하고 있습니다. 또한, 고성능 CPU 및 CPU로 인한 발열 문제 해결을 위해 커다란 팬과 함께 CPU와 GPU 트레이가 분리된 구조로 쿨링에 있어 최적화된 아키텍처를 확보했습니다.  HGX-2를 기반으로 한 9029GP-TNVRT는 8만 개 이상의 CUDA 코어와 1만 개 이상의 Tensor 코어를 활용하며 총 0.5TB의 GPU 메모리를 지원합니다. 최대 2PFLOPS의 딥러닝 성능(250TFLOPS FP32, 125TFLOPS FP64)을 구현하여 온-프레미스와 클라우드에서 가속 AI 및 HPC에 최고의 성능을 제공합니다. 고도로 병렬화된 컴퓨트 아키텍처로 최근 가장 복잡하다고 여겨지는 딥러닝, 머신러닝 및 HPC 워크로드에 최적화되어 있습니다. 9029GP-TNVRT는 Training(학습)에 있어 300대의 CPU 서버를 대체할 수 있으며, 머신러닝에 있어서는 544대의 CPU 서버를 대체 가능합니다. 또한, CPU 만 사용하는 서버 대비 HPC 워크로드를 156배 더 빠르게 가속할 수 있습니다. 이 같은 우수한 성능으로 9029GP-TNVRT는 데이터 센터를 위한 가장 강력한 단일 컴퓨팅 노드입니다.  이러한 특징을 바탕으로 9029GP-TNVRT는 데이터 과학자들로 하여금 자연어 음성 인식, 의료 진단 도구, 기후 모델링, 석유 탐사 및 자율 주행과 같은 새로운 기술의 성능을 끌어올리는 데 도움을 줍니다.http://www.youtube.com/watch?v=zwU07jPZ4fw  딥러닝 프레임워크 벤치마크는 Training(학습)에 걸리는 속도를 비교하여 GPU의 종류 및 수량에 따른 성능을 비교하여 보여줍니다. 9029GP-TNVRT 시스템에 총 16개의 GPU를 사용 시, Tensorflow(텐서플로우) 프레임워크 기준 초 당 13,546개 이미지 그리고 PyTorch(파이토치) 머신러닝 프레임워크 기준 초 당 13,967개 이미지를 학습 시킬 수 있습니다. 또한, HPL 벤치마크는 LINPACK 벤치마크를 병렬화 하여 수행 가능하도록 구현한 것으로 최대 76.3TFLOPS의 결과를 보여줍니다.  ▶ 머신러닝 프레임워크 Tensorflow(텐서플로우)와 PyTorch(파이토치)는 각각 구글과 페이스북이 주도하는 머신러닝 프레임워크입니다. 해당 프레임워크의 속도 개선 및 비용절감을 위해 CUDA 기술을 핵심적으로 사용하는데, CUDA는 C 언어 등 산업표준 언어를 활용해 GPU에서 수행하는 병렬처리 알고리즘을 작성할 수 있는 가속화 컴퓨팅 기술입니다.▲ Tensroflow Resnet50: 총 16개 GPU 장착 시 초 당 13,546 이미지​▲ Pytorch Resnet50: 총 16개 GPU 장착 시 초 당 13,967 이미지​▲ HPL Benchmark: 최대 76.3TFLOPS​AI(인공지능), IoT 등을 포함한 4차 산업혁명으로 IT 데이터가 폭발적으로 증가하며 이러한 신산업의 빠른 발전은 전체 산업을 변모시켰습니다. 최근 AI 모델들은 산업의 변화를 실현하기 위해 그 규모가 급증하고 있습니다. 또한, HPC 어플리케이션들 역시 새로운 과학적 인사이트를 열어나감에 따라 그 복잡성이 이와 비슷하게 증대하고 있습니다.  9029GP-TNVRT는 클라우드 내에서 AI와 HPC를 가속하는 데이터 센터에 슈퍼세트 설계를 제공합니다. 정밀하게 조율된 최적화를 통해 신속한 모델 학습(training)을 위한 최고의 연산 성능과 메모리를 구현하여 거대한 컴퓨팅 리소스를 필요로 하는 과제들을 해결하기 위한 플랫폼입니다. 이렇듯 가장 강력한 GPU가 특징인, 9029GP-TNVRT 서버는 특히 인공지능 (AI), Deep Learning, Machine Learning, 컴퓨터를 통한 자연스러운 연설부터 대규모 데이터의 반복적인 처리가 필요한 자율주행차, 유통 물류 최적화, 글로벌 기후 시뮬레이션, 제조업에서의 예측 분석, 스마트 시티, 스마트 빌딩 등에 이르기까지 다양한 Digital Transformation 어플리케이션에 매우 적합한 시스템입니다.     NVIDIA HGX-2 플랫폼의 슈퍼마이크로 16 GPU 서버 및 이를 기반으로 한 GPU 클러스터에 대해 더 궁금하신 분은 고객센터로 연락 주시면 디에스앤지의 하드웨어 및 솔루션 전문가를 통해 깊이 있는 상담이 가능합니다! 

2019.10.28
공지 디에스앤지가 창립 20주년을 맞이하였습니다.

많은 분들의 성원 덕분에 디에스앤지가 창립 20주년을 맞이하였습니다. 진심으로 감사 드리며 영속할 수 있는 기업이 되기 위해 최선을 다하겠습니다.

2019.08.29
공지 디에스앤지, Intel AI Specialist 등록 및 ITP Platinum 승급

디에스앤지가 Intel AI Specialist 등록과 함께 ITP Platinum으로 승급했습니다.    Intel AI Specialist를 통해 차별화된 AI 솔루션 및 다음과 같은 다양한 혜택을 지원할 수 있습니다.  · AI 관련 기술 및 솔루션에 대한 최신 정보를 얻을 수 있습니다. · ​인텔 Al 전문가와의 협력을 통해 고객의 요구에 가장 적합한 맞춤형 구성을 제공할 수 있습니다. · ​세계적 수준의 인텔 테스트 도구를 통해 TCO를 절감할 수 있습니다. · ​사례 연구 등 인텔의 마케팅 지원을 통해 비즈니스에 대한 가시성을 높일 수 있습니다.    Intel AI 솔루션에 대한 더 자세한 정보를 원하시는 분은 고객센터로 연락 주시면 디에스앤지의 AI 전문가를 통해 상담 가능합니다!    참고 : https://www.intel.co.kr/content/www/kr/ko/technology-provider/products-and-solutions/artificial-intelligence/partner-with-specialist.html 

2019.08.07
공지 슈퍼마이크로, 세계에서 가장 큰 서버 공급업체 3위 기록

세계에서 가장 큰 서버 공급업체 3위 기록   슈퍼마이크로 Silicon Valley 본사 확장   회사의 급격한 성장을 지원하기 위해 New Building 22 개관을 통해 본사의 Engineering, Manufacturing 및 Service 부분 확장   ​슈퍼마이크로– 엔터프라이즈 컴퓨팅, 스토리지, 네트워킹 솔루션 및 그린 컴퓨팅 기술의 선두주자 –가 지난 2월 New Building 22의 그랜드 오프닝과 함께 Silicon Valley 본사를 2백만 스퀘어 피트 이상의 시설로 확장했음을 밝혔다.   슈퍼마이크로 본사는 엔지니어링, 제조 그리고 고객 서비스를 포함하고 있으며, 이를 통해 슈퍼마이크로는 Silicon Valley와 전세계적으로 서버를 제조하는 유일한 Tier 1 시스템 벤더가 되었다. 또한, 슈퍼마이크로는 세계에서 가장 큰 서버 시스템 공급업체 3위를 기록했다 (출처: IDC). 랭킹에 적용된 자체 브랜드(슈퍼마이크로)를 사용한 비즈니스 솔루션 외에도, 슈퍼마이크로는 대규모 OEM 및 시스템 통합 업체 고객들에게도 서비스를 제공하며 2017년 120만 대 이상을 출하했다.   가장 최근 개관한 이 빌딩은 회사가 36 에이커 부지에 건설할 계획인 5개의 시설 중 2번째 시설이다. 게다가, 슈퍼마이크로는 전세계적으로 다른 시설들 역시 계속해서 확장하고 있다.   “설계, 엔지니어링, 제조 그리고 서비스 팀들을 모두 이곳 Silicon Valley 캠퍼스로 모아, 슈퍼마이크로는 업계의 최신 기술과 고객의 니즈 및 특별한 요구사항에 빠르게 반응할 수 있는 민첩성을 갖출 수 있으며, 이는 경쟁우위를 확보할 수 있는 주요한 이점이다,”고 슈퍼마이크로 회장이자 CEO인 Charles Liang은 얘기했다. “작년에 전세계적으로 120만 대 이상의 서버 및 스토리지 시스템을 출하하는 등 비즈니스가 계속해서 빠르게 확장함에 따라, 이러한 빠른 성장을 뒷받침하기 위해 생산량 및 능력을 증가시키는 것은 아주 중요하다. 대만의 테크놀로지 캠퍼스에 2개 시설을 새롭게 개관한 것과 함께 Building 22의 개관은, 슈퍼마이크로의 기업, 데이터센터, 채널 및 클라우드 고객에게 가능한 최고의 서비스 제공을 보장할 수 있도록 추가적인 생산능력과 랙 스케일 통합과 플러그 앤 플레이(plug and play)를 가능하게 하는 능력을 제공한다.”   “슈퍼마이크로와 같이 혁신적이고, 지속가능하며, 공동체 의식을 갖춘 리더가 계속해서 San Jose에서 투자하고 성장하는 것을 지켜보는 것은 굉장히 기쁜 일이며, 그들의 성공이 지금은 물론 앞으로도 계속해서 이어지길 기대한다!”고 San Jose 시장인 Sam Liccardo는 전했다. “Manex 컨설팅– The Corporation for Manufacturing Excellence –은 슈퍼마이크로의 설계 및 엔지니어링의 우수함을 통한 지속적인 성장을 축하하고 싶다,”며 Manex의 회장이자 CEO인 Gene Russell은 전했다. “슈퍼마이크로의 인적자원, 물리적인 공장 그리고 설비에 대한 투자는 Silicon Valley 생태계와 슈퍼마이크로의 세계적인 클라이언트 저변에 있어 아주 중요하다. NIST Manufacturing Extension Partnership과 CMTC California 네트워크의 회원으로서 Manex에게 슈퍼마이크로는 매우 자랑스러운 파트너사이다.”   Intel과 같은 주요 파트너와 긴밀하게 협력하여, 슈퍼마이크로는 설계 및 엔지니어링에 있어서의 강점을 부각시켜 서버 및 스토리지 기술 혁신을 바탕으로 시장에 가장 먼저 출시하는 등 업계를 선도하고 있다. 슈퍼마이크로는 인기 있는 BigTwin™과 SuperBlade® 제품군을 포함하여 업계에서 가장 광범위한 포트폴리오의 고급 서버 및 스토리지 솔루션을 제공하며 랙 플러그 앤 플레이(plug and play) 능력과 함께 랙 스케일 통합을 제공한다.         출처: https://www.supermicro.com.tw/newsroom/pressreleases/2018/press180223_B22_Opening.cfm  

2018.04.23
공지 디에스앤지시스템 Warranty 규정 필독 요청

(주)디에스앤지시스템은 제품 구입 후 발생할 수 있는 문제점들을 보다 공정하고 신속하게 처리하고자 아래와 같은 Warranty 규정을 마련했습니다.   부디, 이용 전 확인해 주시어 이용상의 어려움 없으시기 바랍니다.

2016.01.26
공지 슈퍼마이크로 제품 CD 및 매뉴얼 관련 안내

Supermicro Computer Inc. (슈퍼마이크로) 사는 기업 모토인 "Green IT" 실현을 위하여 별도의 CD와 매뉴얼을 제공하지 않습니다.   이에, 필요하신 경우 아래 URL을 통해 다운로드 받으실 수 있습니다.   Driver CD image: ftp://ftp.supermicro.com/CDR_Images/ Manuals: http://www.supermicro.com.tw/support/manuals/   불편하시더라도 보다 나은, Green Computing을 위하여 많은 협조 바랍니다. 감사합니다.

2016.01.26
공지 국내 최초의 슈퍼마이크로 공식 총판 인증서 보유

(주)디에스앤지시스템은 2009년 국내 최초로 슈퍼마이크로 공식 총판 인증서를 받았으며, 현재 10년 넘게 한국 시장에서 가장 높은 점유율을 자랑하며 슈퍼마이크로의 총판으로 활약하고 있습니다.    

2016.01.01
71 2019 디에스앤지 하반기 워크샵 공지

디에스앤지 워크샵 일정으로 금일 업무는 오후 12시에 종료됨을 안내 드립니다.   

2019.11.01
70 [신제품] 슈퍼마이크로 시뮬레이션 소프트웨어 ANSYS 인증 워크스테이션

글로벌 엔지니어링 시뮬레이션 기업인 ANSYS(앤시스)의 인증을 받은 해석용 워크스테이션을 소개합니다.  

2019.09.25
검색

본 웹사이트는 게시된 이메일 주소가 전자우편 수집 프로그램이나 그 밖의 기술적 장치를 이용하여 무단 수집되는 것을 거부합니다.이를 위반시 『정보통신망이용촉진및정보보호등에관한법률』 등에 의해 처벌 받을 수 있습니다. 게시일 2015.11.09

닫기