tencent cloud

피드백

AVX512를 통한 CVM에서의 AI 애플리케이션 가속

마지막 업데이트 시간:2024-02-02 11:01:47

    작업 시나리오

    Tencent Cloud의 6 시리즈 인스턴스 S6, M5, C4, IT5, D3에는 스마트 Intel® Xeon® 2 시리즈 확장 가능 프로세서 Cascade Lake가 탑재되었습니다. 더 많은 명령어 집합 및 특성을 제공하여 AI 애플리케이션 가속에 사용할 수 있습니다. 대량의 하드웨어 강화 기술이 통합되어 있으며, AVX-512(고급 벡터 확장)는 AI 추론 과정에 강력한 병렬 컴퓨팅 기능을 제공하여 보다 향상된 딥러닝 효과를 얻을 수 있습니다.
    본 문서는 S5와 M5 인스턴스를 예시로 CVM에서 AVX512를 통해 AI 애플리케이션을 가속화하는 방법을 소개합니다.

    권장 모델

    CVM의 다양한 인스턴스 사양은 여러 가지 애플리케이션 개발에 사용할 수 있습니다. 표준형 S6,표준형 S5메모리형 M5는 머신러닝 또는 딥러닝에 적합합니다. 이 인스턴스에는 Intel® Xeon® 2 시리즈 프로세서가 탑재되어 있으며, Intel® DL boost 학습 기능을 적용할 수 있습니다. 권장 사양은 다음과 같습니다.
    플랫폼 유형
    인스턴스 사양
    딥러닝 학습 플랫폼
    84vCPU의 표준형 S5 인스턴스 또는 48vCPU의 메모리형 M5 인스턴스
    딥러닝 추론 플랫폼
    8/16/24/32/48vCPU의 표준형 S5 인스턴스 또는 메모리형 M5 인스턴스
    머신러닝 학습 또는 추론 플랫폼
    48vCPU의 표준형 S5 인스턴스 또는 24vCPU의 메모리형 M5 인스턴스

    장점

    Intel® Xeon® 확장 가능 프로세서를 사용한 머신러닝 또는 딥러닝 워크로드 실행에는 다음과 같은 장점이 있습니다.
    대규모 메모리형 워크로드, 의료 영상, GAN, 지진 분석, 유전자 시퀀서 등의 시나리오에서 사용하는 3D-CNN 토폴로지 처리에 적합합니다.
    간단한 numactl 명령어를 사용해 효율적으로 코어를 제어할 수 있으며, 소량의 실시간 추론에도 사용할 수 있습니다.
    강력한 생태 시스템 지원으로 대형 클러스터에서 분산형 학습을 직접 진행할 수 있어 별도의 대용량 스토리지와 고가의 캐시 메커니즘 없이 대규모 아키텍처 학습을 진행할 수 있습니다.
    동일한 클러스터에서 다수의 워크로드(예: HPC, BigData, AI 등)를 지원하여 더 우수한 TCO를 획득할 수 있습니다.
    SIMD 가속을 통해 다양한 실제 딥러닝 응용 프로그램의 컴퓨팅 요구사항을 충족합니다.
    동일한 인프라를 직접 학습 및 추론에 사용할 수 있습니다.

    작업 순서

    인스턴스 생성

    CVM 인스턴스 생성에 대한 자세한 내용은 구매 페이지를 통한 인스턴스 생성을 참고하십시오. 인스턴스 사양은 권장 모델 및 실제 비즈니스 시나리오에 따라 아래 이미지와 같이 선택하십시오.
    
    
    설명:
    자세한 인스턴스 사양 매개변수의 소개는 인스턴스 스펙을 참고하십시오.

    로그인 인스턴스

    CVM 인스턴스에 로그인합니다. 자세한 내용은 표준 방식으로 Linux 인스턴스에 로그인(권장)을 참고하십시오.

    배포 예시

    실제 비즈니스 시나리오에 따라 다음의 예시를 참고하여 AI 플랫폼을 배포하고, 머신러닝 또는 딥러닝 작업을 진행할 수 있습니다.
    
    문의하기

    고객의 업무에 전용 서비스를 제공해드립니다.

    기술 지원

    더 많은 도움이 필요하시면, 티켓을 통해 연락 바랍니다. 티켓 서비스는 연중무휴 24시간 제공됩니다.

    연중무휴 24시간 전화 지원