향상된 AI 성능을 위한 테스트 솔루션

우리는 AI 인프라를 테스트하기 위한 가장 광범위한 솔루션을 제공합니다

인공지능 개발 및 배포를 위한 종단간 지원

20년 이상 Teledyne LeCroy는 데이터 센터에서 인공 지능을 가능하게 하는 기술의 안정적인 운영에서 핵심적인 역할을 해왔습니다. 당사의 테스트 솔루션은 고성능 컴퓨팅 및 분석, 효율적인 데이터 이동 및 액세스를 가능하게 하는 네트워크, 클라우드에서 핫 및 콜드 스토리지의 백본인 스토리지 디바이스를 위한 전체 에코시스템에서 사용됩니다. 당사는 PCI Express, CXL, NVMe, 기가비트 이더넷, SAS와 같은 기술을 위한 선도적인 솔루션을 제공하여 얼리어답터부터 시스템 통합자에 이르기까지 설계 및 테스트 엔지니어에게 하이퍼스케일 환경에서 사용됩니다.

    인공지능 - 상호 연결

    Compute

    AI 애플리케이션은 높은 처리량과 낮은 대기 시간으로 방대한 양의 데이터를 분석하기 위해 데이터 센터에서 고성능 컴퓨팅이 필요하며, 이는 최신 컴퓨터 및 데이터 중심 아키텍처를 구동합니다.
    인공지능 - 네트워크

    Networks

    랙, 데이터 센터 및 캠퍼스 내에서 대량의 데이터를 이동함으로써 더 빠르고 효율적인 네트워크 기술을 추구하는 추세가 가속화되고 있습니다.
    인공지능 - 스토리지

    스토리지

    저장 용량에 대한 수요가 끊임없이 증가하고 어디서나 데이터에 액세스하려는 요구가 커지면서 클라우드 및 하이브리드 저장 솔루션과 저장 인터페이스 기술도 발전하고 있습니다.

    컴퓨팅 - 상호 연결, 처리, 데이터 흐름 및 메모리 관리

    AI의 혁신적 힘의 핵심은 모든 것을 가능하게 하는 컴퓨팅 및 처리 요구 사항입니다. AI 워크로드는 데이터 센터에서 고성능 컴퓨팅(HPC)의 혁신을 주도하여 초당 수조 건의 계산을 제공하여 놀라운 속도와 정확성으로 이미지 인식, 자연어 이해 및 추세 예측을 가능하게 합니다. 병렬 처리 시스템을 통해 AI는 효율적으로 멀티태스킹을 수행하여 인간 두뇌의 복잡성을 반영합니다.

    PCIe / CXL을 나타내는 AI 두뇌의 다채로운 이미지
    PCIe / CXL을 나타내는 AI 두뇌의 다채로운 이미지

    Teledyne LeCroy Summit 분석기, 운동기, 재머, 인터포저 및 테스트 시스템은 PCIe를 사용하여 AI를 지원하는 가장 빠르고 최신 시스템을 구축하고 최적화하는 데 도움이 됩니다. 이러한 장치와 컴퓨팅 시스템은 GPU 및 맞춤형 실리콘 칩과 같은 AI 가속기를 중앙 처리 장치(CPU)에 연결하는 고속 인터페이스를 사용합니다. 지속적인 진화를 통해 AI 시스템은 최첨단 기술을 유지하고 미래의 데이터 중심 세계의 과제를 충족할 준비가 됩니다.

    • 확장성: 새로운 세대가 나올 때마다 PCIe는 대역폭을 두 배로 늘려 AI 애플리케이션의 증가하는 수요를 수용합니다. 최신 PCIe 6.0 사양은 핀당 64GT/s의 데이터 전송 속도를 제공하여 AI 시스템이 점점 더 복잡한 작업을 처리할 수 있도록 합니다.
    • 데이터 보안: PCIe에는 데이터 무결성과 기밀성을 보호하는 강력한 보안 기능이 포함되어 있습니다. 예를 들어 PCIe 6.0 이상 버전은 PCIe 링크를 통해 전송되는 데이터를 보호하는 무결성 및 데이터 암호화(IDE) 모듈을 통합합니다. 이러한 기능은 민감한 AI 데이터가 사이버 위협으로부터 안전하게 유지되도록 합니다.
    • 다재: PCIe는 딥 러닝 시스템용 대형 칩부터 수백 페타플롭스의 처리 능력이 필요한 광범위한 신경망을 처리하도록 확장 가능한 소형 공간 가속기까지 다양한 폼 팩터로 사용됩니다.
    • 에너지 효율: 최신 PCIe 버전은 저전력 상태를 도입하여 AI 시스템의 전력 효율성을 높이는 데 기여합니다. 이는 지속 가능하고 비용 효율적인 AI 운영에 필수적입니다.
    • 상호 연결성: PCIe는 AI 인프라 내에서 컴퓨팅, 가속기, 네트워킹 및 스토리지 장치의 상호 연결을 용이하게 하여 낮은 전력 소비와 최대 도달 범위를 갖춘 효율적인 데이터 센터 솔루션을 구현합니다.

    CXL은 AI의 풍경을 형성하는 데 상당한 약속을 가지고 있으며 Teledyne LeCroy 솔루션은 오늘날의 CXL 시스템을 테스트하고 최적화하는 유일한 방법입니다. 메모리 효율성, 대기 시간 감소 및 성능은 모두 CXL 테스트 및 규정 준수를 지원하는 Teledyne LeCroy 솔루션을 사용하여 달성되며, 이는 모두 낮은 대기 시간과 높은 처리량을 유지하는 데 중요합니다. 이는 대용량 데이터 세트에 대한 빠른 액세스가 필요한 대역폭 집약적 AI 워크로드에 특히 중요합니다.

    • 메모리 용량 확장: CXL은 대용량 메모리 풀을 여러 프로세서나 가속기에 연결할 수 있게 해줍니다. 이는 방대한 데이터 세트를 처리하는 AI/HPC 애플리케이션에 필수적입니다.
    • 데이터 보안: CXL에는 데이터 무결성과 기밀성을 보호하는 강력한 보안 기능이 포함되어 있습니다. 예를 들어, CXL 2.0 이상 버전은 CXL 링크를 통해 전송되는 데이터를 보호하는 무결성 및 데이터 암호화(IDE) 모듈을 통합합니다. 이러한 기능은 민감한 AI 데이터가 사이버 위협으로부터 안전하게 유지되도록 합니다.
    • 지연 시간 감소: CXL의 저지연 설계는 데이터가 컴퓨팅 요소 간에 빠르게 이동하도록 보장합니다. AI/ML 워크로드는 대기 시간이 최소화되어 이점을 얻습니다.
    • 상호 운용성: CXL은 공급업체에 구애받지 않는 호환성을 촉진하여 다양한 가속기와 메모리 모듈이 원활하게 함께 작동할 수 있도록 합니다.
    • 향상된 메모리 대역폭: CXL은 메모리 대역폭을 크게 개선하여 데이터 집약적 작업 부하가 병목 현상 없이 데이터에 액세스할 수 있도록 보장합니다.

    네트워크 - 고속 이더넷, 데이터 처리량, 패브릭 및 네트워크

    GPT-4와 같은 최근의 대규모 언어 모델은 확장 가능한 네트워크를 통해 다양한 소스에서 전달되는 수억 개 이상의 매개변수를 필요로 합니다. 이를 위해 고속 네트워크와 네트워킹 기술은 이러한 새로운 워크로드에 최적화된 낮은 대기 시간과 효율적인 정보 전송을 지원해야 합니다.

    AI 인프라에 대한 유선 연결
    AI 백엔드 테스트를 위한 양식화된 전 세계 네트워크

    1Gbps(초당 기가비트)로 작동하는 기가비트 이더넷은 빠른 데이터 전송 속도를 제공합니다. 이 속도는 AI 워크로드에서 대용량 데이터 세트를 처리하는 데 필수적입니다. 1Tbps(초당 테라비트)로 작동하는 테라비트 이더넷은 방대한 데이터 세트의 원활한 교환을 용이하게 합니다. 사물 인터넷(IoT), 인공 지능(AI), 빅데이터 분석과 같은 새로운 기술을 지원합니다.

    • 실시간 응답성: AI 시스템에는 낮은 지연 시간이 필수적입니다. 기가비트 이더넷은 지연을 최소화하여 GPU, CPU, 스토리지 장치와 같은 구성 요소 간의 적시 상호 작용을 보장합니다.
    • 실시간 의사결정: 테라비트 이더넷은 실시간 AI 기반 의사 결정을 가능하게 합니다. 높은 대역폭은 AI 노드 간의 효율적인 통신을 보장합니다.
    • 무손실 네트워킹: 기존 이더넷은 혼잡 시 패킷을 삭제하여 AI 모델 정확도에 영향을 미칠 수 있습니다. 그러나 새로운 기술은 "손실 없는" 전송을 약속하여 무거운 부하에서도 데이터 무결성을 보장합니다.
    • 확장성: AI 모델이 복잡해짐에 따라 확장 가능한 인프라가 중요해졌습니다. 기가비트 이더넷은 추가 서버와 장치를 연결하여 원활한 확장을 가능하게 합니다. 테라비트 이더넷은 기하급수적인 성장을 수용하여 효율적인 연결과 데이터 교환을 보장합니다.

    Teledyne LeCroy XENA 제품을 사용하면 회사에서 AI 백엔드 네트워크 패브릭을 최적화하고 미래에 대비하여 방대한 양의 시간에 민감한 트래픽을 처리할 수 있습니다. AI 워크로드를 위한 데이터 센터 아키텍처는 종종 스파인 앤 리프 구조를 채택하여 수천 개의 AI 가속기와 스토리지 솔루션을 2~3Gbps 포트 속도의 저지연 L400/L800 네트워킹 인프라를 통해 연결합니다. RDMA over Converged Ethernet(RoCE)은 스토리지 데이터 전송 프로토콜에 유망한 선택입니다.

    인공 지능에 최적화된 데이터 센터 스위치를 테스트하는 방법 - 백서

    • 데이터 센터 브리징(DCB): 일반적인 최선의 노력 트래픽(손실 트래픽)과 함께 RDMA 패킷(손실 없는 트래픽)의 높은 처리량, 낮은 지연 시간, 패킷 손실 없는 전송을 용이하게 합니다.
    • 우선 순위 흐름 제어(PFC): 버퍼가 특정 임계값을 넘어 채워지면 송신자에게 패킷 전송을 일시적으로 중단하도록 요청하여 패킷 손실을 방지합니다.
    • 혼잡 알림(CN): RoCEv1과 RoCEv2는 무손실 네트워크에서 혼잡 확산을 줄이고 지연 시간을 줄이며 버스트 허용 범위를 개선하는 데 사용할 수 있는 네트워크 장치 간 신호를 구현합니다.
    • 향상된 트래픽 선택(ETS): 각 서비스 클래스(CoS)에 최소 보장 대역폭 할당을 활성화합니다.

    스토리지 - SSD, 데이터 센터, 데이터 관리

    AI 스토리지 솔루션은 AI/ML 워크로드의 확장 요구 사항에 빠르게 적응해야 합니다. 스토리지 용량과 성능의 확장성은 진행 중인 운영을 방해하지 않고 지원되어야 하며, 구조화되고 구조화되지 않은 데이터를 지원하는 동시에 과도한 프로비저닝과 활용 부족을 방지해야 합니다. 스토리지 인프라의 핵심에는 솔리드 스테이트 드라이브, 회전 미디어 및 고대역폭 메모리 요소와 함께 사용되는 NVMe, SAS 및 CXL과 같은 기술이 있습니다.

    AI 및 Oakgate SSD 장치 테스트
    기억과 AI를 관리하는 머리의 다채로운 이미지
    AI 헤드와 SAS 박스의 다채로운 이미지

    AI와 머신 러닝(ML)의 출현은 포괄적인 솔리드 스테이트 스토리지 디바이스(SSD) 테스트에 대한 중요한 필요성을 강화할 뿐입니다. AI는 AI 워크로드의 높은 계산 요구 사항으로 인해 데이터 센터에서 SSD에 대한 수요를 증가시킬 것으로 예상됩니다. AI 애플리케이션은 방대한 양의 데이터를 생성하고 처리하므로 고속 데이터 액세스 및 처리 기능이 있는 스토리지 솔루션이 필요합니다.

    • 더 빠른 데이터 액세스 및 처리 속도: AI 작업에 사용되는 대규모 데이터 세트와 복잡한 알고리즘을 처리하는 데 필수적입니다. AI 애플리케이션은 종종 빈번한 읽기 및 쓰기 작업을 포함하므로 SSD는 성능과 내구성 면에서 기존 HDD보다 더 적합합니다. 이러한 수요는 SSD 기술 및 기타 고성능 스토리지 솔루션의 혁신을 촉진할 가능성이 높습니다.
    • 전문화되고 다양한 작업 부하: AI 애플리케이션의 요구 사항에 맞게 특별히 맞춤화된 스토리지 솔루션에 대한 수요가 있을 가능성이 높습니다. 여기에는 딥 러닝 알고리즘, 실시간 분석 또는 대규모 데이터 처리에 최적화된 스토리지 시스템이 포함될 수 있습니다.
    • 저장 시스템 최적화: 효율성, 안정성 및 성능을 위해. 여기에는 머신 러닝 알고리즘을 사용하여 스토리지 사용 패턴을 예측하고, 데이터 계층화를 자동화하거나, 데이터 압축 기술을 개선하는 것이 포함됩니다.

    Teledyne LeCroy OakGate 솔루션은 데이터 센터, 특히 AI 및 머신 러닝 워크로드에 혁신을 일으킬 것으로 기대되는 새로운 CXL(Compute Express Link) 메모리 디바이스에 대한 테스트 기능을 제공합니다. CXL을 사용하는 AI 플랫폼은 CPU와 GPU, FPGA, TPU와 같은 가속기 간에 고속의 일관된 메모리 액세스가 필요하며, CXL 메모리 디바이스는 데이터 전송 속도를 크게 향상시키고, 대기 시간을 줄이며, 전반적인 시스템 성능을 개선합니다.

    • 기능 및 성능 검증 테스트: 시장에 출시될 때 새로운 CXL 장치가 표준에 따라 성능을 발휘하는지 확인합니다.
    • 품질 및 규정 준수 테스트: 이는 AI 모델의 학습 및 추론 시간이 단축된다는 것을 의미하며, 궁극적으로 데이터 센터에서 보다 효율적이고 강력한 머신 러닝 작업이 가능해집니다.
    • 훈련 및 추론 시간: 데이터 센터에서 보다 효율적이고 강력한 머신 러닝 작업을 위한 AI 시스템 테스트와 다양한 처리 장치 간의 일관된 메모리 액세스 증가는 보다 복잡하고 정교한 AI 알고리즘과 워크플로를 용이하게 합니다.

    SAS(Serial Attached SCSI) 테스트는 AI 애플리케이션을 지원하는 데 필수적이며, 특히 데이터 저장 및 검색 측면에서 중요합니다. SAS 시스템이 철저히 테스트되고 규정을 준수하도록 보장함으로써 AI 애플리케이션은 효과적인 AI 운영에 필수적인 안정적이고 고속이며 확장 가능한 데이터 저장 솔루션의 이점을 누릴 수 있습니다.

    • 고속 데이터 전송: SAS는 고속 데이터 전송 속도를 제공하는데, 이는 대규모 데이터 세트에 대한 빠른 액세스가 필요한 AI 애플리케이션에 필수적입니다. 이를 통해 AI 모델을 효율적으로 훈련하고 배포할 수 있습니다.
    • 신뢰성 및 중복성: SAS 시스템은 신뢰성과 중복성 기능으로 유명합니다. 이는 AI에 중요한데, 데이터가 지속적으로 사용 가능하고 장애로부터 보호되도록 보장하기 때문입니다.
    • 확장성: SAS는 확장 가능한 스토리지 솔루션을 지원하므로 AI 시스템이 성능 저하 없이 성장하고 증가하는 양의 데이터를 처리할 수 있습니다.
    • 호환성: SAS는 다양한 저장 장치 및 인터페이스와 호환되므로 다양한 AI 애플리케이션 및 환경에 다양하게 활용할 수 있습니다.
    • 컴플라이언스 테스트: SAS에 대한 규정 준수 테스트는 하드웨어가 성능 및 안정성에 대한 산업 표준을 충족하는지 확인합니다. 이는 이러한 스토리지 솔루션에 의존하는 AI 시스템의 무결성을 유지하는 데 중요합니다.

    도움이나 정보가 필요하십니까?

    저희는 업계를 선도하는 저희의 테스트 솔루션이 다른 많은 사람들과 마찬가지로 새로운 인공지능 시장과 인프라를 위한 기술과 제품을 개발하는 데 도움이 될 수 있다고 굳게 믿습니다. 저희에게 연락해 주세요...