Amazon SageMaker Large Model Inference 컨테이너 v15로 LLM 성능 향상
오늘, 우리는 Amazon SageMaker Large Model Inference(LMI) 컨테이너 v15를 발표하는 것을 기쁘게 생각합니다. vLLM 0.8.4를 기반으로 한 vLLM V1 엔진을 지원하여 이번 릴리스는 상당한 성능 향상을 가져왔습니다. 또한 다중 모달리티(텍스트 간 이해 및 분석, 이미지 간 텍스트, 텍스트 간 이미지 데이터 처리 능력)를 지원하며, vLLM과의 내장 통합을 제공하여 대규모 언어 모델(LLM)을 최고의 성능으로 확장 가능하게 배포하고 제공할 수 있습니다.
출처: AWS Blog
요약번역: 미주투데이 최정민 기자