# AWS Batch + EC2

<figure><img src="/files/lMV7EpqrJnWmS0wDxnLX" alt=""><figcaption></figcaption></figure>

AWS Batch는 배치 컴퓨팅 워크로드를 대규모로 실행하는 **완전관리형 서비스**입니다. 오프라인 추론 시나리오에서 Cosmos WFM을 배포하기에 적합합니다.

이 아키텍처는 **영구 인프라를 상시 운영하지 않고도** 대규모 Physical AI 데이터를 처리하게 해줍니다. 합성 궤적 생성, 장면 변형 생성, 환경 예측 같은 작업에 특히 잘 맞습니다.

배포는 AWS Batch가 오케스트레이션하는 **컨테이너 기반 Cosmos 모델**을 사용합니다. 잡 큐 수요에 따라 최적의 컴퓨팅 리소스(GPU 탑재 EC2)를 자동으로 프로비저닝합니다.

* [Amazon S3](https://aws.amazon.com/s3/) 또는 [Amazon EFS](https://aws.amazon.com/efs/)의 입력 데이터가 배치 잡을 트리거합니다. 잡은 비디오 생성, 장면 완성, 물리 시뮬레이션 같은 추론 작업을 수행합니다.
* 결과는 EFS에 기록됩니다. 이후 로봇 학습 파이프라인이나 시뮬레이션 워크플로에서 재사용합니다.
* [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/)로 전반적인 모니터링을 구성할 수 있습니다. [AWS IAM](https://aws.amazon.com/iam/) 정책으로 모델 아티팩트와 데이터 저장소에 **최소 권한** 접근을 강제합니다.

**장점**

* **비용 최적화**: 동적 확장으로 추론 잡이 실행될 때만 GPU 리소스를 프로비저닝합니다. 작업이 끝나면 인스턴스를 종료합니다. 유휴 인프라 비용을 줄입니다. 간헐적 워크로드(데이터셋 증강, 대량 합성 데이터 생성)에 특히 유리합니다. Spot 인스턴스를 쓰면 비용을 더 낮출 수 있습니다.
* **운영 관리 단순화**: 자동 잡 스케줄링, 리소스 프로비저닝, 의존성 관리, 재시도 로직을 제공합니다. 클러스터 운영보다 모델/파이프라인 최적화에 집중할 수 있습니다.
* **대규모 데이터 생성 처리량**: 단일 잡부터 수천 개의 병렬 추론 작업까지 자연스럽게 확장합니다. Physical AI 학습용 대규모 데이터셋을 빠르게 처리합니다. 로봇 정책 개발과 자율 시스템 검증의 반복 속도를 높입니다.


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://hi-space.gitbook.io/physical-ai-on-aws/physical-ai-on-aws-guide/nvidia-cosmos-predict-2.5/aws-batch-+-ec2.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
