[ 트렌드] Physical AI의 핵심: 데이터 스케일링으로 물리를 대체할 수 있을까?
로봇은 왜 가상환경에서 무한 루프를 돌리나?
Physical AI에서 사람의 행동 데이터를 센서로 캡처한 뒤, 로봇이 그 동작을 재현하도록 훈련하는 방식이 주목받고 있다. 핵심은 sim-to-real transfer — 가상환경에서 수백만 번 반복 훈련한 뒤 현실에 적용하는 것.
현실 훈련의 한계:
- 로봇이 부서지고, 시간이 1:1로 흘러가고, 위험 상황 테스트 불가
시뮬레이션의 장점:
- GPU 수천 개로 병렬 → 현실 1년치를 몇 시간에 소화
- 마찰, 무게, 지형을 랜덤으로 바꿔가며 훈련 (domain randomization)
- 로봇이 넘어져도 리셋 한 번이면 끝
Sora와 World Model의 역할
Sora 같은 영상 생성 모델이 로봇 훈련에 쓸 수 있을까? 가능하지만 한계가 명확하다.
Sora는 물리 시뮬레이터가 아니다. 중력, 마찰, 충돌 반력을 수식으로 계산하지 않고, "보통 이렇게 보이더라"를 학습한 것이다.
| 요소 | 제공자 |
|---|---|
| 정밀 물리 시뮬레이션 | MuJoCo, Isaac Sim |
| 시각적 현실감 | Sora 같은 생성 모델 |
| 센서 시뮬레이션 | 물리 엔진 + 렌더러 |
Sora의 현실적 역할은 보조 레이어 — 물리 엔진 위에 현실감을 입히거나, 로봇의 비전 모듈 훈련용 이미지를 생성하는 수준이다.
데이터 스케일링이 물리를 대체할 수 있다?
여기서 흥미로운 논점이 등장한다.
LLM이 문법 규칙을 명시적으로 배우지 않아도 언어를 "이해"하는 것처럼, 영상 데이터 수십억 개를 학습하면 물리 패턴을 암묵적으로 인코딩할 수 있지 않을까?
더 나아가 — 우리가 "물리법칙"이라고 부르는 것의 대부분은 사실 지구라는 제약조건 안에서의 물리다.
- 중력 9.8m/s², 1기압, 특정 온도 범위
- 우주 보편 법칙이라고 하지만, 검증은 지구 + 태양계 근처에서만 했음
- 암흑물질/에너지가 우주 96%인데 뭔지도 모름
로봇에게 필요한 건 우주의 진리가 아니라 지구에서 작동하는 예측 모델이다. 물리학자는 "왜 사과가 떨어지나"를 설명하고 싶지만, 로봇은 "사과가 떨어진다"만 알면 잡을 수 있다.
지구라는 닫힌 시스템 안에서의 물리는 유한한 패턴이니까, 충분한 데이터로 커버 가능하다는 논리가 성립한다.
Physical Intelligence (π) — 이 철학을 실행하는 회사
이 접근을 가장 직접적으로 실행하고 있는 곳이 Physical Intelligence(π)다.
- 설립: 2024년, 샌프란시스코
- 핵심 멤버: Karol Hausman(전 DeepMind), Chelsea Finn(스탠포드), Sergey Levine(UC Berkeley)
- 투자: 총 $10억 이상
핵심 모델 π0:
- 이미지 + 텍스트 지시 + 센서 데이터를 입력받아 저수준 모터 명령을 직접 출력
- 물리를 수식으로 프로그래밍하지 않고, 로봇의 현실 경험 데이터를 대규모 학습
- 하나의 모델로 셔츠 접기, 테이블 정리 등 다양한 작업 수행
- 2025년 2월 오픈소스 공개, 현재 v6까지 발전
LLM이 언어의 foundation model이 된 것처럼, π0가 물리 세계의 foundation model이 되겠다는 것이다.
정리
로봇 훈련의 병목이 "현실 경험"에서 "컴퓨팅"으로 이동하고 있다.
- 물리 엔진(MuJoCo, Isaac)은 정밀 시뮬레이션 담당
- Sora 같은 world model은 시각적 현실감 보조
- π0 같은 foundation model은 데이터 스케일링으로 물리 자체를 학습
궁극적으로 범용 물리 시뮬레이터를 만들 필요 없이, "지구 시뮬레이터"만 있으면 되고, 그건 데이터로 만들 수 있다 — 이것이 Physical AI의 가장 흥미로운 방향이다.