Apple Vision Pro 및 3D 콘텐츠 제작을 위한 Canon 듀얼 렌즈 리뷰
Apple Vision Pro의 등장과 함께 3D 콘텐츠 제작에 대한 관심이 높아지고 있다. 하지만 아직까지 3D 콘텐츠 제작을 위한 카메라 옵션은 많지 않은 상황이다. 특히 Apple Vision Pro와 같은 디바이스를 위한 고품질 3D 콘텐츠를 제작하려면 더욱 제한적인 선택지에 직면하게 된다.
이번 리뷰에서는 Apple과 협력해 개발된 Canon의 듀얼 렌즈를 중점적으로 살펴보고 Apple Vision Pro를 위한 3D 콘텐츠 제작에 어떤 도움을 줄 수 있는지 알아보겠다.
Apple Vision Pro 포함해 다른 VR 기기 또는 3D 지원 디스플레이를 위한 3D 콘텐츠를 제작하려는 비디오 전문가는 선택할 수 있는 카메라 옵션이 몇 가지에 불과하다. 하이엔드에서는 빔 스플리터 장비에서 두 대의 카메라를 동기화하는 것이 얼마 동안의 방법이었지만 최근까지 엔트리 또는 중급 3D 카메라 시장에서는 거의 활동이 없었다. Apple과 협력하는 Canon은 세 개의 듀얼 렌즈를 만들었으며 그 중 하나는 공간 크리에이터를 특별히 대상으로 EOS R7(APS-C) 바디용 RF-S 7.8mm STM DUAL 렌즈다. 
측면에서 보면 일반적인 렌즈처럼 보인다. 원한다면 58mm ND나 다른 필터를 추가할 수 있고 전면의 수동 초점 링은 부드럽게 작동하며 자동 초점이 지원된다. 전면에서 보면 하나의 큰 원 대신 두 개의 작은 구면 렌즈가 보이고 카메라 뒷면에는 좌우 눈에 대한 별도의 이미지가 보이며 동공 간 거리는 약 11.6mm로 작지만 이는 Spatial의 시야가 좁기 때문에 반드시 문제가 되지는 않는다.
공간 vs 몰입형: 3D 콘텐츠의 차이점
- 공간: 좁은 시야를 가진 3D 콘텐츠로 전통적인 영화 제작 방식과 유사하다. Apple Vision Pro용 공간 크리에이터를 위한 Canon EOS R7용 RF-S 7.8mm STM DUAL 렌즈가 대표적인 예이다.
- 몰입형: 넓은 시야(180도)를 가진 3D 콘텐츠로 더욱 현실감 있는 경험을 제공한다. Canon의 RF 5.2mm f/2.8L Dual Fisheye, RF-S 3.9mm f/3.5 STM Dual Fisheye 렌즈가 몰입형 콘텐츠 제작에 적합하다.
Canon EOS R7과 RF-S 7.8mm STM DUAL 렌즈
- 장점:
- 직관적인 인터페이스와 뛰어난 조작성
- 견고한 바디와 다양한 기능
- 뛰어난 화질과 4K 비디오 지원
- 단점:
- 전원 스위치의 비디오 모드 전환 방식이 다소 헷갈릴 수 있음
- 몰입형 콘텐츠 제작에는 적합하지 않음
Canon EOS R7과 RF-S 7.8mm STM DUAL 렌즈는 Apple Vision Pro를 위한 공간 콘텐츠 제작에 최적화된 솔루션이다. 하지만 몰입형 콘텐츠 제작을 원한다면 더 넓은 시야를 지원하는 다른 듀얼 피쉬아이 렌즈를 고려해야 한다.
Handling
오늘날 R7의 인터페이스는 친숙하고 탐색하기 쉽다. 뒤집는 화면이 유용하고 버튼은 근육 기억을 촉진하기 위해 고유한 위치에 배치되었으며 두 개의 다이얼을 사용하면 터치만으로 설정을 조정할 수 있다. 두 개의 SD 슬롯이 있는 견고한 중간 범위의 바디이며 약간 푹신한 버튼은 내 GH6의 버튼과 같은 견고한 촉각적 반응을 제공하지는 않지만 완벽하게 사용할 수 있다.
주목할 점은 전원 스위치로 '끄기'에서 '켜기'를 거쳐 '비디오' 아이콘으로 바뀐다. 즉 R7에서 '켜기'는 실제로 '사진'을 의미한다. 이 모드에서 비디오를 녹화할 수는 있지만 최고 화질의 '4K Fine"'모드에서는 녹화할 수 없기 때문이다. 비디오와 정지 이미지 캡처를 전환할 계획이라면 이 방법을 마스터해야 하지만 비디오만 촬영하려면 스위치를 두 단계 옮기기만 하면 된다. 두 모드 간에 설정이 다르게 기억되므로 정기적으로 전환하는 경우 조리개 등을 조정하면 된다.
다이나믹 레인지가 좋고(10비트 CLog 3 제공) HEIF로 촬영하는 경우 스틸 사진도 HDR 밝기 범위를 사용할 수 있다. 이 편리한 기술을 더 많은 제조업체가 곧 HDR 스틸을 채택하기를 바란다.
최소 초점 거리가 15cm이므로 카메라에 비교적 가까이 물체를 배치할 수 있으며 가장 강한 효과는 15cm에서 60cm 사이인 것으로 보이긴 하지만 Apple Vision Pro에서 최종 이미지를 확인해야 한다. 카메라에 너무 가까이 있는 물체는 보기에 매우 불편할 수 있다. 사용 가능한 샷을 촬영했는지 확인하려면 약간 다른 거리에서 여러 장의 샷을 녹화하는 것이 좋다.
자동 초점은 빠르지만 더 넓은 조리개에서 비교적 가까운 피사체를 촬영할 때 초점을 놓치기가 너무 쉽다. 초점 UI는 익숙해지는 데 약간 시간이 걸릴 수 있으며 카메라가 가끔 초점을 맞추지 못하면 다른 AF 모드로 전환하거나 수동 초점으로 전환해야 할 수도 있다. 본체의 스위치나 전자식 오버라이드를 사용하면 쉽고 MF 모드에는 초점 피킹이 있지만 AF 모드에서는 활성화할 수 없다.
또 다른 문제는 뷰파인더 이미지 디스플레이가 매우 작아서 두 이미지 서클을 나란히 표시하기 때문에 마이크로 HDMI 포트에 연결된 외부 모니터 없이는 프레이밍하고 초점을 맞춘 것을 보는 데 어려움을 겪을 것이다. 그러나 모니터를 연결하면 터치스크린이 비활성화되고 이미지를 확대할 수 없다. 예상보다 정확한 포커싱이 훨씬 더 어려웠다. 중요한 샷의 경우 혹시 모를 경우를 대비해 초점을 다시 맞추고 다시 촬영하거나 조리개를 조이는 것이 좋다.
3D를 위한 구성
3D로 구성하는 것은 다른 렌즈로 2D로 촬영하는 것과 매우 비슷하지만 이상한 점이 있다. 이미지 미리보기가 두 개의 작은 원이기 때문에 잘라내고 처리한 후 최종 이미지가 어떻게 보일지 정확히 시각화하기 어렵다. 모니터가 없다면 자신을 가리기 위해 조금 더 좁고 조금 더 넓게 촬영해야 한다.
초점 문제를 해결하기 위해 카메라는 확대할 때 눈을 바꿔서 각 각도에 대한 초점을 독립적으로 확인할 수 있게 해주지만 이는 모니터가 연결되지 않은 경우에만 가능하다 . 한 렌즈는 초점이 맞고 다른 렌즈는 초점이 맞지 않는 상황이 발생하면 렌즈의 '조정"'스위치를 사용해 왼쪽 또는 오른쪽 각도에만 초점을 맞춘다.
중요한 점은 3D 캡처는 2D 이미지를 신중하게 선택하는 것보다 볼륨을 캡처하는 것과 더 비슷하기 때문에 볼 수 있는 모든 것이 깊이에 어디에 있는지에 대해 더 많이 생각하게 될 것이고 너무 멀리 있는 물체의 경우 3D 효과가 떨어지기 때문에 전경과 배경 물체를 모두 사용해 프레임을 구성하는 데 시간을 보내게 된다.
일부 피사체는 3D에서 정말 잘 어울린다. 예를 들어 사람으로 울퉁불퉁하고 약간 움직이며 카메라에 가까이 있는 경향이 있다. 지난 한 달 동안 촬영한 수백 개의 3D 클립 중에서 음식이 아마도 가장 성공적인 피사체였을 것이다. 카메라에 꽤 가까이 다가갈 수 있다는 사실은 최신 iPhone 16 시리즈보다 공간적 클로즈업과 근접 매크로 촬영이 더 쉽다는 것을 의미하지만 얼마나 가까이가 너무 가까운 지 항상 알 수는 없다는 것을 팜고바란다.
현장 테스트
이 카메라를 시험하기 위해 몇 번 테스트 촬영을 했는데 조작(초점 제외)에는 문제가 없었다. 배터리 수명은 좋았고 과열 문제도 없었으며 성능도 좋았다.
비교를 위해 필자는 iPhone 16 Pro Max(1080p의 기본 카메라 앱과 UHD의 공간 카메라 앱 둘 다 사용)와 GH6의 12.5mm ƒ/12 Lumix G 3D 렌즈도 가져갔다. 이것은 오래 전에 단종된 렌즈로 여러 면에서 여기에서 리뷰하는 새로운 Canon 렌즈와 비슷하다. 두 개의 작은 구면 렌즈가 일반 렌즈 바디에 내장되어 있고, 서로 가까이 배치되어 있으며 좌우 눈이 동시에 녹화된다.
하지만 차이가 있다. Canon이 센서에 두 개의 완전한 원형 이미지를 투사하는 반면 Lumix 렌즈는 더 큰 원을 투사해 가운데가 겹쳐지고 왼쪽과 오른쪽 가장자리 중 일부가 잘린다. 더 중요한 것은 전체 센서 데이터를 기록할 수 있기 때문에 이 설정은 Canon보다 더 높은 해상도(눈당 2400px 너비, 원하는 경우 수직으로 더 높음)를 캡처한다.

Lumix 3D 렌즈는 5760×4320의 더 높은 비디오 해상도로 이미지를 캡처하기 위해 훨씬 더 많은 센서 영역을 사용한다.
이중 이미지 해석
듀얼 렌즈 설정의 약간 이상한 점 하나는 이미지가 예상한 순서대로 표시되지 않고 오른쪽 눈은 왼쪽에 왼쪽 눈은 오른쪽에 표시된다는 것이다. 그 이유는 물리학 때문이다. 렌즈가 이미지를 캡처하면 수평 및 수직으로 뒤집히고 실제로 눈에서도 동일한 일이 발생한다. 뇌가 하는 것처럼 카메라는 이미지를 뒤집은 다음 사용자에게 보여주고 일반 렌즈의 경우 이미지는 카메라 앞에서 보는 것과 일치한다. 그러나 왼쪽 및 오른쪽 이미지가 각각 독립적으로 이러한 뒤집기 프로세스를 거치기 때문에 카메라가 이미지를 수평으로 뒤집으면 왼쪽 및 오른쪽 이미지도 바뀐다.
R-L 레이아웃은 두 개의 인접 이미지를 맞추는 것보다 '교차 눈'보기를 선호하는 사람에게는 유용하지만 '병렬' 보기를 선호하는 사람에게는 불편하다. 이미지가 전통적인 L-R 레이아웃에 있었다면 모니터를 연결하고 Google Cardboard와 유사한 기능을 사용하여 각 눈을 분리해 실시간 3D 이미지를 더 쉽게 볼 수 있을 것이다. 이대로라면 편집 베이로 돌아갈 때까지 두 눈을 표준 L-R 형식으로 다시 전환한 후 작업해야 할 것이다
파일 처리
Canon의 EOS VR Utility는 영상을 처리하고 눈을 다시 바꾸고 시차 보정을 수행하고 LUT를 적용하는 등의 작업을 하도록 설계됐다. 보기 좋은 소프트웨어는 아니지만 적어도 올바른 설정을 사용하면 기능적이다. 3D Theater 및 Spatial 형식으로 내보낼 수 있지만 Spatial은 실제로 최상의 선택이 아니다. 자르기가 너무 무겁고 해상도(1180×1180)가 너무 낮, 코덱이 심하게 압축된다.
EOS VR Utility, 16:9 크롭을 선택하기 전에 비디오를 3D 극장 형식으로 변환
대신 비디오 전문가는 16:9로 크롭한 3D Theater 포맷으로 내보내야 한다. (8:9 크롭은 측면에서 이미지가 너무 많이 손실되므로 비추천한다.) 3D Theater 포맷은 필요한 처리를 수행하지만 MV-HEVC 대신 ProRes 코덱으로 변환하기 때문에 생성 손실로 인한 대부분의 문제를 피할 수 있다. 해상도는 가로 3840(두 눈 모두 포함)이고 이는 진정한해상도는 아니지만 기본 Spatial 옵션보다 상당히 높다. 이러한 클립을 FCP로 가져올 때 정보 패널에서 Stereoscopic Conform을 Side by Side로 설정하면 된다. 
FCP에서 Stereoscopic Conform은 Side by Side로 설정돼야 한다
공간 문제가 있는 경우 3D 시어터는 ProRes 대신 H.264 코덱을 사용할 수 있지만 이러한 H.264 클립을 FCP로 가져오면 정직각360° 클립으로 잘못 해석돼 프로젝션 모드를 직사각형으로 설정하고 스테레오스코픽 Conform을 나란히 설정해야 한다.
이 모든 처리를 피하고 싶다면 권장되지는 않지만 기본 카메라 파일을 사용하는 것이 좋다. FCP로 가져온 후 먼저 입체 적합 메타데이터를 'Side by Side'로 설정한 다음 클립을 Spatial/Stereo 3D 타임라인에 추가해야 한다. 거기서 비디오 검사기에서 입체 섹션을 찾고 눈 바꾸기 상자를 선택한 다음 Convergence를 약 7로 설정해 시작하면 된다.이 접근 방식을 사용하면 자르기와 샤프닝 및 LUT를 수동으로 적용해야 하는데 이는 괜찮지만 중요한 점은 한 렌즈가 다른 렌즈보다 매우 약간 높은 수직 차이 문제를 해결하는 것이 매우 어렵다는 것이다. 이 캐논 렌즈와 제 루믹스 3D 렌즈도 마찬가지다. 제조 중에 완벽하게 정렬하는 것은 꽤 까다로울 것이다. EOS VR 유틸리티가 이 문제를 해결하지만 가공되지 않은 샷은 보기에 불편할 수 있다. 원본 샷과 3D Theater 가공 샷을 비교했을 때 배럴 왜곡에 대한 보정도 있었지만 필자의 눈에는 약간 무겁게 느껴져서 가공된 샷이 약간 핀쿠션처럼 보인다.
EOS VR 유틸리티는 무료가 아니라는 점에 주목할 필요가 있다. 2분 이상의 클립을 처리하려면 월간또는 연간 구독료를 지불해야 한다. 이는 많지는 않지만 연간 렌즈 비용의 약 10%에 불과하며 일부는 단순히 자신의 파일로 작업하기 위해 구독료를 지불하는 것에 반대할 수도 있다. 또 다른 문제는 동영상을 변환할 때 원본 시간과 날짜가 손실되고 또는 실제로는 재주문되기도 하지만 원본 시간 정보가 그대로 유지된다는 점이다.
다음은 Canon과 iPhone의 선명도를 비교한 여러 가지 종류의 샷을 담은 비디오다. iPhone이 너무 선명하다고 주장할 수 있지만 Canon은 분명히 부드럽다. 초점 문제가 아니라 카메라와 처리 파이프라인의 한계다.

왼쪽은 원본 비디오의 왼쪽 부분을 잘라낸 것이고 오른쪽은 처리된 비디오의 같은 부분이다. 직선이어야 할 곡선을 주목하면 정지화면은 전체 해상도이지만 비디오는 그렇지 않다.
3840×2160으로 제한된 비디오 모드와 달리 R7의 전체 센서를 정지 이미지로 캡처할 수 있다. 안타깝게도 EOS VR 유틸리티는 정지 이미지를 Apple Vision Pro에서 직접 작동하는 공간 정지 형식으로 직접 변환할 수 없으며 3D Theater 내보내기 옵션으로 나란히 이미지를 만들 수는 있지만 이 해상도는 가로 3840픽셀로 제한되어 있기 때문에 원래 해상도의 많은 부분을 낭비하게 된다.
이미지를 잘라내고/또는 색상을 보정하려면 Final Cut Pro를 사용해 3D Theater에서 처리한 스틸을 FCP로 가져와 UHD 공간 타임라인에 추가하고 수렴을 조정한 다음 원하는 색상 보정 모듈을 사용해야 한다. 각 클립을 한 프레임 길이로 설정하려면 Command A, Control-D, 1, Return을 누르고 나란히 있는 이미지로 구성된 이미지 시퀀스에 타임라인을 공유한다. Spatial로 최종 변환하려면 유료 앱 Spatialify 또는 무료 QooCam EGO 공간 비디오 및 사진 변환기를 사용해야 한다.
이 렌즈는 확실히 만족스러운 깊이로 인상적인 이미지를 캡처할 수 있지만 안타깝게도 파이프라인의 한계로 인해 동영상을 촬영할 때 동일한 화질을 얻지 못한다. 모든 픽셀이 동일하지는 않으며 해상도가 전부는 아니지만 한계가 있으며 3D는 픽셀을 바로 밀어 올린다.
해결 파이프라인
픽셀 해상도는 360°, 180°, 3D와 같은 이국적인 포맷으로 작업할 때 가장 큰 문제 중 하나다. 앞서 언급했듯이 32.5MP 센서는 6960×4640픽셀의 높은 정지 해상도를 제공하지만 캡처할 수 있는 최대 동영상 해상도는 표준 UHD 3840×2160이며 이는 동영상 처리 전이다.
렌즈는 센서의 너비에 거의 두 개의 완전한 원을 투사하고 나머지 원은 비워두지만 카메라는 센서의 6960px 너비를 그 절반이 조금 넘는 3840px로 샘플링한다. 두 개의 눈이 녹화되기 때문에 각 눈에 절반만 남으므로 최대 눈당 1920px가 남는다. 실제 해상도는 크롭 후 약 1500px이지만 3D 극장에서는 눈당 1920px까지 다시 폭파되거나 공간 모드에서는 1180×1180으로 더 축소된다. 
비디오와 정지 이미지에서 해상도가 손실되는 방식은 다음과 같다(모든 해상도에는 두 눈이 포함된다)
Fine모드로 녹화할 경우 전체 센서가 다운샘플링되는 것은 좋지만 비디오 녹화 시 여전히 상당한 양의 원시 픽셀 데이터(약 45%)가 손실된다. 대부분의 카메라에서 예상되는 동작이지만 5760×4320에서 센서의 전체 너비를 1:1 비표준 형식으로 녹화할 수 있는 GH6의 오픈 게이트 녹화로 인해 큰 타격을 입었다. NLE는 예전보다 훨씬 더 유연해졌고 요즘에는 홀수 크기로 촬영하는 것이 완전히 가능해졌다. R7이 원래 센서 해상도를 녹화할 수 있다면 결과가 훨씬 향상될 것이다.
일부 3D 비디오 콘텐츠는 Apple Vision Pro에서 2D 콘텐츠보다 약간 덜 선명하게 보일 수 있지만 해상도는 여전히 중요하다. iPhone에서 촬영한 Spatial 1080p 콘텐츠와 Spatial UHD 콘텐츠의 차이를 확실히 알 수 있으며 R7의 센서는 고해상도이지만 편집 베이로 가는 도중에 너무 많은 부분이 손실된다. iPhone에서 촬영한 Spatial 비디오는 이 렌즈/바디 콤보의 영상보다 선명할 뿐만 아니라 세부 사항도 더 상세하다.
마무리
이 렌즈의 강점은 전용 카메라에 연결되어 있다는 점이지만 가장 큰 약점은 카메라와 파이프라인이 제대로 작동하지 않는다는 점이다. 비디오의 경우 EOS VR 유틸리티의 기본 공간 내보내기를 사용하지 말고 16:9 크롭의 3D 극장을 사용해 라이트 페인팅이나 음식 클로즈업과 같은 장시간 노출 트릭을 사용하는 경우 3D로 촬영할 수 있다. 하지만 워크플로우는 비디오의 경우 필자가 원하는 만큼 선명하지는 않은데 이는 주로 비디오를 녹화할 때 카메라가 충분한 픽셀을 포착하지 못하기 때문이다.
미래에는 새로운 버전의 EOS VR 유틸리티는 디스패리티를 수정하고 눈을 교환하는 데 필요하지만 이미지가 왜곡되거나 시간과 날짜 정보가 손실되어서는 안 되며 공간 콘텐츠를 괜찮은 해상도로 내보낼 수 있어야 한다. 또한 이 렌즈를 더 지원하는 펌웨어 업데이트나 새로운 본체를 보고 싶다. 녹화 전에 영리하게 미리 크롭하거나 전체 센서 해상도로 녹화하는 것도 좋다.
Apple Vision Pro 및 3D 콘텐츠 제작을 위한 Canon 듀얼 렌즈 리뷰
Apple Vision Pro의 등장과 함께 3D 콘텐츠 제작에 대한 관심이 높아지고 있다. 하지만 아직까지 3D 콘텐츠 제작을 위한 카메라 옵션은 많지 않은 상황이다. 특히 Apple Vision Pro와 같은 디바이스를 위한 고품질 3D 콘텐츠를 제작하려면 더욱 제한적인 선택지에 직면하게 된다.
이번 리뷰에서는 Apple과 협력해 개발된 Canon의 듀얼 렌즈를 중점적으로 살펴보고 Apple Vision Pro를 위한 3D 콘텐츠 제작에 어떤 도움을 줄 수 있는지 알아보겠다.
Apple Vision Pro 포함해 다른 VR 기기 또는 3D 지원 디스플레이를 위한 3D 콘텐츠를 제작하려는 비디오 전문가는 선택할 수 있는 카메라 옵션이 몇 가지에 불과하다. 하이엔드에서는 빔 스플리터 장비에서 두 대의 카메라를 동기화하는 것이 얼마 동안의 방법이었지만 최근까지 엔트리 또는 중급 3D 카메라 시장에서는 거의 활동이 없었다. Apple과 협력하는 Canon은 세 개의 듀얼 렌즈를 만들었으며 그 중 하나는 공간 크리에이터를 특별히 대상으로 EOS R7(APS-C) 바디용 RF-S 7.8mm STM DUAL 렌즈다.
측면에서 보면 일반적인 렌즈처럼 보인다. 원한다면 58mm ND나 다른 필터를 추가할 수 있고 전면의 수동 초점 링은 부드럽게 작동하며 자동 초점이 지원된다. 전면에서 보면 하나의 큰 원 대신 두 개의 작은 구면 렌즈가 보이고 카메라 뒷면에는 좌우 눈에 대한 별도의 이미지가 보이며 동공 간 거리는 약 11.6mm로 작지만 이는 Spatial의 시야가 좁기 때문에 반드시 문제가 되지는 않는다.
공간 vs 몰입형: 3D 콘텐츠의 차이점
Canon EOS R7과 RF-S 7.8mm STM DUAL 렌즈
Canon EOS R7과 RF-S 7.8mm STM DUAL 렌즈는 Apple Vision Pro를 위한 공간 콘텐츠 제작에 최적화된 솔루션이다. 하지만 몰입형 콘텐츠 제작을 원한다면 더 넓은 시야를 지원하는 다른 듀얼 피쉬아이 렌즈를 고려해야 한다.
Handling
오늘날 R7의 인터페이스는 친숙하고 탐색하기 쉽다. 뒤집는 화면이 유용하고 버튼은 근육 기억을 촉진하기 위해 고유한 위치에 배치되었으며 두 개의 다이얼을 사용하면 터치만으로 설정을 조정할 수 있다. 두 개의 SD 슬롯이 있는 견고한 중간 범위의 바디이며 약간 푹신한 버튼은 내 GH6의 버튼과 같은 견고한 촉각적 반응을 제공하지는 않지만 완벽하게 사용할 수 있다.
주목할 점은 전원 스위치로 '끄기'에서 '켜기'를 거쳐 '비디오' 아이콘으로 바뀐다. 즉 R7에서 '켜기'는 실제로 '사진'을 의미한다. 이 모드에서 비디오를 녹화할 수는 있지만 최고 화질의 '4K Fine"'모드에서는 녹화할 수 없기 때문이다. 비디오와 정지 이미지 캡처를 전환할 계획이라면 이 방법을 마스터해야 하지만 비디오만 촬영하려면 스위치를 두 단계 옮기기만 하면 된다. 두 모드 간에 설정이 다르게 기억되므로 정기적으로 전환하는 경우 조리개 등을 조정하면 된다.
다이나믹 레인지가 좋고(10비트 CLog 3 제공) HEIF로 촬영하는 경우 스틸 사진도 HDR 밝기 범위를 사용할 수 있다. 이 편리한 기술을 더 많은 제조업체가 곧 HDR 스틸을 채택하기를 바란다.
최소 초점 거리가 15cm이므로 카메라에 비교적 가까이 물체를 배치할 수 있으며 가장 강한 효과는 15cm에서 60cm 사이인 것으로 보이긴 하지만 Apple Vision Pro에서 최종 이미지를 확인해야 한다. 카메라에 너무 가까이 있는 물체는 보기에 매우 불편할 수 있다. 사용 가능한 샷을 촬영했는지 확인하려면 약간 다른 거리에서 여러 장의 샷을 녹화하는 것이 좋다.
자동 초점은 빠르지만 더 넓은 조리개에서 비교적 가까운 피사체를 촬영할 때 초점을 놓치기가 너무 쉽다. 초점 UI는 익숙해지는 데 약간 시간이 걸릴 수 있으며 카메라가 가끔 초점을 맞추지 못하면 다른 AF 모드로 전환하거나 수동 초점으로 전환해야 할 수도 있다. 본체의 스위치나 전자식 오버라이드를 사용하면 쉽고 MF 모드에는 초점 피킹이 있지만 AF 모드에서는 활성화할 수 없다.
또 다른 문제는 뷰파인더 이미지 디스플레이가 매우 작아서 두 이미지 서클을 나란히 표시하기 때문에 마이크로 HDMI 포트에 연결된 외부 모니터 없이는 프레이밍하고 초점을 맞춘 것을 보는 데 어려움을 겪을 것이다. 그러나 모니터를 연결하면 터치스크린이 비활성화되고 이미지를 확대할 수 없다. 예상보다 정확한 포커싱이 훨씬 더 어려웠다. 중요한 샷의 경우 혹시 모를 경우를 대비해 초점을 다시 맞추고 다시 촬영하거나 조리개를 조이는 것이 좋다.
3D를 위한 구성
3D로 구성하는 것은 다른 렌즈로 2D로 촬영하는 것과 매우 비슷하지만 이상한 점이 있다. 이미지 미리보기가 두 개의 작은 원이기 때문에 잘라내고 처리한 후 최종 이미지가 어떻게 보일지 정확히 시각화하기 어렵다. 모니터가 없다면 자신을 가리기 위해 조금 더 좁고 조금 더 넓게 촬영해야 한다.
초점 문제를 해결하기 위해 카메라는 확대할 때 눈을 바꿔서 각 각도에 대한 초점을 독립적으로 확인할 수 있게 해주지만 이는 모니터가 연결되지 않은 경우에만 가능하다 . 한 렌즈는 초점이 맞고 다른 렌즈는 초점이 맞지 않는 상황이 발생하면 렌즈의 '조정"'스위치를 사용해 왼쪽 또는 오른쪽 각도에만 초점을 맞춘다.
중요한 점은 3D 캡처는 2D 이미지를 신중하게 선택하는 것보다 볼륨을 캡처하는 것과 더 비슷하기 때문에 볼 수 있는 모든 것이 깊이에 어디에 있는지에 대해 더 많이 생각하게 될 것이고 너무 멀리 있는 물체의 경우 3D 효과가 떨어지기 때문에 전경과 배경 물체를 모두 사용해 프레임을 구성하는 데 시간을 보내게 된다.
일부 피사체는 3D에서 정말 잘 어울린다. 예를 들어 사람으로 울퉁불퉁하고 약간 움직이며 카메라에 가까이 있는 경향이 있다. 지난 한 달 동안 촬영한 수백 개의 3D 클립 중에서 음식이 아마도 가장 성공적인 피사체였을 것이다. 카메라에 꽤 가까이 다가갈 수 있다는 사실은 최신 iPhone 16 시리즈보다 공간적 클로즈업과 근접 매크로 촬영이 더 쉽다는 것을 의미하지만 얼마나 가까이가 너무 가까운 지 항상 알 수는 없다는 것을 팜고바란다.
현장 테스트
이 카메라를 시험하기 위해 몇 번 테스트 촬영을 했는데 조작(초점 제외)에는 문제가 없었다. 배터리 수명은 좋았고 과열 문제도 없었으며 성능도 좋았다.
비교를 위해 필자는 iPhone 16 Pro Max(1080p의 기본 카메라 앱과 UHD의 공간 카메라 앱 둘 다 사용)와 GH6의 12.5mm ƒ/12 Lumix G 3D 렌즈도 가져갔다. 이것은 오래 전에 단종된 렌즈로 여러 면에서 여기에서 리뷰하는 새로운 Canon 렌즈와 비슷하다. 두 개의 작은 구면 렌즈가 일반 렌즈 바디에 내장되어 있고, 서로 가까이 배치되어 있으며 좌우 눈이 동시에 녹화된다.
하지만 차이가 있다. Canon이 센서에 두 개의 완전한 원형 이미지를 투사하는 반면 Lumix 렌즈는 더 큰 원을 투사해 가운데가 겹쳐지고 왼쪽과 오른쪽 가장자리 중 일부가 잘린다. 더 중요한 것은 전체 센서 데이터를 기록할 수 있기 때문에 이 설정은 Canon보다 더 높은 해상도(눈당 2400px 너비, 원하는 경우 수직으로 더 높음)를 캡처한다.
Lumix 3D 렌즈는 5760×4320의 더 높은 비디오 해상도로 이미지를 캡처하기 위해 훨씬 더 많은 센서 영역을 사용한다.
이중 이미지 해석
듀얼 렌즈 설정의 약간 이상한 점 하나는 이미지가 예상한 순서대로 표시되지 않고 오른쪽 눈은 왼쪽에 왼쪽 눈은 오른쪽에 표시된다는 것이다. 그 이유는 물리학 때문이다. 렌즈가 이미지를 캡처하면 수평 및 수직으로 뒤집히고 실제로 눈에서도 동일한 일이 발생한다. 뇌가 하는 것처럼 카메라는 이미지를 뒤집은 다음 사용자에게 보여주고 일반 렌즈의 경우 이미지는 카메라 앞에서 보는 것과 일치한다. 그러나 왼쪽 및 오른쪽 이미지가 각각 독립적으로 이러한 뒤집기 프로세스를 거치기 때문에 카메라가 이미지를 수평으로 뒤집으면 왼쪽 및 오른쪽 이미지도 바뀐다.
R-L 레이아웃은 두 개의 인접 이미지를 맞추는 것보다 '교차 눈'보기를 선호하는 사람에게는 유용하지만 '병렬' 보기를 선호하는 사람에게는 불편하다. 이미지가 전통적인 L-R 레이아웃에 있었다면 모니터를 연결하고 Google Cardboard와 유사한 기능을 사용하여 각 눈을 분리해 실시간 3D 이미지를 더 쉽게 볼 수 있을 것이다. 이대로라면 편집 베이로 돌아갈 때까지 두 눈을 표준 L-R 형식으로 다시 전환한 후 작업해야 할 것이다
파일 처리
Canon의 EOS VR Utility는 영상을 처리하고 눈을 다시 바꾸고 시차 보정을 수행하고 LUT를 적용하는 등의 작업을 하도록 설계됐다. 보기 좋은 소프트웨어는 아니지만 적어도 올바른 설정을 사용하면 기능적이다. 3D Theater 및 Spatial 형식으로 내보낼 수 있지만 Spatial은 실제로 최상의 선택이 아니다. 자르기가 너무 무겁고 해상도(1180×1180)가 너무 낮, 코덱이 심하게 압축된다.
EOS VR Utility, 16:9 크롭을 선택하기 전에 비디오를 3D 극장 형식으로 변환
대신 비디오 전문가는 16:9로 크롭한 3D Theater 포맷으로 내보내야 한다. (8:9 크롭은 측면에서 이미지가 너무 많이 손실되므로 비추천한다.) 3D Theater 포맷은 필요한 처리를 수행하지만 MV-HEVC 대신 ProRes 코덱으로 변환하기 때문에 생성 손실로 인한 대부분의 문제를 피할 수 있다. 해상도는 가로 3840(두 눈 모두 포함)이고 이는 진정한해상도는 아니지만 기본 Spatial 옵션보다 상당히 높다. 이러한 클립을 FCP로 가져올 때 정보 패널에서 Stereoscopic Conform을 Side by Side로 설정하면 된다.
FCP에서 Stereoscopic Conform은 Side by Side로 설정돼야 한다
공간 문제가 있는 경우 3D 시어터는 ProRes 대신 H.264 코덱을 사용할 수 있지만 이러한 H.264 클립을 FCP로 가져오면 정직각360° 클립으로 잘못 해석돼 프로젝션 모드를 직사각형으로 설정하고 스테레오스코픽 Conform을 나란히 설정해야 한다.
이 모든 처리를 피하고 싶다면 권장되지는 않지만 기본 카메라 파일을 사용하는 것이 좋다. FCP로 가져온 후 먼저 입체 적합 메타데이터를 'Side by Side'로 설정한 다음 클립을 Spatial/Stereo 3D 타임라인에 추가해야 한다. 거기서 비디오 검사기에서 입체 섹션을 찾고 눈 바꾸기 상자를 선택한 다음 Convergence를 약 7로 설정해 시작하면 된다.이 접근 방식을 사용하면 자르기와 샤프닝 및 LUT를 수동으로 적용해야 하는데 이는 괜찮지만 중요한 점은 한 렌즈가 다른 렌즈보다 매우 약간 높은 수직 차이 문제를 해결하는 것이 매우 어렵다는 것이다. 이 캐논 렌즈와 제 루믹스 3D 렌즈도 마찬가지다. 제조 중에 완벽하게 정렬하는 것은 꽤 까다로울 것이다. EOS VR 유틸리티가 이 문제를 해결하지만 가공되지 않은 샷은 보기에 불편할 수 있다. 원본 샷과 3D Theater 가공 샷을 비교했을 때 배럴 왜곡에 대한 보정도 있었지만 필자의 눈에는 약간 무겁게 느껴져서 가공된 샷이 약간 핀쿠션처럼 보인다.
EOS VR 유틸리티는 무료가 아니라는 점에 주목할 필요가 있다. 2분 이상의 클립을 처리하려면 월간또는 연간 구독료를 지불해야 한다. 이는 많지는 않지만 연간 렌즈 비용의 약 10%에 불과하며 일부는 단순히 자신의 파일로 작업하기 위해 구독료를 지불하는 것에 반대할 수도 있다. 또 다른 문제는 동영상을 변환할 때 원본 시간과 날짜가 손실되고 또는 실제로는 재주문되기도 하지만 원본 시간 정보가 그대로 유지된다는 점이다.
다음은 Canon과 iPhone의 선명도를 비교한 여러 가지 종류의 샷을 담은 비디오다. iPhone이 너무 선명하다고 주장할 수 있지만 Canon은 분명히 부드럽다. 초점 문제가 아니라 카메라와 처리 파이프라인의 한계다.
왼쪽은 원본 비디오의 왼쪽 부분을 잘라낸 것이고 오른쪽은 처리된 비디오의 같은 부분이다. 직선이어야 할 곡선을 주목하면 정지화면은 전체 해상도이지만 비디오는 그렇지 않다.
3840×2160으로 제한된 비디오 모드와 달리 R7의 전체 센서를 정지 이미지로 캡처할 수 있다. 안타깝게도 EOS VR 유틸리티는 정지 이미지를 Apple Vision Pro에서 직접 작동하는 공간 정지 형식으로 직접 변환할 수 없으며 3D Theater 내보내기 옵션으로 나란히 이미지를 만들 수는 있지만 이 해상도는 가로 3840픽셀로 제한되어 있기 때문에 원래 해상도의 많은 부분을 낭비하게 된다.
이미지를 잘라내고/또는 색상을 보정하려면 Final Cut Pro를 사용해 3D Theater에서 처리한 스틸을 FCP로 가져와 UHD 공간 타임라인에 추가하고 수렴을 조정한 다음 원하는 색상 보정 모듈을 사용해야 한다. 각 클립을 한 프레임 길이로 설정하려면 Command A, Control-D, 1, Return을 누르고 나란히 있는 이미지로 구성된 이미지 시퀀스에 타임라인을 공유한다. Spatial로 최종 변환하려면 유료 앱 Spatialify 또는 무료 QooCam EGO 공간 비디오 및 사진 변환기를 사용해야 한다.
이 렌즈는 확실히 만족스러운 깊이로 인상적인 이미지를 캡처할 수 있지만 안타깝게도 파이프라인의 한계로 인해 동영상을 촬영할 때 동일한 화질을 얻지 못한다. 모든 픽셀이 동일하지는 않으며 해상도가 전부는 아니지만 한계가 있으며 3D는 픽셀을 바로 밀어 올린다.
해결 파이프라인
픽셀 해상도는 360°, 180°, 3D와 같은 이국적인 포맷으로 작업할 때 가장 큰 문제 중 하나다. 앞서 언급했듯이 32.5MP 센서는 6960×4640픽셀의 높은 정지 해상도를 제공하지만 캡처할 수 있는 최대 동영상 해상도는 표준 UHD 3840×2160이며 이는 동영상 처리 전이다.

렌즈는 센서의 너비에 거의 두 개의 완전한 원을 투사하고 나머지 원은 비워두지만 카메라는 센서의 6960px 너비를 그 절반이 조금 넘는 3840px로 샘플링한다. 두 개의 눈이 녹화되기 때문에 각 눈에 절반만 남으므로 최대 눈당 1920px가 남는다. 실제 해상도는 크롭 후 약 1500px이지만 3D 극장에서는 눈당 1920px까지 다시 폭파되거나 공간 모드에서는 1180×1180으로 더 축소된다.
비디오와 정지 이미지에서 해상도가 손실되는 방식은 다음과 같다(모든 해상도에는 두 눈이 포함된다)
Fine모드로 녹화할 경우 전체 센서가 다운샘플링되는 것은 좋지만 비디오 녹화 시 여전히 상당한 양의 원시 픽셀 데이터(약 45%)가 손실된다. 대부분의 카메라에서 예상되는 동작이지만 5760×4320에서 센서의 전체 너비를 1:1 비표준 형식으로 녹화할 수 있는 GH6의 오픈 게이트 녹화로 인해 큰 타격을 입었다. NLE는 예전보다 훨씬 더 유연해졌고 요즘에는 홀수 크기로 촬영하는 것이 완전히 가능해졌다. R7이 원래 센서 해상도를 녹화할 수 있다면 결과가 훨씬 향상될 것이다.
일부 3D 비디오 콘텐츠는 Apple Vision Pro에서 2D 콘텐츠보다 약간 덜 선명하게 보일 수 있지만 해상도는 여전히 중요하다. iPhone에서 촬영한 Spatial 1080p 콘텐츠와 Spatial UHD 콘텐츠의 차이를 확실히 알 수 있으며 R7의 센서는 고해상도이지만 편집 베이로 가는 도중에 너무 많은 부분이 손실된다. iPhone에서 촬영한 Spatial 비디오는 이 렌즈/바디 콤보의 영상보다 선명할 뿐만 아니라 세부 사항도 더 상세하다.
마무리
이 렌즈의 강점은 전용 카메라에 연결되어 있다는 점이지만 가장 큰 약점은 카메라와 파이프라인이 제대로 작동하지 않는다는 점이다. 비디오의 경우 EOS VR 유틸리티의 기본 공간 내보내기를 사용하지 말고 16:9 크롭의 3D 극장을 사용해 라이트 페인팅이나 음식 클로즈업과 같은 장시간 노출 트릭을 사용하는 경우 3D로 촬영할 수 있다. 하지만 워크플로우는 비디오의 경우 필자가 원하는 만큼 선명하지는 않은데 이는 주로 비디오를 녹화할 때 카메라가 충분한 픽셀을 포착하지 못하기 때문이다.
미래에는 새로운 버전의 EOS VR 유틸리티는 디스패리티를 수정하고 눈을 교환하는 데 필요하지만 이미지가 왜곡되거나 시간과 날짜 정보가 손실되어서는 안 되며 공간 콘텐츠를 괜찮은 해상도로 내보낼 수 있어야 한다. 또한 이 렌즈를 더 지원하는 펌웨어 업데이트나 새로운 본체를 보고 싶다. 녹화 전에 영리하게 미리 크롭하거나 전체 센서 해상도로 녹화하는 것도 좋다.