Pixel 2의 카메라는 계속해서 자체 리그에 있으며 하루도 끝나지 않아 나를 감동시키지 않습니다. 나는 여전히 모션 사진 기능을 너무 많이 엉망으로 만들지 않았지만 Google의 비하인드 스토리를 읽은 후 그것을 끌어내는 데 사용 된 기술을 살펴보면 변화하기 시작할 수 있습니다.
Motion Photos가 발표되었을 때, 저는 개인적으로 Google이 iOS에서 Apple의 "Live Photos"를 따라 잡는 방식으로 보았습니다. 스틸 이미지와 함께 몇 초의 영상을 캡처하는 것은 깔끔한 아이디어이지만 Google은 실제로 셔터 버튼을 누르기 전에 장면을 녹화하는 것보다 훨씬 더 많은 일을하고 있습니다.
Pixel 2에서 모션 사진을 활성화 한 상태에서 사진을 찍으면 카메라 내에서 Pixel 2의 자이로 스코프 및 광학 이미지 안정화 시스템을 사용하여 생성 된 모션 메타 데이터도 기록됩니다. 이 두 구성 요소는 소프트웨어를 사용하여 모션 사진을 생성하고 하드웨어와 소프트웨어 기반 안정화를 사용하여 짧은 클립에서 발견되는 카메라 흔들림의 양을 크게 줄일 수 있습니다.
Google의 리서치 블로그 당:
Pixel 2의 동영상은 자이로 스코프와 OIS에서 파생 된 모션 메타 데이터를 사용하여이 분류를 개선했습니다. 이를 통해 무한대의 장면에 대한 카메라 움직임을 정확하게 캡처 할 수 있으며, 이는 멀리있는 배경으로 생각할 수 있습니다. 그러나 더 가까운 거리에서 촬영 한 사진의 경우 자이로 스코프와 OIS에서는 설명하지 않는 다양한 깊이 레이어의 장면 요소에 시차가 도입됩니다.
이 시스템이 모션 사진에 얼마나 많은 배경 움직임이 있는지 결정하면:
모션 사진 안정화 전 (왼쪽) 및 이후 (오른쪽)우리는 이전 게시물에 요약 된 선형 프로그래밍 기술을 사용하여 배경을 정렬하기 위해 최적의 안정적인 카메라 경로를 결정합니다. 또한 휴대 전화를 치워 서 발생하는 우발적 인 동작을 제거하기 위해 비디오를 자동으로 자릅니다. 이 모든 처리는 휴대 전화에서 이루어지며 Google 포토에서 모션 버튼을 누르면 GPU 셰이더를 사용하여 안정화 된 비디오를 실시간으로 렌더링하는 데 사용되는 프레임 당 소량의 메타 데이터가 생성됩니다.
위의 GIF에서 볼 수 있듯이이 프로세스의 최종 결과는 매우 대단합니다. 모든 것은 소프트웨어의 힘을 사용하여 백그라운드에서 발생합니다.
모션 사진은 Pixel 2에서 기본적으로 켜져 있으며 Google 포토 앱 내에서 바로 비디오 클립 및 고해상도 GIF로 공유 할 수 있습니다.