영상의 일부에 대해서만 카메라를 해결하는 방법은 무엇입니까?
저는 카메라 추적과 블렌더 (2.80)에 꽤 익숙합니다. 대부분의 트래커가 1 초 이하로만 표시되는 도로 주행의 "긴"(1 분) 대시 캠 영상이 있으므로 많은 트래커를 만들어야하는데 지루합니다. 전체 푸티지를 먼저 추적하고 결국 카메라를 해결하는 것은 너무 위험한 접근 방식으로 보이므로 추적기가 좋은지 확인하기 위해 의사 끝 프레임 번호까지 푸티 지의 일부만 해결할 수 있는지 궁금합니다. 영상의 끝. 지금까지 블렌더 장면 설정이나 타임 라인에서 끝 프레임을 설정해 보았지만 솔버는 여전히 전체 푸티지를 사용합니다.
아이디어를 명확히하기 위해 1 분 영상의 처음 2 초만 추적 한 다음 처음 2 초 동안 만 카메라를 해결 한 다음 다음 2 초 동안 트랙을 추가하고 다시 카메라를 해결하지만 총 4 초 동안 추적하려고합니다. 그리고 전체 영상이 다 보일 때까지 반복합니다. 이렇게하면 결과를 더 빨리 볼 수 있고 즉시 추적 정확도를 개선 할 수 있습니다.
아래의 예제 프레임이지만 일반적으로 대시 캠 비디오 또는 CGMatter 추적 자습서 (처음 2 초)와 유사한 질문은 https://www.youtube.com/watch?v=6Vo-jyWlDhM,하지만 비디오가 훨씬 더 길다고 상상해보십시오.

답변
추적 및 3D 재구성이 작동하는 방식을 조금 더 깊이 이해하면 도움이됩니다.
비디오의 포인트를 추적하고 카메라를 풀면 카메라 고유 및 외부 매개 변수의 두 가지 정보를 얻을 수 있습니다.
카메라 내장 기능은 카메라 렌즈, 렌즈 중심 및 왜곡입니다. Intrinsics는 센서 크기와 특정 렌즈의 조합에 고유합니다. 따라서 동일한 카메라에서 동일한 렌즈로 촬영 한 모든 샷은 동일하게 작동합니다.
카메라 내장 함수가 있으면 3D 공간의 좌표를 사용하여 이미지의 점 배치에 해당하는 외적 함수를 계산할 수 있습니다.
pff .... 나왔어.
이 경우 그게 무슨 의미일까요? 장면의 작은 부분을 해결하여 카메라 고유 (렌즈 시야, 광학 중심 및 왜곡 계수)를 결정하기 만하면됩니다. 이 정보로 샷의 다른 부분도 해결할 수 있습니다.
최소한 시차를 보여주는 2 개의 이미지와 장면을 해결하기위한 8 개의 정확한 추적기가 필요하지만, 더 정확하게 평가할 프레임이 몇 개 더 있으면 도움이됩니다.
사용할 세그먼트는 키 프레임 섹션에서 정의 할 수 있으며 프레임 A와 B 사이의 프레임 범위는 장면을 해결하는 데 사용됩니다.

하지만이 범위를 설정한다고해서 비디오 클립의 해당 부분 만 해결되는 것은 아닙니다. Blender는 여전히 전체 문제를 해결하려고하지만 범위를 설정하면 모든 프레임에 8 개의 트래커가 필요하지 않습니다.
그리고 이제 그랜드 피날레를 위해 :
예! 문제를 해결하려면 전체 샷에 트래커를 추가해야합니다. 게 으르거나 지름길을 사용하지 마십시오. 단 1 분의 푸티 지, 제한된 수의 프레임 및 블렌더가 대부분의 작업을 수행합니다! 그러나 모든 추적이 훌륭 할 필요는 없으며 키 프레임 사이에 사용되는 세그먼트 만 있으면됩니다. 요점은 추적기를 추가하지 않으면 블렌더가 움직임을 추측하지 않습니다.