最近在玩微距,景深浅得很。一旦超出最近对焦距离,那就会无法对上焦,并且是越靠近机身,也就离景深范围越远。
去年听说Adobe出了一个后期防抖,原理是虽然拍糊了,但是根据照片上的运动轨迹,反过来推测抖动轨迹,再反向处理图片,运算出清晰的图像。
那么根据这个原理,如果一个事物不在景深范围内(例如比最近对焦距离更近),肯定是无法在感光元件上成一个清晰像的。但可否通过采集其在焦外不同距离时不同弥散光斑的变大情况,反向推算出其清晰对焦时的情况?
最近在玩微距,景深浅得很。一旦超出最近对焦距离,那就会无法对上焦,并且是越靠近机身,也就离景深范围越远。
去年听说Adobe出了一个后期防抖,原理是虽然拍糊了,但是根据照片上的运动轨迹,反过来推测抖动轨迹,再反向处理图片,运算出清晰的图像。
那么根据这个原理,如果一个事物不在景深范围内(例如比最近对焦距离更近),肯定是无法在感光元件上成一个清晰像的。但可否通过采集其在焦外不同距离时不同弥散光斑的变大情况,反向推算出其清晰对焦时的情况?