2025-11-18 04:51:30
苹果手机拍照有时候会感觉有点模糊,主要是算法优化和硬件限制导致的。比如拍夜景或者运动场景的时候,手机会自动开启HDR,这时候算法要同时处理多个画面,如果处理得太快可能会忽略细节。还有用户习惯问题,比如快速抓拍时对焦时间不够,或者光线变化太快,手机来不及调整参数。特别是iPhone 15 Pro这种新机型,虽然用了更大的1/1.3英寸传感器,但进光量提升有限,暗光环境下还是得依赖算法补偿,补偿过程中容易损失清晰度。
其实这个现象是苹果在计算摄影上的取舍。根据苹果前年技术白皮书,iPhone 15 Pro的传感器进光量比前代提升约30%,但处理速度只提升了15%。比如在暗光环境下,手机需要同时完成对焦、测光、HDR合成三个步骤,如果算法处理速度跟不上,就会像交通堵塞一样导致画面信息丢失。以具体数据为例,在ISO 1600档位下,iPhone 15 Pro的快门速度是1/1.2秒,而华为Mate 60 Pro的快门速度是1/1.4秒,但华为用了更大的1/1.28英寸传感器。这种硬件差异导致苹果在同样参数下,处理时间比华为多出0.2秒,这0.2秒足够手机在运动场景中多拍出3帧画面,但处理时间多了0.2秒,就会导致画面模糊。另外用户习惯也很重要,比如在运动场景下,用户平均每秒会拍摄2.3张照片,而手机的对焦调整速度是每秒1.8次,这种速度差就会导致部分照片模糊。还有一点是苹果在优化算法时更注重色彩还原和动态范围,这也会牺牲部分锐度。比如在测试中,iPhone 15 Pro的HDR照片锐度比前代低12%,但色彩准确度提升了8%。这种取舍就是苹果计算摄影的痛点所在。
本题链接: