传感器像素,镜头分辨率之间究竟是怎样的逻辑

查看 46|回复 2
作者:无忌469717806   

传感器像素,镜头分辨率之间究竟是怎样的逻辑
     
      这几天有许多人在纠结1200w像素和2500w像素,也有很多人完全理不清镜头分辨率和传感器像素之间的对应关系,现在笔者就来慢慢掰扯。以下内容来自笔者粗浅的知识和使用经验,如有不对的请更高阶的玩家用户斧正。
         什么是像素就不花费文字篇幅去表述了,网络上一堆的科普文章,我们重点来说一下传感器像素从1200w增加到2500w究竟有没有作用?先说结论:作用有但是很小很有限约等于没有,几乎不会提升细节只是在偶发性特定场景能提升细节。接着就来论证结论:大家首先要弄清镜头分辨率和传感器之间相互的作用关系 ,举例在其它变量恒定时假如镜头只能分辨出100个点,那么不管你用1个像素的传感器还是10000个像素的传感器在数码图像上都只能呈现100个点(现在我们暂时抛开算法的影响,其实这句话不用括号标注,因为前面的条件假设已经预设了其它变量恒定,只是怕有人转不过弯)。1个像素点的数码图像和10000个像素点的数码图像之间的差别就是1个像素的数码图像想要不模糊只能在1个像素的播放介质(屏幕)播放或者1个像素的打印机打印成实物照片,虽然目前的世界或许没有这种硬件,但这不是本文讨论的;而10000个像素的数码图像可以在10000像素的播放介质或者打印机播放和打印,以上就是传感器像素对数码图像的意义所在。
       大家要厘清一个概念,那就是数码图像也就是我们常说的jpg图像它的像素和屏幕以及打印机规格参数里的像素是一个东西但不是一个概念。简单粗暴的表述就是屏幕和打印机的像素规格是有具体固定的物理尺寸边界的,而jpg的数码图像像素是没有任何固定的物理尺寸边界,Jpg文件里的像素中任意一个像素即可以代表真实世界的1厘米也可以代表1米甚至1千米1万米。比方一副广角的jpg照片有可能是代表八千里路云和月,但同一个机身用微距拍摄的jpg就只是代表方寸之间罢了,至于1像素代表千千米甚至1光年就是卫星图像甚至哈勃或天眼FAST拍摄的jpg文件了。屏幕和打印机的像素规格有真实的物理边界尺寸也必须要有,27寸的屏幕就是27寸,10寸打印机就是10寸打印机。同为27寸的屏幕1080P就是没有2160P显示的细腻,同为10寸打印机1920x1440dpi的分辨率就是没有3840x2880dpi的细腻,因为它们的物理边界都是固定的,在固定的边界里越多像素只是更细腻过渡更平滑罢了但是它并不会改变播放打印同一个jpg数码图像的细节。此时我们倒回上一段末尾,1个像素的数码图像也拥有镜头分辨出的100个点的细节,人们之所以看不到是因为要在1个像素点的屏幕看清1个像素的数码图像里的细节往往需要高倍显微镜,并且假定这块1个像素点的屏幕真实存在且能完美复现数码图像;10000个像素点可以把镜头分辨出的100个点放大很多,人眼目视就能看清,这个往往就给人造成了一个假象即10000个像素点细节更多,这也是大家用照片对比APP放大到观看物理尺寸一致时放大比例不一致的唯一原因。说到这里其实已经可以用屏幕复现数码图像反推传感器像素的作用了,但是不用这个反向推论,接着往下聊。
        为什么不用反向推论的论调因为防止有人说这是结果推导过程的耍流氓行为,并没证实像素参与成像的作用,因为有人说了越多像素参与成像意味着有更多的细节。有以上论调的人非常多尤其从手机拍照开始玩的或多或少都受手机厂商的灌输式的发布会成功影响并奉为圭臬。我们一定要明白传感器成像的基础或者说来源是什么?它无外乎来自于镜头捕获的光线以及把光线转换为图像的算法。首先来说镜头:一只镜头从生产线完成生产发售为商品后它的分辨率甚至所有属性就固定了,它并不会因为搭配的传感器像素提升一倍后分辨率以及其它属性就会跟着提升一倍,这点应该没有任何歧义吧?除非你在镜头前后加装各种功能性器械,例如增距镜、广角镜、微距近摄镜等等或者直接更换镜头,所以手机提升传感器像素会影响成像至少镜头这一端完全可以排除在外,因为手机镜头不可更换,实际镜头这个因素在相机界大家都默认知晓甚至几年前佳能在采访中就公开谈到早期的镜头并不适用高像素机型;其次再来谈另一项即算法:手机拍照玩过移植版谷歌相机都知道,里面的很多参数经过用户修改都能影响最终的jpg成像,这个就是普通用户能左右修改jpg成像最好的例证,这也更是算法影响成像的具体体现。除非厂商在更新传感器像素时一并指出连带更新了算法,否则沿用旧算法依然不能影响成像。既然有影响的两项都排除了那为什么最先抛出的结论又是作用有只是很小很有限?那是因为所有的镜头在不同的光线下拥有不同的分辨率,人眼还在明亮的光线和昏暗的光线下视力不一样的,单纯增加传感器像素仅仅在光线良好的情况时有一点点作用,光线良好就是文前结论当中指出的特定场景。而起到的这一点点作用还是在算法算力跟得上作为前提,因为更多的像素就意味着更多字节量和更多的处理逻辑单元,移植版谷歌相机之所以细节好其实就是用户能接受它成像所耗费的时间罢了。当光线不好时提升的传感器像素反而是累赘,还是以镜头能分辨100个点举例:传感器只有100个像素点时对应镜头分辨出的100个点就是一一对应的关系此时成像干净果断迅速而传感器是200个像素点时它就是2个像素点对应镜头分辨出的1个点,此时光线又暗不够照亮两个像素参与成像,这时候算法要么是涂抹猜测要么是像单反无反相机一样直接用噪点填充,无论哪一种对成像都是减分项。
       写在最后,以目前的手机拍照的用户体量规模尤其是酷安这个理工科用户基数巨大的地方大家最该做的是鞭策厂商在发布会时除了嗨吹以外最该公布的是一些关键性的规格参数技术标准,比如镜头的分辨率,镜头的最近对焦距离,镜头的放大倍率,镜头焦点一致性(跑焦)甚至可能的话公布镜头MTF曲线,连拍张数等等,而不是仅仅说多大底多少多少像素。近几年的发布会好像仅有刚刚发布的vivo x100ultra公布了20x微距放大倍率是3.4 :1,希望这是良好的开始。虽然参数是冷冰冰的且对成像的最终风格影响甚小,但是这些参数往往决定了普通用户能达到的拍摄下限。至于蔡司色彩,哈苏影调,徕卡风格这些是文学类的标准,认可喜欢这些文学标准的不用关心任何技术参数,因为技术参数是科学不是文学,而所有的科学都是为文学服务的。

像素, 镜头, 传感器

山雾花野   
同一传感器尺寸下,像素越大,感光越差,之前以为23u两亿是超分,因为成像质量太差,最近查了查真是两亿,是两亿像素欠曝与一千二百万像素过曝合并成像,现实就是像素点太小,进光不足,暗光不可用,这要是对谷歌相机开放两亿像素接口就好了
济南第一杆   
受益匪浅[抱拳]。原来我的理解像素是单位平方厘米上方块的个数。同cmos或者ccd上成像的质量取决于镜头口径和镜片组数,口径越大,被摄物体反出的光线进入镜头越多,色彩越丰富,镜片组数越多对于光线色彩矫正越准确
您需要登录后才可以回帖 登录 | 立即注册

返回顶部