1. XenForo 1.5.14 中文版——支持中文搜索!现已发布!查看详情
  2. Xenforo 爱好者讨论群:215909318 XenForo专区

想做视频?这里有一份入门到进阶知识完整指南

本帖由 漂亮的石头2021-07-12 发布。版面名称:知乎日报

  1. 漂亮的石头

    漂亮的石头 版主 管理成员

    注册:
    2012-02-10
    帖子:
    486,020
    赞:
    46
    [​IMG] 李明殊,数码胶片XX法师群群成员(33/79)

    万字长文,解释你在视频制作时会用到的知识和术语,以及在器材选择时应该注意的问题,有点长,可以先收藏下来,慢慢看】

    [​IMG]


    不可置疑的是,这是一个视频的时代。

    不论是相机还是手机厂商,每次发布会也会用很长的篇幅来解释他们产品的视频能力。 也很有多朋友为了更好的视频质量,不在满足于手机拍摄,开始选择单反或者微单开始自己视频的创作。 选购肯定也会遇到何种乱七八糟的参数,什么 10bit ,什么 422,super35,这是都是什么,又有什么作用? 今天我们就来认真地讨论一下这些东西。


    4K 即正义?分辨率

    当你在 B 站看小姐姐跳舞的时候,有时候可能会看到这个标志【4k 超清】。

    [​IMG]

    这也许是大家最熟悉的一个的参数——分辨率,不论是视频也好,还是显示器或者电视机都会用到这个,很简单,也很容易理解,分辨率越高,视频画质越好。

    通常上,还会用这样的一张图,来解释不同视频分辨率的效果。我们也会把这个分辨率称为『输出分辨率』。

    [​IMG]

    有聪明的小朋友要问了,我的手机或者显示器不过是 1080P 的,那么还有必要搞 4K 么?

    即使最终都是输出为 1080P 的,拍摄的素材为 4K,会包含更多的色彩信息,感官上会感觉更加的清晰,色彩更加丰富(这个过程就是超采,下文会详细解释),而且也方便你进行画面的裁剪或者稳定。

    拍摄 8K 同理,即使最终输出为 4K 的视频,也会获得更好的画面,但是问题就在于能够拍摄 8K 的设备普遍不便宜,对于存储和处理的要求会更高。除了相机之外,你还得更新电脑,买更贵的显卡和更大的硬盘才行。

    所以目前来讲,4k 无疑更具有实用性,而且几乎每一台手机,哪怕是入门级别的相机,也都开始普及 4K 视频了。

    注: 4K 分辨率其实是一个统称,画面横向像素在 4000 个左右,纵向在 2000 个像素左右的,都可以称之为 4k 分辨率,不同的设备和场景下,所以就有了不同的 4k 分辨率。

    最为常见的,是我们日常的网络视频以及很多显示器的比例,16:9,分辨率为 3840 × 2160,手机相机也通常也以这个分辨率捕获素材。

    当然,还有其他规格的 4k 分辨率,可参考下表:

    [​IMG]

    部分相机也能拍摄 DCI-4K 的视频,比如松下的 GH5s,S1H,以及万元最强全画幅视频微单 S5。


    为什么拍视频的时候,画面有变化?裁切与超采

    现在请你拿出你的手机,从拍照模式切换到录像模式,你会发现一个有趣的现象,画面的视角好像发生了变化。

    [​IMG]

    为什么呢?

    其实很好理解,拍摄 4K 视频,分辨率为 3840 × 2160,像素不过 800 万左右,但是问题现在手机像素通常都在 1200 万像素之上,相机呢,普遍的像素值在 2000 万左右。

    那多出来的这些像素,怎么办?

    第一种解法就是,多出来就多出来呗,不用就行,于是就有了裁切这种方式,拍摄视频的时候,我只使用中间那部分需要的像素就够了。

    [​IMG]

    缺点显而易见,就是本来能够拍摄的到视角变小了。

    比如裁切系数为 1.7 倍,你使用一只 24mm 的广角镜头,拍摄出来的画面相当于 40mm 镜头拍的,丧失了广角端。

    顺便也提醒大家一点,厂家往往很鸡贼,会把这个裁切系数用很小很小的字体写在备注里。

    [​IMG]

    既然集中使用中间的像素会丧失视角,那么我尽量使用整个传感器呗。

    于是『跳采』这种方式出现。简单来说,就是每间隔几个像素记录一个像素点的信息,其它像素的信息就不要了,如图所示。

    [​IMG]

    很棒,解决了视角裁切的问题,但是缺点也很明显,舍弃了一部分像素的信息,不论是画质上还是颜色上,都会有所欠缺。

    有没有更好的解法,有,就是超采。

    在理解超采之前,得先理解传感器是如何记录颜色的。

    实际上,像素点是不会记录颜色信息的,他只能记录光的强度,那么如果还原真实世界的色彩呢? 不得不提『拜尔滤镜』了。在像素上放上滤色片,然后记录不同颜色的滤色片对光的过滤效果,就可以得到颜色信息。

    具体的光学知识可以参考之前的这个回答。​

    李明殊:彩色胶片主要是什么原理?



    但是像素不是胶片的感光剂,摞三个滤色片在上边,也不能记录色彩信息,于是拜尔想了一个办法,把RGB滤色器按照一定的方式排列在相邻像素上,这样就可以根据周边的颜色数值,来算出一个『颜色』。

    [​IMG]

    既然是『算出来』,那么就不是真实的。


    但是不可否认的是,只要我输入的条件够多,结果应该更加准确,接近真实。 超采就是这么一个类似的过程——

    采集传感器上所有像素的信息,然后根据周边像素的信息算出来一个数值,然后记录。

    为了便于理解超采,我们举一个不太严谨的例子,假如现在有一个 3200 万像素的相机,需要拍摄 4K 视频。也就是需要将四个像素变为一个像素。

    假设四个像素的情况如图所示:

    跳采,选择其中一个颜色直接记录,比如 1 中的红色; 超采,就是根据周边的的像素,来计算出一个颜色,然后作为记录。无疑,这种方式可以获得更准确的颜色,更加锐利清晰的画面。

    [​IMG]

    看起来很棒了,超采就没有什么问题了嘛?

    有。

    由于超采需要计算,而计算是需要一定的时间,就会导致果冻效应更加明显。

    [​IMG]

    你在车上拍的电线杆子,也就会更歪一点了。

    [​IMG]
    注:
    即使具有超采功能的相机,不是所有的视频规格都有超采,不同的分辨率和帧率下的设定会不同。
    比如索尼的大部分相机,4k 视频是从 6K 分辨率超采而来,但是 1080P 的规格不是;
    超采不一定会用到整个传感器,即使是超采,也会有画面裁切(但是这个比例通常很小),只要采集的像素比最终输出的像素多,就可以称之为超采。​


    为什么是 23.98?关于帧率

    戈达尔说:

    电影是每秒 24 格的真理。​

    因为视觉暂留,一秒 24 帧的画面,看起来流畅而且自然。

    为了拍摄电影感的视频,你把相机的帧率调整为 24 帧,然后兴冲冲的拍了一段视频,但是当你把视频导入到电脑上,右键属性的时候,或者把素材放到剪辑软件中,会发现,视频的帧率是 23.98。

    [​IMG]

    说好的 24p,怎么还差我 0.02,剪辑个视频都有中间商赚差价吗?

    实际上,23.98 也是个近似值,准确的数值应该是 23.976,为什么是这么一个奇葩的数字? 鲁(niu)迅(dun)曾经说过——

    一切看起来不合理的设定背后,都是历史遗留问题。​
    [​IMG]

    美国的电源频率是 60Hz,所以当年电视诞生后,电视的场频也是 60Hz。

    当时的电视采用的是隔行扫描,也就是一秒钟需要记录 30 张画面,也就是 30fps。

    但是后来彩色电视诞生,需要传输和记录色度信息,彩色副载波与亮度信号和音频载波之间的相互干扰。

    [​IMG]

    工程师为了解决这个问题,把频率下降千分之一,场频变为 59.94,同理,帧率就是 59.94✖️1/2=29.97。

    电影的帧率也下降千分之一,24/1.001=23.976,看,这个神奇的数字出现了。

    更多详细内容,可以参考https://zhuanlan.zhihu.com/p/66319869这篇文章。​

    当人们想用电视看电影的时候,问题就出现了,电视是 29.97,电影是 23.976,这帧率不一样,还怎么看?

    [​IMG]

    也就是说电影画面每四帧要塞到电视的五帧里,怎么塞?

    于是 就有了 3:2pulldown 的技术。

    [​IMG]

    还记得之前说的隔行扫描吗?

    每个画面经过隔行之后,会产生两个画面,然后按照 2323 这样的方式排列,最后就可以把四帧的画面塞到五帧中。

    虽然说已经是数字时代了,但是还有一些地区和在使用模拟信号的电视或者广播,所以 23.976 这样的帧率的兼容性会更好的一点。

    其实还有一个最为主要的原因,目前的消费领域的拍摄设备,基本上都是 23.98(23.976),真 24p 的相机或者录像机,往往比较贵。不过就相差这么一点,看不出来什么的。



    视频的制式根据各国使用的电源频率不同,分为PAL 制和 NTSC 制。

    • 前者有中国和德国为代表,电源频率为 50Hz,视频的帧率就是 25P,50P 或者 100P;
    • 后者以美国和日本为代表,电源频率为 60Hz,视频的帧率就是 30P,60P 或者 120P。
    [​IMG]

    这就是有的小朋友经常会问到的一个问题,为什么我的相机宣传可以拍摄 120 帧的视频,为什么菜单设置里只有 100P,切换一下制式就好了。

    这是必须得吐槽一下,索尼的相机,切换个制式还得格式化,搞不懂为什么会有这么奇葩的设定。​

    有小朋友又要问了,那我使用 N 制还是 P 制?

    其实现在的视频大多是网络使用,不论是 N 制还是 P 制,关系不大,选哪个都行,你开心就好,如果你有电视或者广播播放的需求,那还是选择对应的国家,以免后期的麻烦。

    如果你有多个设备,建议还是将拍摄制式统一。

    另外,还有一点得注意,如果你发现拍摄的场景有照明灯光,画面中出现闪烁的情况,建议还是调节成当地的制式,帧率和电源频率匹配时,就可以解决这个问题。

    我们经常说道的慢动作拍摄,其实是一秒钟拍摄更多的画面,比如 120 帧,然后播放的时候按照正常的帧率播放(24 帧),这样本来 1s 的画面,需要 5 秒的时间播放,自然就慢了。

    这个过程也就是我们所说的升格。



    既然有升格,那么就有降格,相反的,一秒钟记录更少的画面,然后以正常的速度播放,就会有视频加快的感觉,最常见的降格,其实是延时摄影。

    但是更高的帧率和分辨率会导致更大的数据量,在很多基础的相机上,高帧率和高分辨是不可兼得的,需要作出取舍。

    这也是为什么目前大家对 4k/60 这个参数情有独钟的原因,在画质和帧率上达到了一个不错的平衡。



    为什么我的 4K 这么差 ,码率

    一个显而易见的例子,手机拍摄的 4k 画面,有时候还不如相机拍摄的 1080P。

    按理说,4k 的画面要比 1080P 好多很多啊,为什么?

    决定画质的,除了分斌率,还有码率。

    这也就是一些国内的视频网站,所谓的超高清的视频的画面看起来并不那么高清,除了分辨率虚标之外(720P 就是超清,1080P 就是蓝光,那 4K 不得起飞了?)

    [​IMG]

    视频的码率也惨不忍睹(大多数的视频码率在 2M-4M 之间)。

    [​IMG]
    B 站的码率其实都算良心的了。​


    所谓码率,就是一秒钟记录的数据量,数据量越多,画质越好。码率决定了你文件的大小。

    通常手机这种设备的码率厂家已经给你写死了,没有办法调节。

    问题来了。 对于相机这类设备来说,是否需要将码率设为最高。

    答案也不一定,一切都要按需出发。 因为在一定的分辨率下,不断提高码率所带来的画面提升已经肉眼不可见了,文件体积却在不断地增大。

    一个比较实用的做法是,使用你手头的机器,使用不同的码率拍摄一段看起来复杂的画面。 然后正常的进行后期调色,找到一个你分辨不出来画面差异的码率,然后用它就行了。

    H.265 MP4.编码与封装找一个盒子装起来:封装格式

    先来说格式封装,这个是大家最常见到的东西,也就是你文件的后缀名。

    常见的格式,有 MP4,和 MOV,FLV 等。

    本质上你可以把格式理解为一个容器,可以装进去所有关于视频内容,除了帧画面,还有音频甚至字幕。 比如你在网上下载电影来看,很多都是 MKV 这种格式,可以塞进去多轨音频甚至多轨字幕,这也就是为什么有的电影能够切换声道的原因。


    存储的方式,编码

    下来说说编码,编码就是记录画面的方式。

    有两种记录的方式,一个是帧内编码,比如苹果的 PRORES。 这种很好理解,就是直接记录每一帧画面,后期电脑直接按顺序播放这些画面就 ok 了。 优点就是几乎不需要什么算力,播放起来很流畅,缺点就是会占用更大的空间。

    [​IMG]

    这也就是为什么同样的配置的电脑,往往使用 Final cut Pro 剪辑要比 Adobe Primier 流畅很多的原因,正是因为 Final Cut Pro 使用 PRORES 的编码方式,但本质上,这是一种『以空间换速度』的做法。

    很多小伙伴们用 Final Cut 剪视频,剪到一半,突然发现硬盘空间没了,就是这个原因。

    不过可以在剪辑完成后删除这类优化代理渲染文件,来节省空间,不过如果你有大量的素材,那建议还是搞个外置的大容量 SSD 或者直接连接 Nas 剪辑,体验会更好。

    PRORES 是一种中间编码,仅用于中间的视频编辑过程,也就是说,最后视频输出还得靠 H.264。

    H.264 是一种帧间编码。

    简单来说,他只记录每帧之间的变化值,然后解码器根据变化来『算出』中间的画面。

    [​IMG]

    比如我拍摄一个采访视频,嘉宾基本上坐着不动,背景啥的都没有变化,只记录变化的部分,最大的好处文件体积就会小很多,但是解码播放时,却增加了算力的要求。

    H.264 应用十分广泛,几乎应用在所有的设备和产品上。

    [​IMG]

    他的下一代是 H.265,更好的体积压缩,更好的画质。

    但是我们目前的播放和处理设备对于 H.265 的支持都不太好,也就是说,你直接用当前的电脑剪辑 H265 编码的视频,会卡的惨不忍睹。

    卡了怎么办?除了换电脑之外,买显卡之外,还可以通过剪辑软件生成代理素材来剪辑。

    [​IMG]

    是一种『以时间换性能的做法』。

    10bit 422—色深与色度采样

    10bit 422, 8Bit 420 这是我们在看相机参数时,经常会看到的一串数值。 他们到底说的是啥?

    越深越好,色深

    先说这个 10bit ,色深。 如果你经常使用 Photoshop,或者一些设计软件。会经常看到#FFB6C1 这样的数值,他们称之为色值。

    [​IMG]

    通常由 6 位十六进制字符代表,红绿蓝 每种颜色占用两位。

    也就是说,每一种颜色有 16*16 种变化,这个数值正好的 2 的 8 次方,所以我们把这种颜色称为 8 位色深,也就是 8bit。

    很容易计算,8bit 色深的颜色一共有 256×256×256=16,777,216 种颜色,也就是我们经常说的 1600 万色。

    虽然看起来也不少了,但是在实际的拍摄体验中,尤其是渐变的场景,后期稍微拉一下,就会遇到色彩断层的问题。

    [​IMG]

    而 10bit,最终色彩总量可以达到 10 亿色,由于颜色增多,色彩的过渡会更加的自然,哪怕最终输出的还是 8bit 的画面,依旧可以获得很不错的画面。



    谁还不是为了省钱啊:色度采样


    为了数字化的记录颜色,人们搞出来了『色彩空间』这样一个模型。

    [​IMG]

    不同的色彩空间有着不同的特点,应用于不同的领域: 我们最为熟悉的 RGB,是一种加法色,应用最为广泛,设备显示,图像处理; CMYK,是一种减法色,通常用印刷行业; RGB 发光屏幕的加色模式,依赖于光线,CMYK 是一种颜色反光的印刷减色模式,依赖于颜料。有所依赖就会有所不足。所以 Lab 模式诞生,理论上,Lab 可以包含所有色彩。

    但是在电视或者数码摄影系统中,我们通常上使用 Y'CBCR 这种色彩模式。

    实际上,Y'CBCR 不是一种绝对色彩空间,而是 YUV 压缩和偏移的版本,但是由于 Y'CBCR 的应用实在是太广泛了,所有大多时候,我们口中所说 YUV 指的就是 Y'CBCR。​
    [​IMG]

    其中:

    Y'代表光的浓度,也就是亮度,而且这个值是非线性的。

    Cb 和 Cr 代表蓝色和红色浓度的偏移量,包含色度和色差信息。

    常见的格式有以下几种,用一个三分比值表示:

    • 4:4:4
    • 4:2:2
    • 4:2:0

    第一个值,区域的宽度,也就是区域的像素数量,通常上为 4;

    第二个值,第一行像素的色度抽样数目;

    第三个值,第二行的色度采样值。

    [​IMG]

    比如我们来看 4:4:4 这种格式,区域的宽度为 4 个像素,第一行抽样的数值为 4,第二行也是 4,也就是所有的信息都被采集到了。这是一种对于色彩细节保留最好的格式。

    同理,4:2:2 和 4:2:0 的取样情况如下。

    [​IMG]

    可以明显看到,4:2:2 损失了 50%的信息,而 4:2:0 几乎损失了 75%的信息。

    即使如此,损失了 50%的 4:2:2 也被视为高品质的专业视频格式,比如索尼家的微单相机,目前应该只有 A7S3 和 A1 支持 4:2:2 的视频格式,其他的主流机型,目前还停留在 4:2:0 上。

    注:
    在比较图像质量,比值才是重点,你可以把 4:4:4 称为 1:1:1,但是习惯和约定俗成的情况下,取样的总样本范围还是为 4,这也就是为什么没人 16:10 称为 8:5 的原因,无他,习惯耳。​


    可能有小伙伴要问了,为什么要采样呢,搞的这么复杂?

    鲁(niu)迅(dun)又曾经说过——

    人们的很多选择,多半是为了效率(省钱)。​
    [​IMG]

    要使用 4:4:4 不仅是对于拍摄器材的性能要求极高,存储上,也吃不消。

    还有一个最主要的原因是,眼睛对于微调的色度不太敏感。

    也就是说,Cr 和 Cb 可以用一点点的样本就能进行编码,而且可见的质量损失微乎其微,却节省了大量的数据量。

    这也就是你即使用保留了 25%的色彩信息的 4:2:0 去拍,实际的观感也没有那么差的原因。

    但是你如果要进行复杂的后期,甚至抠像特效的时候,你就会发现,4:2:0 的画面用起来就有点捉襟见肘了,还是得上 4:2:2。

    RAW,Log,Rec709,HLG 又是什么RAW,(生)肉

    玩摄影的朋友,想必对于 RAW 很熟悉了,记录了传感器采集到的所有的光线的信息。 严格来说,RAW 并不是一种图片格式,而是一个数据包。

    拍的 RAW 格式的视频,与图片类似(本质上视频就是一张张图片拼接起来嘛)。

    拥有的最大的后期空间,但是能够拍摄 RAW 视频的器材不多,都是比较专业的摄影机,比如 RED,ARRI 之流,都十分的昂贵,但是有一个例外,就是适马 fp,机身小巧,也不算贵,能够拍摄 cinemaDNG 序列(也算是一种 RAW 视频了)。

    其实所有的拍摄设备,都有 RAW 的这个过程,为什么不把 RAW 数据直接给你呢?

    RAW 是个数据量杀手,你刚塞进去一张 128G 的 SD 卡,还没有一分钟呢,嚯,卡满了。而是对于后期处理也是一个大难题,流程繁琐,并不适合大多数据消费者使用。

    Log,指数观察世界

    人眼能看清楚明亮的天空,也能辨别阴影的细节。 这就说明人眼对于光线的感知并不是线性的,这也就是中性灰是 18%,而不是 50%的原因。

    为了尽量的拟合人眼识光线明暗的特点,人们找到了 log 这个函数来模拟。

    [​IMG]

    为的就是记录更多的明暗数据,换句话说,就是把暗部拉上去,把亮度压下来(是不是像极了后期照片时减高光,加阴影的操作?)来让画面有用更高的动态范围。

    不同的厂家有着不同的 Log 曲线,比如佳能的是 C-log,索尼家的是 S-log,富士家是 F-log,松下的是 V-log(注意不是拍的吃饭旅游的那个玩意)。

    即使是同一家厂商,Log 曲线也有不同的版本,比如 C-log 就有 1,2,3 的区别,在暗部,亮部的捕获表现上都会有细微的差异。

    但是直接观看 Log 画面,会显得十分的『灰』。

    如何观看正确的色彩呢?这时候 LUT 就登场了。 基本上所有的厂家都会提供自己 log 模式的还原 Lut,可以很轻易的地官网找到。

    [​IMG]

    日常使用 Log 拍摄时,需要注意以下两个问题:

    起跳 ISO,比如,索尼的 Slog3 的起跳 ISO 是 800,如果在打白天,也想使用大光圈拍摄,那么减光镜就是不可或缺的配件;

    对于精准曝光要求极高,所以你得上监视器,或者使用直方图,斑马纹来确认你的曝光是否准确,相信我,大多数新手拍 Log 会在精准曝光上载无数个跟头,一个比较实用的曝光的经验是,在保留画面信息的基础上,尽量向右曝光。

    注:
    有些相机厂商虽然也支持 RAW 外录和 N-log,但是需要你『花钱』升级固件,比如尼康 Z6/7​

    Lut:是滤镜吗

    Lut,即为 look up table,直译就是颜色查找表,输入一个值,然后换成另外一个值,从而达到调色的目的。 是不是看起来跟滤镜的作用一样,但实际上原理是相当不同的。 你可以简单理解为,LUT 是颜色替换,而滤镜是计算。

    当然,你也可以在网上找到无数的 Lut,有兴趣的话,也可以自己做一个。

    HLG

    随着技术的进步,HDR 设备开始普及,包括你手头的旗舰手机几乎都开始支持 HDR 了。

    关于更多关于 HDR 的介绍,可以参考我之见的回答。​

    HDR 是什么?有哪些具体介绍?


    相机们也可以加入了 HDR 视频的拍摄能力。

    这里就不得不提 HLG 标准了,HLG 是 BBC 和 NHK 联合开发 HDR 标准,提供了编码宽动态范围(HDR)的能力,也保留了标准动态范围(SDR)的支持,使得他的兼容性很好。

    而且 HLG 标准并不需要你掏专利费,所以很多厂商也纷纷投入了 HLG 怀抱,比如索尼,松下,甚至大疆的大多数设备,都可以拍摄 HLG 视频。由于采用的是相同的标准,即使是不同厂家的设备拍摄的 HLG 视频,后期在颜色匹配上也比较完美。

    p.s
    iPhone12 拍摄的 HDR 视频,标准为杜比视界。实际上 iPhone12 拍摄的也是 HLG 视频,只不过加了一层杜比视界的元数据层。​


    相对于 Log,HLG 还有以下两个特点:

    画面没有那么灰,颜色显示较为正常,甚至不用处理也可以直出使用; 没有起跳 ISO 的限制,使用起来比较方便。

    HLG 同 Log 一样,也有 HLG1,HLG2,HLG3 的区别,在暗部和亮部的保留和取舍上各有倾向。要依据你实际拍摄的画面而定。有空了可以深入探讨这个问题。

    对于日常使用或者新手来讲,HLG 明显更加友好。


    Rec.709,色彩标准


    这是一个 1990 年发布的统一色彩标准,色域和 sRGB 相同。

    这个色域并不大,多数设备拍摄的素材都可以轻松超过,但是一些显示设备或者产品服务,就只支持这个标准,你大于这个标准拍摄的画面,实际播放是没有任何意义的。

    也就是说,为了能在电视上,普通显示器上正确的显示色彩,就得按照 Rec.709 的规定来。

    但是随着 HDR 设备的普及,就连 B 站也开始支持 HDR 了,Rec.709 这个标准貌似不太够用了,于是新的标准也诞生了,BT2020,支持 4k,8K,最高 120 帧的速率,以及 12 位的深度。

    [​IMG]

    所以你在拍摄 Log 或者 HLG 视频时,可以将色域选择为 bt2020,这样可以在 HDR 显示上获得更好的观影体验。

    快门角度还是速度


    照相机除了拍照也可以拍视频,电影机也可以拍照,那他们的区别到底是什么? 其实最明显的一个操作逻辑上的区别,就是快门。

    关于快门的前世今生,可以参考我之前的这篇文章: https://www.zhihu.com/question/36033197/answer/1693671720

    如果你用过 Bmpcc,之类的摄影机,在快门参数的调节上,使用的是快门角度。



    这个概念其实来自于电影拍摄,电影为 24 帧每秒,那每一帧的快门速度就为 1/24s。但是人们发现这个速度的动态模糊太大了,导致视频看起来一点都不清晰。 那么如何调节胶片拍摄的时候的快门速度呢?加上一个旋转快门就好了。

    比如这个 180°的快门装置,就能遮挡一半的光线,让快门速度来到 1/48s。

    [​IMG]

    当然也有 45°的快门和 270°的快门,做法也比较简单,调节快门板的角度就好了。

    人们发现,180°的时候,在画面锐度和动态模糊间达到了一个完美的平衡,所以,以前的电影机和摄影机基本上都是以 180°的快门角度来拍摄视频。

    在摄影机上,设置为 180 度的快门角度就好了,但是对于普通相机来说,快门速度要按照二倍帧率的倒数来设定:

    • 24 帧,快门速度为 1/50s;
    • 60 帧,快门速度为 1/120s;
    • 120 帧,快门速度为 1/250s

    来达到类似的效果。

    不过当前的相机基本上都提供能自定义拍摄参数的保存,方便你快速切换。


    不可忽视的限制

    使用相机或者单反拍视频时,总是存在各种各样的限制。

    这个限制主要是来自于数据量,拍摄高分辨率高帧率的视频,会产生很大热量,散热如果不给力的话,相机就会做录制时长的限制,比如很多相机只能连续录制 30 分钟的视频,要么就直接给你来一个过热警告。

    另一个是高分辨率高帧率的视频对存储卡的写入速度也提出了要求,而高速卡的价格往往也不便宜。

    而且数据量的增大,会增加相机的运算负担,一些功能在高分辨或者高帧率下就被禁用,比如:

    大部分相机在 1080P/120 帧的模式下,无法启用人脸 / 人眼对焦,只能使用最为传统的反差对焦;

    代理视频的录制功能,只能后期通过电脑生成代理视频。

    是时候按下录制键了

    无论你使用怎样的设备,无论这个设备的性能如何,最重要的是出去拍。 以上讲的所有知识,都只是为了让你获得一个更加好看的画面,让你的画面更加锐利,减少噪点,但是画面永远不是全部,他只是锦上添花的部分。

    更加重要的是内容和故事。 如何讲好一个故事,才是你应该不断思考的问题。


    你还对那些视频制作的知识感兴趣,或者有哪些你认为不对的地方,可以在评论区里边提出来,我们一起讨论。



    以上。

    2021 相机推荐与选购:这款相机该不该买?看看硬核摄影科普

    相关阅读:

    哪位大神可以详细讲解下关于相机 ISO 方面的介绍?

    为什么相机光圈 F 值越大,实际光圈越小,谁发明的,有什么来由吗?

    李明殊:李明殊的摄影类回答文章导航



    阅读原文
     
正在加载...