22 混合器(复用器)

复用器是ffmpeg中负责写入多媒体流到文件中分区的可配置组件。

默认编译时自动允许被支持的混合器。你可以使用--list-muxers作为参数运行编译配置脚本以了解当前支持的所有混合器。

编译也可以同--disable-muxers禁用所有的混合器,或者通过--enable-muxer=MUXER / --disable-muxer=MUXER打开/关闭指定的混合器

在ff*工具集中附加-formats也可以了解到混合器列表。

下面将详细描述有效的混合器直播:

aiff

Audio Interchange File Format(aif)密码器

aiff选项

接受下面选项:

  • write_id3v2

    如果设为1则允许ID3v2标签,否则0禁止(默认)

  • id3v2_version

    选择id3v2版本

crc值

CRC (Cyclic Redundancy Check)测试格式

这个混合器通过所有输入的音频和视频帧计算(混合)Adler-32 CRC。默认音频会被转换为16bit符号原始音频,视频被解压为原始视频再进行这个计算。

输出会有一个形如CRC=0xCRC的一行,其中CRC的值是由16进制以0补足的8位数字,它由所有帧解码计算的。

参考[framecrc] 混合器

crc值计算例子

计算一个crc放置到out.crc:

  1. ffmpeg -i INPUT -f crc out.crc

计算crc并直接输出到标准输出设备:

  1. ffmpeg -i INPUT -f crc -

还可以选择对特定音频、视频编码数据计算crc,例如计算输入文件音频转换成PCM 8bit无符号数据格式,视频转换成MPEG-2 的CRC:

  1. ffmpeg -i INPUT -c:a pcm_u8 -c:v mpeg2video -f crc -

framecrc

每个数据包的CRC(循环冗余校验)测试格式。

它将对每个数据包做Adler-32 CRC计算并输出。默认音频被转换成16bit符号原始音频,视频被转换成原始视频再进行CRC计算。

输出是针对每个音频/视频数据包都有一行如下格式的信息:

  1. stream_index, packet_dts, packet_pts, packet_duration, packet_size, 0xCRC

其中CRC值是16进制,以0补足的8位数字值。

framecrc例子

对INPUT输入作每数据包CRC计算,输出到out.crc:

  1. ffmpeg -i INPUT -f framecrc out.crc

直接把计算结果输出到标准输出设备:

  1. ffmpeg -i INPUT -f framecrc -

通过ffmpeg,还可以选择输出特定音频和视频格式对应的帧CRC值,例如音频转换成PCM8bit无符号编码,视频为mpeg2计算帧CRC校验值:

  1. ffmpeg -i INPUT -c:a pcm_u8 -c:v mpeg2video -f framecrc -

参看[crc]混合器

framemd5

每个数据包MD5校验值

计算输出每个数据包MD5校验值,默认音频被转换成16bit符号原始音频,视频被转换成原始视频再进行MD5计算

每个数据包计算对应输出一行如下格式数据:

  1. stream_index, packet_dts, packet_pts, packet_duration, packet_size, MD5

其中MD5就是计算出的MD5 哈希值

framemd5例子

计算INPUT输入的帧md5值,其中音频被转换成16bit符号原始音频数据,视频被转换成原始视频数据,输出到out.md5

  1. ffmpeg -i INPUT -f framemd5 out.md5

直接输出到标准输出设备:

  1. ffmpeg -i INPUT -f framemd5 -

参考[md5]混合器部分

gif

Animated GIF(动画GIF)混合器

它接受如下选项:

  • loop

    设置循环次数,-1表示不循环,0表示一直循环(默认值)

  • final_delay

    强制最后一帧延迟 (以厘秒为单位——centiseconds) ,默认为1,这是一个对于循环gif的特殊设定,它为最后一帧播放到新开始播放设置一个特殊的值,比如你可能希望有一个停顿的感觉。

    例如像循环10次,每次重新播放前停顿5秒,则:

    ffmpeg -i INPUT -loop 10 -final_delay 500 out.gif

注意1如果你想提取帧到指定的GIF文件序列,你可能需要image2混合器

  1. ffmpeg -i INPUT -c:v gif -f image2 "out%d.gif"

注意2Gif格式有一个非常小的时基:两帧之间的间隔不可小于百分之一秒。

hls

Apple HTTP 直播流混合器,它根据HTTP直播流(HLS)规范进行MPEG-TS分割

它创建一个播放列表文件,包括1个或者多个分段文件,输出文件为指定的播放列表文件。

默认混合器对每段创建一个文件,这些文件有相同的基于播放列表的文件名,段索引数和.tx扩展名

例如,转一个输入文件:

  1. ffmpeg -i in.nut out.m3u8

这将根据产品播放列表文件out.m3u8产生分段文件:out0.ts out1.ts out2.ts 等等

参考[segment]混合器,它提供了更多可用于HTL分割的常规处理和修正介绍

hls选项

这个混合器支持如下选项

  • hls_time seconds

    设置段长度,单位秒,默认为2

  • hls_list_size size

    设置播放列表中字段最大数。如果为0,则包含所有分段。默认为5

  • hls_ts_options options_list

    设置输出格式选项,使用’-‘分割的key=value参数对,如果包括特殊字符需要被转义处理

  • hls_wrap wrap

    一种循环机制,设置数量后以0-设定数形成一个环依次循环使用作为输出段号.为0表示不限制, 默认为0

    选项可避免磁盘被多个段文件填满,并限制写入磁盘的最大文件数

  • start_number number

    设置播放列表中最先播放的索引号,默认 0.

  • hls_allow_cache allowcache

    设置客户端是否:可能(1) 或 必须不 (0) 缓冲媒体段

  • hls_base_url baseurl

    对每个列表中的记录添加一个基本的URL,一般用于采用相对路径描述的列表

    注意列表序号必须是每段独特的,不可分割的文件名和序列号,序列号是可循环的,则可能会引起困惑,例如hls_wrap选项设置了

  • hls_segment_filename filename

    设置段文件名。除非hls_flags single_file被设置,设置这个文件名可以用于段命名格式化(依据段序数):

    ffmpeg in.nut -hls_segment_filename ‘file%03d.ts’ out.m3u8

    这个例子中,段文件会输出为: file000.ts, file001.ts, file002.ts, 等等,而不是默认的out0.ts out1.ts out2.ts 等等

  • hls_key_info_file key_info_file

    使用key_info_file对段进行加密。key_info_file 中的第一行指定一个URI,是写入播放列表的,这个key URL被用于存放播放期访问的加密密钥。第二行指定用于加密过程中的key文件路径。key文件作为一个单一排列的16进制数组以二进制格式数据读入。可选的第三行则指定初始化向量(IV,一个十六进制字符串用于代替部分序列(默认)进行加密)。改变key_info_file将导致段加密采用新的key/IV 以及播放列表中任意条目采用新的 URI/IV

    key_info_file 格式:

    key URI
    key file path
    IV (optional)

    key URIs 例子:

    http://server/file.key
    /path/to/file.key
    file.key

    key文件路径例子:

    file.key
    /path/to/file.key

    IV例子:

    0123456789ABCDEF0123456789ABCDEF

    完整key_info_file 示例:

    http://server/file.key
    /path/to/file.key
    0123456789ABCDEF0123456789ABCDEF

    shell脚本例子:

    1. #!/bin/sh
    2. BASE_URL=${1:-'.'}
    3. openssl rand 16 > file.key
    4. echo $BASE_URL/file.key > file.keyinfo
    5. echo file.key >> file.keyinfo
    6. echo $(openssl rand -hex 16) >> file.keyinfo
    7. ffmpeg -f lavfi -re -i testsrc -c:v h264 -hls_flags delete_segments \
    8. -hls_key_info_file file.keyinfo out.m3u8
  • hls_flags single_file

    如果这个标记被设置,则会把所有段存储到一个MPEG-TS文件中,且在播放列表中使用字节范围。 HLS播放列表在版本4中支持这种方法:

    ffmpeg -i in.nut -hls_flags single_file out.m3u8

    这里所有的输出都放置在out.ts中了

  • hls_flags delete_segments

    在播放的段已经过了持续时间后就删除掉对应的文件。

ico

ICO文件混合器

微软ICON(ICO)文件格式有一些限制需要注意:

  • 每个方向不超过256像素
  • 仅BMP和PNG图像可以被存储
  • 如果是BMP图像,必须有如下像素格式:

    bmp位深度 ffmpeg像素格式
    1bit pal8
    4bit pal8
    8bit pal8
    16bit rgb555le
    24bit bgr24
    32bit bgra

  • 如果是BMP图像,必须有 BITMAPINFOHEADER DIB 头
  • 如果是PNG图像,必须是rgba像素格式

image2

图像文件混合器

它可以把视频帧重新混合为图像文件

输出文件按模板指定,可以设置成为一个序列数文件。模板中的”%d” 或者 “%0Nd”用于指定序列,其中”%0Nd”表示N位数字,以0补齐。如果文件名中有“%”需要以“%%”转义的形式指定。

如果模板中包含了”%d”或者”%0Nd”则文件名从1计数输出序列

模板可以包含一个后缀用来自动确定图像文件格式

例如模板”img-%03d.bmp”将使得输出为img-001.bmp, img-002.bmp, …,img-010.bm 等等。而模板”img%%-%d.jpg”则生成img%-1.jpg, img%-2.jpg, …, img%-10.jpg,等等

image2例子

把输入视频图像帧生成为img-001.jpeg, img-002.jpeg, …,

  1. ffmpeg -i in.avi -vsync 1 -r 1 -f image2 'img-%03d.jpeg'

注意ffmpeg如果没有通过-f指定输出文件格式,image2混合器将自动被选择,所以前面的等效于

  1. ffmpeg -i in.avi -vsync 1 -r 1 'img-%03d.jpeg'

如果strfime选项允许你导出按时间/日期信息命名的文件 “%Y-%m-%d_%H-%M-%S” 模板,在strftime()的文档中了解相关语法

例如:

  1. ffmpeg -f v4l2 -r 1 -i /dev/video0 -f image2 -strftime 1 "%Y-%m-%d_%H-%M-%S.jpg"

image2选项

  • start_number

    设置开始序列的数字,默认为0

  • update

    如果设置为1,文件名直接作为唯一文件名,而没有模板。即相应的文件被不断改写为新的图像。默认为0

  • strftime

    如果设置为1,可以让输出文件支持strftime()提供的日期格式,默认为0

这个图像混合器支持.Y.U.V图像文件格式,这种格式将根据每帧输出3个文件,对于每个YUV420P压缩,对于读或者写这种文件格式,只需要指定.Y文件即可,混合器会自动打开需要的.U和.V文件

matroska

Matroska内容混合器

混合输出matroska和webm内容

matroska元数据

混合器需要指定一些必要元数据

  • title

    设置单个轨道的标题名
    language

    以Matroska语言字段指定语言

    语言可是3个字符(依ISO-639-2 (ISO 639-2/B)) (例如 “fre” 表示法语——French),或者语言混合国家/地区代码,(like “fre-ca” 表示加拿大法语——Canadian French).
    stereo_mode

    设置3D视频两个视图在单个视频轨道播放时的布局规则

    允许如下值:

    ‘mono’

    1. video不是双路的

    ‘left_right’

    1. 两路分别一端,即左眼看左视图,右眼看右视图

    ‘bottom_top’

    1. 上下布局,左眼看下视图,右眼看上视图

    ‘top_bottom’

    1. 与上一个相反,左眼看上,右眼看下

    ‘checkerboard_rl’

    1. 根据序列确认,左眼看第一个

    ‘checkerboard_lr’

    1. 根据序列确认,右眼看第一个

    ‘row_interleaved_rl’

    1. 根据行序列确认,右眼看第一行

    ‘row_interleaved_lr’

    1. 根据行序列确认,左眼看第一行,

    ‘col_interleaved_rl’

    1. 列序列确认,右眼第一列

    ‘col_interleaved_lr’

    1. 列序列确认,左眼第一列

    ‘anaglyph_cyan_red’

    1. 都在一副图中,通过颜色滤镜过滤red-cyan filters

    ‘right_left’

    1. 右眼看左图

    ‘anaglyph_green_magenta’

    1. 混合图,通过green-magenta滤镜看

    ‘block_lr’

    1. 间隔块,左眼先看

    ‘block_rl’

    1. 间隔块,右眼先看

例如,对于3DWebM影片,可以由下面命令建立:

  1. ffmpeg -i sample_left_right_clip.mpg -an -c:v libvpx -metadata stereo_mode=left_right -y stereo_clip.webm

matroska选项

支持如下选项:

  • reserve_index_space

    默认对于定位索引(可以被Matoska调用)将写到文件的末尾部分,因为一开始不知道需要多少空间放置索引。但这将导致流式播放时定位特别慢(因为不知道定位索引),这个选项将把索引放置到文件的开始。

    如果这个选项设置为非0值,混合器将预先在头部放置一个用于写入索引的空间,但如果空间无效则将混合失败。一个较安全的值是大约1小时50KB。

    注意这些寻址线索仅当输出文件是可寻址且选项设置了有效值时写入。

md5

MD5检测格式

将计算输出一个MD5值,对于所有的音视频帧。默认音频帧转换为有符号16bit原始音频,视频转换为原始视频来计算。

输出是一个MD5=MD5 格式,其中MD5就是计算出的值。

例如:

  1. ffmpeg -i INPUT -f md5 out.md5

也可以输出到标准输出设备

  1. ffmpeg -i INPUT -f md5 -

参考[framemd5]混合器

mov,mp4,ismv

MOV/MP4/ISMV (Smooth Streaming——平滑流)混合器

MOV/MP4/ISMV混合器支持零碎文件(指数据的组织形式)。通常MOV/MP4文件把所有的元数据存储在文件的一个位置中(这是不零碎的数据组织形式,通常在末尾,也可以移动到起始以更好的支持随机定位播放,比如使用qt-faststart工具,并添加movflags快速启动标志)。这样一个零碎文件包含了很多片段,其中数据包和元数据是存储在一起的。这样零碎数据组织的文件在解码到写中断(普通的MOV/MP4则不能解码了,因为可能缺少元数据)时也能正常解码,而且这种方式要求更少的内存就可以写很大的文件(因为普通形式的MOV/MP4需要收集所有的信息才能最终完成元数据集中存储,则这一过程中这些数据一直需要缓存在内存中,直到编码完成,元数据完成存储),这是一个优势。缺点是这种组织数据的格式不太通用(很多程序不支持)

mov,mp4,ismv选项

零碎形式也支持AVOtions,它可以定义如何切分文件到零碎片段中:

  • -moov_size bytes

    在文件开头设置预留空间用于存储moov原子数据(一些元数据),而不是把这些数据存储在文件尾部。如果预设的空间不够,将导致混合失败

  • -movflags frag_keyframe

    在每个关键帧都开始一个新的碎片

  • -frag_duration duration

    每duration microseconds时长就创建一个碎片

  • -frag_size size

    碎片按size字节(这是一个上限)进行划分

  • -movflags frag_custom

    允许调用者手动切片,通过调用av_write_frame(ctx, NULL) 在当前位置写入一个片段(它仅能与libavformat库集成,在ffmpeg中不支持)

  • -min_frag_duration duration

    如果少于duration microseconds就不单独创建片段

    如果指定了多个条件,当一个条件满足是,片段被切分出来。例外的是-min_frag_duration, 它在任何其它条件满足时都使用来进行判断

此外,输出还可以通过一些其他选项进行调整:

  • -movflags empty_moov

    写入一个空的moov atom到文件开始,而没有任何样品描述。一般来说,一个mdat/moov在普通MOV/MP4文件开始时写入,只包括了很少的内容,设置了这个选项将没有初始的moov atom,而仅是一个描述了轨道,但没有持续时间的moov atom。

    这个选项在ismv文件中隐式设定

  • -movflags separate_moof

    为每个轨道写独立的moof(电影片段)atom。通常,追踪所有分组是写在一个moof atom中,而通过这个选项,混合器将对每个轨道单独写moof/MDAT,以方便轨道间隔离

    这个选项在ismv文件中隐式设定

  • -movflags faststart

    再次移动index(moov atom)到文件开始位置。这个选项可以与其他选项一起工作,除了碎片化输出模式。默认情况是不允许

  • -movflags rtphint

    添加RTP打标轨道到输出文件中

  • -movflags disable_chpl

    禁止Nero章标签(chpl atom)。通常,Nero章标签和QuickTime章标签都被写入到文件中,通过这个选项,可以强制只输出QuickTime标签。Nero章标签可能导致文件在某些程序处理标签时失败,例如 mp3Tag 2.61a 和 iTunes 11.3,可能其他版本也会受到影响

  • -movflags omit_tfhd_offset

    在thfd atom(原子数据)中不写入任何绝对base_data_offset。这将避免片段文件/流中的绝对定位绑定

  • -movflags default_base_moof

    类似omit_tfhd_offset,这个标志避免在tfhd atom中写绝对base_data_offset,而是用新的default-base-is-moof,这个标志定义在14496-12:2012 。它会使片段在某些情况下更容易被解析(避免通过在前一轨道片段基础上隐式进行追踪计算碎片位置)

mov,mp4,ismv例子

平滑流内容可以通过IIS进行发布,例如:

  1. ffmpeg -re <normal input/transcoding options> -movflags isml+frag_keyframe -f ismv http://server/publishingpoint.isml/Streams(Encoder1)

mp3

MP3混合器通过下面选项写原始的MP3流:

  • 一个ID3v2元数据头会写在开始处(默认),支持版本2.3和2.4, id3v2_version私有选项可以使用(3或4),如果设置id3v2_version为0表示禁用ID3v2头

    混合器还支持附加图片(APIC帧)到ID3v2头。这个图片以单一分组视频流的形式提供给混合器。可以有任意数量的这种流,每个都是单独的APIC帧。对于APIC帧的描述和图片类型要求,以及流元数据标题及内容提交者 等参考http://id3.org/id3v2.4.0-frames

    注意APIC帧必须写在开始的地方,所以混合器会缓冲音频帧直到所有的图片已经获取完成。因此建议尽快提供图片,以避免过度缓冲。

  • Xing/LAME帧正确放置在ID3v2头之后(如果提供)。它也是默认的,但仅仅在输出是可定位情况下写入。write_xing私有选项可以用来禁用它。这些帧中包括的变量信息通常用于解码器,例如音频持续时间或者编码延迟

  • 一个遗留的ID3v1标签放置在文件的末尾(默认禁止),它可以通过write_id3v1私有选项来启用,但其意义非常有限,所以不建议采用

一些例子:

  • 写一个mp3,有ID3v2.3 头和ID3v1的末尾标签

    ffmpeg -i INPUT -id3v2_version 3 -write_id3v1 1 out.mp3

  • 通过map附加图片到音频:

    ffmpeg -i input.mp3 -i cover.png -c copy -map 0 -map 1 -metadata:s:v title=”Album cover” -metadata:s:v comment=”Cover (Front)” out.mp3

  • 写入一个”干净”的MP3,而没有额外特性

    ffmpeg -i input.wav -write_xing 0 -id3v2_version 0 out.mp3

mpegts

MPEG传输流混合器

这个混合器声明在 ISO 13818-1 和ETSI EN 300 468的部分内容中.

对于通用的元数据设置service_providerservice_name,如果没有特别指明,则默认service_provider为”FFmpeg”,service_name为”Service01”

mpegts 选项

mpegts混合器选项有:

  • -mpegts_original_network_id number

    设置original_network_id (默认0x0001). 在DVB是一个唯一的网络标识,它用于标识特殊的服务(通过Original_Network_ID和Transport_Stream_ID)

  • -mpegts_transport_stream_id number

    设置transport_stream_id (默认0x0001).在DVB是一个传输的标识

  • -mpegts_service_id number

    设置service_id (默认0x0001),在DVB作为程序标识 DVB.

  • -mpegts_service_type number

    设置程序service_type (默认digital_tv), 参考下面预设值

  • -mpegts_pmt_start_pid number

    对PMT设置第一个PID (默认 0x1000,最大0x1f00).

  • -mpegts_start_pid number

    对数据包设置第一个PID(默认0x0100,最大0x0f00).

  • -mpegts_m2ts_mode number

    如果设置为1则允许m2ts模式,默认为-1,表示禁止 value is -1 which disables m2ts mode.

  • -muxrate number

    设置内容为混合码率(默认VBR)

  • -pcr_period numer

    覆盖默认的PCR重传时间(默认20ms),如果muxrate被设置将会被忽略

  • -pes_payload_size number

    以单位字节设置最小PES播放加载包大小

  • -mpegts_flags flags

    设置一个标志(后面介绍).

  • -mpegts_copyts number

    如果设置为1则保留原始时间戳。默认为-1,将从0开始更新时间戳

  • -tables_version number

    设置PAT, PMT 和SDT版本 (默认0,范围0-31) 。这个选项允许更新流结构, 以便用户可以检测到更改。比如在打开AVFormatContext (API使用时)或重启FFMPEG来周期性改变tables_version时:

    ffmpeg -i source1.ts -codec copy -f mpegts -tables_version 0 udp://1.1.1.1:1111
    ffmpeg -i source2.ts -codec copy -f mpegts -tables_version 1 udp://1.1.1.1:1111

    ffmpeg -i source3.ts -codec copy -f mpegts -tables_version 31 udp://1.1.1.1:1111
    ffmpeg -i source1.ts -codec copy -f mpegts -tables_version 0 udp://1.1.1.1:1111
    ffmpeg -i source2.ts -codec copy -f mpegts -tables_version 1 udp://1.1.1.1:1111

选项mpegts_service_type接受如下值:

  • hex_value

    一个16进制值,范围0x01到0xff,定义在 ETSI 300 468.

  • digital_tv

    数字TV服务

  • digital_radio

    数字广播服务

  • teletext

    图文电视服务

  • advanced_codec_digital_radio

    高级编码数字广播服务

  • mpeg2_digital_hdtv

    MPEG2数字HDTV服务

  • advanced_codec_digital_sdtv

    高级编码数字SDTV服务

  • advanced_codec_digital_hdtv

    高级编码数字HDTV服务

选项mpegts_flags可以设置如下标志:

  • resend_headers

    写下一个包前反弹PAT/PMT

  • latm

    对AAC编码使用LATM打包

mpegts例子

  1. ffmpeg -i file.mpg -c copy \
  2. -mpegts_original_network_id 0x1122 \
  3. -mpegts_transport_stream_id 0x3344 \
  4. -mpegts_service_id 0x5566 \
  5. -mpegts_pmt_start_pid 0x1500 \
  6. -mpegts_start_pid 0x150 \
  7. -metadata service_provider="Some provider" \
  8. -metadata service_name="Some Channel" \
  9. -y out.ts

null

Null混合器

这个混合器将不产生任何输出文件,通常用于测试和基准检测

例如要检测一个解码器,你可以使用:

  1. ffmpeg -benchmark -i INPUT -f null out.null

注意前面的命令行并不读写out.null,仅仅是因为ffmpeg语法要求必须有个输出

等效的,你可以采用:

  1. ffmpeg -benchmark -i INPUT -f null -

nut

  • -syncpoints flags

    利用nut改变同步点:

    • default:默认采用低开销的定位模式。没有不使用同步点的,但可减少开销,只是流是不可定位的。

    • none:一般不建议采用这个选项,因为它导致文件是损坏敏感的(稍微破坏就不能正常解码了),且不可定位。一般同步点开销是很小以至于可以忽略的。注意-write_index 0可用于禁止所有增长的数据表,允许重复使用有效的内存,而没有这些缺点。

    • timestamped:时间戳字段扩展来与时钟同步。

      nonetimestamped还处于试验阶段

  • -write_index bool

    在最后写索引,这是写索引的默认值

    ffmpeg -i INPUT -f_strict experimental -syncpoints none - | processor

ogg

Ogg内容混合器

  • -page_duration duration

    首选页面持续时间(其实是定位点间隔),单位microseconds。混合器将尝试按设定时间创建页面。这允许用户在定位和容器粒度开销间进行平衡。默认1秒。如果设为0, 将填充所有字段,使索引数据很大。在大多数情况下,设为1将使得每个页面1个数据包,且可以有一个很小的定位粒度,但将产生额外的容器开销(文件变大)

  • -serial_offset value

    用于设置流序号的一些值。设置来不同且足够大,可以保证产生的ogg文件可以安全的被锁住

segment, stream_segment, ssegment

基本流分段

混合器将输出流到指定的文件(根据最接近的持续时间分段)。输出文件名模板可以采用类似与[image2]的方式,或者使用strftime模板(如果strftime选项被允许)

stream_segment是用于流式输出格式的混合器变种,例如不需要全局头,并要求诸如MPEG传输流分段输出的情况。ssegmentstream_segment的别名。

每个片段都开始于所选流的关键帧,这是通过reference_stream选项设置的

注意如果你想精确分割视频文件,你需要准确输入按关键帧整数倍对应的预期分割器,或者指定混合器按新片段必须是关键帧开始。

分段混合器对于固定帧率的视频有更好的工作表现

或者它可以生成一个创建段的列表,这需要通过segment_list选项设置,列表的类型由segment_list_type选项指定。在段列表输入一个文件名被默认为相应段文件的基本名称。

参看[hls]混合器,其提供更多关于HLS分段的特定实现

segment, stream_segment, ssegment选项

segment混合器器支持如下选项:

  • reference_stream specifier

    由字符串指定参考流,如果设置为auto将自动选择参考流。否则必须指定一个流(参看 流说明符 章节)作为参考流。默认为auto

  • segment_format format

    覆盖内容自身格式。默认根据文件扩展名检测(猜测)

  • segment_format_options options_list

    使用“:”分隔的key=value列表作为选项参数以一次定义多个选项,其中值如果包含“:”等特殊符号需进行转义

  • segment_list name

    指定生成文件的名字列表。如果不指定将没有列表文件生成。

  • segment_list_flags flags

    设置影响生成段序列的标志

    可以有下面的标志:

    • ‘cache’

      允许缓存(只能用于M3U8列表文件).

    • ‘live’

      允许直播友好文件生成

  • segment_list_type type

    选择列格式Select the listing format.

    flat使用简单的 flat列表单元
    hls 使用类似m3u8的结构

  • segment_list_size size

    当列表文件包含了指定个数段后更新文件,如果为0则列表文件会包含所有的段,默认为0

  • segment_list_entry_prefix prefix

    对每条记录添加一个前导修饰。常用于生成绝对路径。默认没有前导添加

    下面的值被允许:

    • ‘flat’

      flat列表生成段,每行一个段

    • ‘csv, ext’

      按列表生成段,每行一段,每行按如下格式(逗号进行分割),:

      segment_filename,segment_start_time,segment_end_time

      segment_filename是输出文件名字,混合器根据提供的模板产生输出文件名(参考 RFC4180)

      segment_start_timesegment_end_time指定段开始和结束时间,单位秒

      文件列表如果以 “.csv” 或 “.ext”作为扩展名,将自动匹配这个列表格式

      ‘ext’是对不喜欢 ‘csv’的替代

    • ‘ffconcat’

      分析ffconcat文件生成段。 file for the created segments. The resulting file can be read using the FFmpeg concat demuxer.

      列表文件以”.ffcat”或”.ffconcat”作为扩展名时会自动选择这个格式

    • ‘m3u8’

      分析M3U8的文件,版本3, 符合http://tools.ietf.org/id/draft-pantos-http-live-streaming

      如果列表文件有”.m3u8”扩展名将自动选择这个格式

      如果不指定就从文件扩展名中进行猜测

  • segment_time time

    设置段持续时间,这个值必须指定,默认为2,参考segment_times选项.

    注意划分可能不太精确,除非强制到流中关键帧间隔时间。参考下面的例子

  • segment_atclocktime 1|0

    如果设置为”1”,将从00:00开始计时,利用segment_time为间隔划分出多个段

    例如如果segment_time设置为”900”,这个选项将在12:00、12:15, 12:30等时间点创建 文件

    默认为”0”.

  • segment_time_delta delta

    指定一个时间作为段开始时间, 其表示为一个时间规范, 默认为”0”.

    delta被指定,关键帧将开始一个新的段以使PTS满足如下关系:

    PTS >= start_time - time_delta

    这个选项通常用来划分视频内容,其总是在GOP边界划分,它在指定点前找到一个关键帧来划分

    它可以结合ffmpeg的force_key_frames选项,通过force_key_frames可以强制指定一个时间点的是关键帧而不是自动计算。因为四舍五入的原因关键帧时间点可能不是很精确,而可能在设置的时间点之前。对于恒定帧率的视频,在实际值和依force_key_frames设定值间最坏有1/(2*frame_rate)的差值

  • segment_times times

    指定一个划分点的列表。列表是逗号分隔的升序列表,每个是持续时间。也可以参考segment_time选项

  • segment_frames frames

    指定划分视频帧的序号列表。列表以逗号分隔的升序列表

    这个选项指定一个新段开始于参考流关键帧和序列(从0开始),下个值则需要表明下一个段切分点

  • segment_wrap limit

    环形索引限制

  • segment_start_number number

    设置片段开始序号,默认为0

  • strftime 1|0

    定义是否使用strftime功能来产生新段。如果设置了,输出段名需要依模板由strftime生成,默认为0.

  • break_non_keyframes 1|0

    如果设置为允许,将允许段在非关键帧点切分。这将改善一下关键帧间隔不一致的播放,但会产生很多奇怪的问题。默认为0

  • reset_timestamps 1|0

    在每个段都重新开始时间戳。所以每个段都有接近于0的时间戳。这有利于片段的播放,但很多混合器/编码器不支持, 默认为0

  • initial_offset offset

    指定时间戳抵消适用于输出包的时间戳。参数必须是一个时间规范,默认为 0.

segment, stream_segment, ssegment例子

  • 重新混合输入的in.mkv生成out-000.nut, out-001.nut, ……列表,并且把生成文件的列表写入out.list:

    ffmpeg -i in.mkv -codec copy -map 0 -f segment -segment_list out.list out%03d.nut

  • 按输出格式、选项分拆输入:

    ffmpeg -i in.mkv -f segment -segment_time 10 -segment_format_options movflags=+faststart out%03d.mp4

  • 按指定时间点分(由segment_times进行指定)拆输入文件

    ffmpeg -i in.mkv -codec copy -map 0 -f segment -segment_list out.csv -segment_times 1,2,3,5,8,13,21 out%03d.nut

  • 使用force_key_frames选项强制关键点进行切分,还指定了segment_time_delta 来处理计算机进程。时间点不够精确

    ffmpeg -i in.mkv -force_key_frames 1,2,3,5,8,13,21 -codec:v mpeg4 -codec:a pcm_s16le -map 0 \
    -f segment -segment_list out.csv -segment_times 1,2,3,5,8,13,21 -segment_time_delta 0.05 out%03d.nut

    为了强制关机帧,必须进行转码

  • 按帧号进行分段 ,由segment_frames选项指定了若干帧号:

    ffmpeg -i in.mkv -codec copy -map 0 -f segment -segment_list out.csv -segment_frames 100,200,300,500,800 out%03d.nut

  • 转换in.mkv 为TS段,并且采用了libx264 和 libfaac 编码器:

    ffmpeg -i in.mkv -map 0 -codec:v libx264 -codec:a libfaac -f ssegment -segment_list out.list out%03d.ts

  • 对输入分段,创建了M3U8直播列表 (可以作为HLS直播源):

    ffmpeg -re -i in.mkv -codec copy -map 0 -f segment -segment_list playlist.m3u8 \
    -segment_list_flags +live -segment_time 10 out%03d.mkv

smoothstreaming

平滑流混合器生成一组文件(清单、块),适用于传统web服务器

  • window_size

    指定清单中保留的片段数。默认是0,表示保留所有的

  • extra_window_size

    从磁盘移除前,保留清单外片段数,默认5

  • lookahead_count

    指定先行片段数,默认2

  • min_frag_duration

    指定最小片段持续时间(单位microseconds),默认5000000.

  • remove_at_exit

    指定完成后是否移除所有片段,默认0,表示不移除

tee

tee混合器可以用于同时把相同数据写入多个文件,或者任何其他类型的混合器。例如使用它可以同时把视频发布到网络上以及保存到磁盘上。

它不同于在命令行指定多个输出,因为利用tee混合器,音频和视频数据只被编码了一次,而编码是一个非常昂贵的行为。它是很有效的,当利用libavformat的API直接可以把相同的数据包用于多个混合器输出(多种封装格式或者场景)

多个输出文件由’|’分隔,如果参数中包含任意前导或尾随的空格,任何特殊字符都必须经过转义(参考 ffmpeg-utils(1)手册中的中 “Quoting and escaping” 章节).

混合器的选项可以由被“:”分隔的key=value列表进行指定。如果这种形式下选项参数值包含特殊字符,例如“:”则必须被转义。注意这个第二层次的转义

下列选项被要求:

  • f

    指定格式名,通常用于不能由输出名后缀推测格式的情况

  • bsfs[/spec]

    指定一个比特流滤镜应用到指定的输出

    它可以为每个流指定一个比特流滤镜,通过”/“添加一个流选择(说明符),有些流必须由说明符进行指定(格式规范见流说明符)。 如果流说明符没有指定,则比特流滤镜适用于所有输出流。

    可以同时指定多个比特流滤镜,用”,”分隔。

  • select

    选择一些流,它们可以映射到一些输出,通过流说明符进行指定。如果没有指定,则默认会选择所有输入流

tee例子

  • 同时编码到WebM文件和UDP协议上的MPEG-TS流(流需要明确的被映射):

    ffmpeg -i … -c:v libx264 -c:a mp2 -f tee -map 0:v -map 0:a

    1. "archive-20121107.mkv|[f=mpegts]udp://10.0.1.255:1234/"
  • 使用ffmpeg编码输入,有3个不同的目标。dump_extra比特流滤镜被用来为所有输出的视频关键帧添加额外的信息,其作为MPEG-TS格式的要求。对out.aac附加的选项是为了让它只包含音频。

    ffmpeg -i … -map 0 -flags +global_header -c:v libx264 -c:a aac -strict experimental

    1. -f tee "[bsfs/v=dump_extra]out.ts|[movflags=+faststart]out.mp4|[select=a]out.aac"
  • 下面,将只选择一个音频流给音频输出。注意第二层引号必须经过转义,”:”作为特殊字符被用于标识选项

    ffmpeg -i … -map 0 -flags +global_header -c:v libx264 -c:a aac -strict experimental

    1. -f tee "[bsfs/v=dump_extra]out.ts|[movflags=+faststart]out.mp4|[select=\'a:1\']out.aac"

    注意一些编码器会根据输出格式的不同要求不同的选项,在tee混合器下自动检测可能会失效。主要有global_header的例子

webm_dash_manifest

WebM DASH 清单混合器.

这个混合器实现了按WebM DASH清单规范生成DASH清单XML文件。它还支持生成DASH直播流

更多参考:

webm_dash_manifest选项

支持如下选项:

  • adaptation_sets

    这个选项参数有如下语法: “id=x,streams=a,b,c id=y,streams=d,e” 这里的x,y都是唯一合适设置的标识符,a,b,c,d和e是相应的音频和视频流的指代。任何合适的数字可以被用于这个选项。

  • live

    如果为1表示创建一个直播流DASH,默认为0

  • chunk_start_index

    第一个块的索引号,默认为0,它将作为清单中‘SegmentTemplate’元素的 ‘startNumber’ 属性值

  • chunk_duration_ms

    每个块的持续时间,单位milliseconds,默认1000,将作为清单中‘SegmentTemplate’元素的‘duration’属性值

  • utc_timing_url

    URL将指示从何处获取UTC时间戳(ISO格式的),它作为清单中 ‘UTCTiming’元素的‘value’ 属性值,默认: None.

  • time_shift_buffer_depth

    最小时间(单位秒)的移动缓冲区,为保障可用的任意值,作为清单中‘MPD’元素的‘timeShiftBufferDepth’属性值,默认: 60.

  • minimum_update_period

    清单最小更新时间 (单位秒), 清单中‘MPD’元素的 ‘minimumUpdatePeriod’ 属性值,默认: 0.

webm_dash_manifest例子

  1. ffmpeg -f webm_dash_manifest -i video1.webm \
  2. -f webm_dash_manifest -i video2.webm \
  3. -f webm_dash_manifest -i audio1.webm \
  4. -f webm_dash_manifest -i audio2.webm \
  5. -map 0 -map 1 -map 2 -map 3 \
  6. -c copy \
  7. -f webm_dash_manifest \
  8. -adaptation_sets "id=0,streams=0,1 id=1,streams=2,3" \
  9. manifest.xml

webm_chunk

WebM直播块混合器

这个混合器输出WebM头和块分离文件,通过DASH它可以被支持WebM直播流的客户端处理。

webm_chunk选项

支持如下选项:

  • chunk_start_index

    第一个块的序号,默认0

  • header

    文件名将写入初始化数据的头

  • audio_chunk_duration

    每个音频块时间,单位milliseconds (默认5000).

webm_chunk例子

  1. ffmpeg -f v4l2 -i /dev/video0 \
  2. -f alsa -i hw:0 \
  3. -map 0:0 \
  4. -c:v libvpx-vp9 \
  5. -s 640x360 -keyint_min 30 -g 30 \
  6. -f webm_chunk \
  7. -header webm_live_video_360.hdr \
  8. -chunk_start_index 1 \
  9. webm_live_video_360_%d.chk \
  10. -map 1:0 \
  11. -c:a libvorbis \
  12. -b:a 128k \
  13. -f webm_chunk \
  14. -header webm_live_audio_128.hdr \
  15. -chunk_start_index 1 \
  16. -audio_chunk_duration 1000 \
  17. webm_live_audio_128_%d.chk