FunClip是什么?
Funclip是阿里达摩院通义实验室推出的完全开源和本地部署的自动化视频编辑工具,FunASR通过调用阿里巴巴通义实验室 Paraformer系列模型实现视频的自动语音识别。用户可以根据识别结果选择文本片段或特定的演讲者,并快速切割所需的视频片段。Funclip的特点包括集成高精度的中文ASR模型、支持热词定制、演讲者识别和提供Gradio交互界面,使视频编辑简单方便。此外,它还支持多段编辑,并自动生成SRT字幕文件。
FunClip的主要功能
- 语音识别自动化:FunASR利用阿里巴巴通义实验室 Paraformer系列模型,语音识别视频,将语音转换为文本。
- 热词定制化:通过Seaco-Paraformer模型的集成,用户可以指定一些物理词和名称作为热门词,以提高特定词汇的识别准确性。
- 说话人识别:集成CAM 演讲者识别模型,允许用户根据自动识别的演讲者ID剪切特定演讲者的视频段落。
- 视频裁剪:用户可以选择识别结果中的文本片段或指定发言人,并通过点击剪切按钮获取相应的视频片段。
- Gradio交互界面:通过Gradio实现的交互界面,简化了视频编辑的操作流程,用户可以在服务端构建服务,并通过浏览器进行编辑。
- 支持多段编辑:FunClip支持用户编辑多段视频,提供灵活的编辑能力。
- 字幕自动生成:视频编辑后,SRT字幕文件可以自动生成全视频和目标段落,方便用户添加或编辑字幕。
- 命令行调用:FunClip除了图形界面外,还支持通过命令进行视频识别和切割,提供了更灵活的使用方法。
FunClip官网入口
- 官方GitHub源码地址:https://github.com/alibaba-damo-academy/FunClip
- ModelScope魔法社区在线Demo:https://modelscope.cn/studios/iic/funasr_app_clipvideo/summary
如何使用FunClipplip
方法1:本地部署Gradio版本
首先确定Python和Git已经安装在计算机上,然后依次打开终端输入并运行以下命令
git clone https://github.com/alibaba-damo-academy/FunClip.git
cd FunClip && pip install -r ./requirements.txt
python funclip/launch.py
最后,访问浏览器localhost:7860
体验FunClip
方法二:在线体验魔搭社区Demoo
访问魔搭社区提供的在线Demo,然后按以下步骤操作:
- 点击上传视频或音频文件(或使用下面的用例体验)「识别」按钮
- 将识别结果中所需的文本复制到右上角,或右侧设置说话人标志,设置偏移和字幕配置(可选)
- 点击「裁剪」按钮或「切割并添加字幕」按钮得到结果
方法三:命令操作相关指令
打开终端,依次输入并运行以下命令
# 1. 克隆GitHub源代码 git clone https://github.com/alibaba-damo-academy/FunClip.git # 2. Python依赖于安装Python cd FunClip && pip install -r ./requirments.txt # 3. 添加视频进行识别 python funclip/videoclipper.py --stage 1 \ --file examples/2022云栖大会_片段.mp4 \ --output_dir ./output # ./output/输出识别结果和目录.srt字幕文件 # 4. 裁剪命令 python funclip/videoclipper.py --stage 2 \ --file examples/2022云栖大会_片段.mp4 \ --output_dir ./output \ --dest_text 我们把它与农村振兴相结合,利用我们的设计能力 \ --start_ost 0 \ --end_ost 100 \ --output_file './output/res.mp4'
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...