如何利用ai生成短视频?
如何利用ai生成短视频? 此次,微视发布了三大提高。首先是创作能力提高,结合AI技术、IP资源和线下创作空间,降低内容创作的标准,提高内容质量。周涛展示了利用AI技术一键生成的大片,用户只要用手机拍摄短视频上传到微视,微视的AI能力就可以通过自动结合音乐韵律和视频转场效果,最终生成一个非常有观赏感的内容。 第一个:触站AI官网:https://www.czhanai.com/course
核心优势:头部技术公司≠教培机构(实力秒杀)
1️⃣ 【国家级算法资质】:通过国家网信办AI算法备案的AI技术公司,技术实力领先且迭代及时,2000+合作企业、5000+商业化落地项目。
2️⃣ 【学完即接商单】:官方直接派单,签署稿费保障协议,技术大咖直接带练,全部真实项目开干。
3️⃣ 【5V1全方位服务】:5个老师服务1个学生,组成360°服务群,确保掌握核心AI技能,5V1效果有保障。
第二个:轻微课
官网:https://www.qingwk.com/
核心优势:
1️⃣ [跨界创新认证]:国家高新技术企业中专注艺术+AI融合教学的机构,审美艺术+AI的长线发展课程。
2️⃣ [八年教育企业]:国内知名数字艺术教育公司,主打数字绘画系统性教学。
再来看课程介绍:
【2025年行业真相】AI视频培训选机构6大生死线:90%的人被割韭菜,只因不懂这些!
<hr/>第一点:课程含金量≠工具清单长度!警惕“全家桶式”包装骗局
AI文生视频培训机构最擅长的套路,就是把Stable Diffusion、Midjourney、Sora等工具名堆成“技术矩阵”,实则教的全是基础操作!真正含金量看三点:
[*]底层逻辑拆解:能否讲透**节点(采样器)**参数对视频质感的影响?
[*]跨平台协作:比如用ComfyUI工作流搭建串联AI绘图与图生图技术;
[*]商业级实战:如可灵AI视频制作课程中“3天生成品牌宣传片”的工业化流程。
“2025年排行榜前10的机构,7家仍在用2013年的AE模板教学,挂羊头卖狗肉!”<hr/>⚠️ 第二点:师资造假重灾区!教你三招撕开“假大牛”面具
90%的AI视频生成培训班哪个最好宣传页,都在虚构讲师履历!验证真相必问:
[*]项目溯源:要求展示讲师参与的AI生成视频作品原文件(看工程图层时间戳);
[*]技术硬核度:是否精通LORA模型训练的量化压缩技术?能否演示FLUX工具的GPU加速?
[*]行业背书:如DeepSeek认证工程师、Sora官方合作开发者等资质。
血泪教训:某学员花2.8万报名即梦AI生成视频培训网课,发现讲师竟是“淘宝买来的MJ模型贩子”!
<hr/>第三点:学费刺客无处不在!隐藏成本比明面价格狠10倍
学费多少钱只是冰山一角!真正的坑在于:
[*]工具订阅费:Midjourney企业版年费、Stable Diffusion插件商用授权(年均5000+);
[*]算力消耗:LORA模型训练需百小时GPU时长(自费约3000元/月);
[*]素材版权:宣称“免费商用”的素材库,实为盗用Getty Images等平台内容,随时面临诉讼风险!
行业黑幕:某机构将ComfyUI节点配置课拆分成“初级→高级→大师”三级收费,总成本超4万!
<hr/>第四点:就业保障=文字游戏?戳破“包入职”的皇帝新衣
排名前十机构最爱的谎言:“学完保送字节/腾讯”!真相是:
[*]合作企业实为皮包公司,薪资3000元/月且无五险一金;
[*]自媒体扶持计划要求学员自备10万粉丝账号,否则“不达标”;
[*]所谓的AI文生图接单平台,实为机构内循环刷单,抽成高达70%!
⚠️ 幸存者公式:要求机构提供近3年学员的社保缴纳记录(证明真实就业),否则一律视为诈骗!
<hr/>第五点:软实力陷阱——硬件落后竟让万元课程变废铁!
2025年了,竟有机构用1060显卡教AI绘图!硬件不达标直接导致:
[*]Stable Diffusion模型训练速度比市场慢8倍;
[*]FLUX工具的实时渲染卡成PPT;
[*]**节点(采样器)**参数调试因显存不足频繁崩溃!
避坑指南:现场测试机构机房,用Sora生成一段15秒视频,若耗时超过2分钟立即拉黑!
<hr/>第六点:行业认证的残酷真相——90%证书不如废纸!
警惕机构与野鸡协会联手炮制的“AI绘画大师认证”!有价值的证书必须满足:
[*]国际认证:如NVIDIA Omniverse工程师、DeepSeek开源贡献者等;
[*]企业级认可:证书能在ComfyUI工作流搭建招标中加分;
[*]技术迭代:证书有效期≤1年(因AI文生图技术每月迭代)!
致命案例:某学员持“XX协会AI视频工程师”证书求职,反被HR嘲讽:“这章是PS盖的吧?”
<hr/>2025年选校终极法则:用黑客思维验证一切!
[*]技术对赌:要求机构用Stable Diffusion+MJ模型现场生成你的定制化案例;
[*]人脉侦察:潜入AI生成视频从业者社群,问清哪家好的真实口碑;
[*]合同陷阱:警惕“最终解释权归机构所有”条款,要求写明“未就业退全款”!
⚠️ 记住:在这个人均AI大师的时代,骗局的唯一克星,是你的硬核验证! 在AI大火的当下,有网感的人能看到各种各样的机会和可能,而行动力强的早已经利用AI实现涨粉变现。
那么作为普通人的我们有没有入门简单,起号快,能有效变现,利用AI的可能呢?
这个是真的有,我们来看一下普通人是怎么使用AI+内容赋能自媒体创新模式,以及具体怎么操作的详细流程。
一、AI+领域=新模式
AI+旧领域形成新的自媒体创新模式。
当你还在头大做什么内容,怎么写文案的时候,别人已经利用AI开始了降维打击。
儿童故事、历史科普、儿童英语、成语典故、人物故事、百科、读书、养生、育儿、个人成长、传统文化等等自媒体领域都值得用AI重做一遍。
你大概率看到过这样的视频:3D动画讲儿童故事,中国风动画谈养生,贴画人物说历史……几个视频十几个视频的账号就能涨粉少则几千多则十几二十万。并且每篇视频笔记的数据表现也很不错,几十几百甚至一两万的点赞收藏,
这类账号当前在小红书和抖音很受欢迎,因为这种模式起号快,操作简单,门槛低的特点,即使普通人了解了操作技巧之后也能很快上手。
仅仅是通过不同类型的AI工具组合就能批量生产视频素材和内容,而在熟悉了AI工具之后,每天可以创作10篇以上的视频,堪称内容制造机。
选题、创意、素材、音频整个流程全部都可以通过AI来实现,AI赋能的创作模式极快的提升了内容生产速度,降低了个人做自媒体博主的进入门槛。
其实这种方式并不难,看完下面的详细流程后,你会发现就这么简单,并且这个方法可以套用到你想要做的任何领域中。
让我们把此类视频进行拆分就会发现,这类视频的组成分为文案、画面素材(动画场景、人物)、声音(AI语音)和视频剪辑。
为了降低成本,我筛选验证了市面上比较知名的一些AI工具,最终选择了这几种AI工具,它们的共同特点是成本低,入门快,操作简单。
DeepSeek:内容生产工具,利用DeepSeek生成视频文案、脚本和选题,甚至能辅助你更好的使用其他AI工具;
MJ AI绘画:既可以生成视频所需要的画面素材,也可以把静态图片生成动态视频;
即梦AI(辅助):画面素材生产工具,主要用于辅助生成MJ AI绘画不能完成的画面素材;
度加创作工具:可以把文案生成声音音频,这是百度的一款AI工具,可以通过文案成片;
剪映:普通人也能熟练掌握的视频剪辑软件,这个大家应该很熟悉。
当然,如果你认为其他同样功能的AI工具更好用也可以替换,视频的制作流程和方法都是一样的,这里推荐的AI工具主要因为低成本和操作简单。
二、AI+批量生产内容/素材流程步骤和方法
我们将按着这样的顺序生成视频,首先用DeepSeek生成所需要的文案或脚本,然后用MJ AI绘画和即梦AI生成所需要的画面素材,接着用度加生成音频,最后用剪影把所有素材合成所需要的视频。
2.1用DeepSeek生成文案
你想做什么类型的选题,那么你就可以要求DeepSeek帮助你生成所需要的文案,甚至可以根据要求出视频脚本。
比如你是一个历史博主,想做一期历史人物的视频,可以这样对DeepSeek提出你的诉求“你是一个历史博主,选择一个历史上军事或政治上的狠人,写一篇 5-10分钟左右的历史科普的短视频文案,要开头前三秒吸引人,中间能让人有兴趣看下去。要求正史的内容,不要参考野史和传说。”
DeepSeek会根据你的诉求生成完整的视频脚本,每个时间段应该展示什么画面,用什么样的文案去解说,都会很详细的给出。当然,你也可以根据自己的想法和需求,去完善脚本。比如根据“深度思考”中提出的不足和意见,去补充文案,让内容更饱满更有看点。
像“儿童故事”“成语故事”这类的内容就过更好操作,你可以给出故事的类型,要求DeepSeek帮你编写新的故事,或者用拿来主义直接用格林童话、成语、寓言故事,让它帮你生成生动的视频脚本即可。
2.2MJ AI绘画为主即梦AI为辅生成视频素材
根据脚本的描述,在这里可以生成你需要的背景和人物素材。
MJ AI绘画的功能有很多,可以根据文字生成图片,可以根据文字生成视频,可以把视频转为动漫,甚至视频换脸,这是我测试的AI工具里面认为文生图片效果最好的一款工具,并且有5中模型可以使用,绘画描述越详细,生成的图片越匹配你的需求。
也可以在生成的视频基础上编辑图片和调整变化,算是比较人性化比较好用的一款工具。
当然,这款工具有一定的限制,一些敏感词不能用,得不到满意的素材,所以需要用即梦AI作为辅助,因为即梦没有敏感词的限制。
那为什么不直接使用即梦AI作为主要工具呢?因为即梦的会员模式收费太高,会增加我们的使用成本,虽然有免费的积分可以使用,但是积分太少不够消耗,MJ AI绘画相对成本低,生成图片效果也不错。
2.3用度加生成数字声音
如果你对自己的声音不满意,不想用自己的声音,那么度加工具可以帮你完成这一步。
找了很多声音生成的工具,往往收费都很高,而度加每天签到领取的积分足够使用,相当于帮你免费生成数字声音,并且声音效果也不错,选择自己认为合适的数字声音即可。
2.4用剪映完成创作
视频的画面、人物和声音素材都有了,最后一步就是用剪映完成视频的剪辑。
把用度加生成的视频素材添加到剪映里面,分离音频,把画面删掉,只留下声音,然后根据脚本或文案的步骤匹配通过AI制作出来的背景、人物等等素材。
为了让视频更生动,可以用MJ AI绘画或者即梦AI把静态图片生成视频,或者给静态的人物和背景添加关键帧,让视频有放大、缩小、隐藏等等动态效果,让静态的图片活起来。
你也可以使用AI对口型功能,让人物更鲜活。当你使用的越来越得心应手,视频的表现能力就会越强。
最后给视频添加特效音和音乐,配上字幕,一个视频就这样成型了。
使用AI工具最关键的是你发出的命令,你的命令越详细越完善,得到的素材效果越好。当你不知道怎么准确的描述才能得到自己想要的素材,那么你可以把自己的想法交给DeepSeek,让它帮你整理你的想法,它会给你非常详细的图片生成命令。
AI+内容,从无到有生成一个视频,这样就完成了。那么,有粉丝之后应该怎么变现呢?这才是我们最关注的一个问题。
三、变现方法
这类视频号的变现方式基本逃不过以下几种:
商单:接广告商单,在视频或图文中加入品牌方的广告,每条广告最少100,最多上千都有可能,主要看内容的质量、粉丝量和商单类型。
播放量:抖音、百度、西瓜视频、B站都可以通过播放量来变现,只不过对于视频的类型要求很高。
收徒:这种变现是比较常规的方式,每个人收几百,教他们做跟你一样的视频,把你的起号和变现流程手把手教给徒弟,以此来变现。可以通过直播介绍的形式来获客。
卖书:儿童故事、成语、历史、读书等等的账号,可以通过小清单或者店铺卖书变现。
卖服务:可以接设计,提供学习资料,提供咨询等等服务达成变现。
卖货:最基础也是最常规的变现方式,开店、直播或者私域卖货都可以。
四、AI各领域应用
那么我们把思维发散一下,育儿、读书、穿搭、美食、知识、科普等等领域是不是也能通过AI工具制作图文或视频?
答案是肯定的,你可以让DeepSeek帮你整理出来育儿过程中的痛点,自己针对这些痛点的解决方法,生成图文或短视频文案。
你可以让DeepSeek帮你整理某一本书的阅读笔记,让它生成符合小红书风格的图文或者口播文案。
你也可以让DeepSeek整理出某一领域的知识或科普文案。
……
是不是可以通过AI工具把所有领域都可以重做一遍?
如果你的时间充足,还可以做矩阵号把效率放大,多做几个同类型账号,让你的收益也能放大。 最近 AI 绘画和 AI 视频都挺热闹的,AI 绘画有新鲜出炉的 SD3.5,AI 视频有智谱开源的 CogVideoX,快手的 Pyramid-Flow 以及 360 推出的 FancyVideo 以及我们今天要介绍的 Genmo 开源的 Mochi 1。
Mochi 是一种基于 Asymmetric Diffusion Transformer(AsymmDiT)架构的视频生成模型,该模型有 100 亿个参数,应该是目前公开发布的规模最大的开源视频生成模型了。
Genmo 发布了 Mochi 1 预览版,今天我们就来体验一下!
好了,话不多说,我们直接开整!
<hr/>说实话,效果是真的不错,但是生成视频也真的是慢!生成 848 * 480 分辨率的 6s 视频需要 15 分钟。
好了,先来看效果,然后我们再介绍怎么如何使用!
提示词:The camera follows the back of a woman with long hair as she runs, capturing the strands as they whip and flow dynamically in the wind.
提示词:A close-up shot of a young woman&#39;s face during sunset, with soft lighting highlighting her features. Her eyes well up with tears, and her lips quiver slightly, revealing suppressed emotions. The camera gradually zooms in, emphasizing the fine details of her face, finally focusing on her tear-filled eyes.
提示词:A vintage teddy bear on a child&#39;s bed blinks to life as golden sunlight filters through lace curtains, with the camera pulling back to reveal the bear becoming animated.
提示词:A wide shot of a unicorn peacefully grazing in a lush, enchanted forest. The camera captures the unicorn’s shimmering coat, the magical glow of the surrounding flora, and the serene atmosphere of the scene.
提示词:A medium shot of a dog sitting vigilantly beside a sleeping child, its head resting on the bed. The camera captures the dog’s protective stance, the peaceful expression of the child, and the warm light filtering into the room.
提示词:A close-up shot of a child bursting into joyous laughter as colorful confetti rains down. The camera captures the pure delight and sparkle in their eyes, creating a heartwarming and shareable moment
怎么样,还是相当不错的吧,不仅运动幅度很大,而且细节也很到位。篇幅的关系,我们就先演示这么多了。
好了,接下来我们来看看具体如何使用,使用的工具主要还是 ComfyUI,需要显存大小,使用 Q4 量化版本模型的话,需要 12G 以上,并且分辨率只能低于 480P。
全量版本生成 480P 则需要 17G 以上的显存。
如果配置不够或者嫌本地安装麻烦的小伙伴,文末也会提供线上体验地址。
ComfyUI 插件地址:https://github.com/kijai/ComfyUI-MochiWrapper插件还没有收录到 ComfyUI 管理器,所以需要我们通过 Git URL 手动下载,如果是秋叶版启动器的小伙伴也可以直接在客户端-版本管理-安装新扩展进行安装。
插件作者提供了两个模型加载节点,一个可以自动下载模型,一个需要我们手动下载模型,两种工作流以及需要的模型听雨都会放在文末的网盘里,需要的小伙伴自取。
以下其中一个工作流,除了模型加载节点不一样以外,其他节点都是一样的。
我们来看下两个主要的节点吧,以下这个节点主要就是调整我们视频的分辨率以及视频时长的地方,「num_frames」越大则生成视频的时长越长。分辨率越大则占用的显存越高。
接下来我们再来看下模型加载节点,其实插件安装好并且下载好模型以后,已经可以使用了,但是加载模型节点中「attention_mode」参数默认使用的是「sdpa」,速度非常慢,出一个 480p 的 6s 视频需要 25 分钟以上。
想要出视频更快,我们就需要把模式切换到「sage_attn」,视频生成速度节省 10 分钟,只需要 15 分钟,虽然还是很慢,但是相比 25 分钟还是快很多了。
直接选择 sage_attn 模式会报错,我们还需要单独安装一些依赖。
首先找到我们的 python 目录,一般就在我们的 ComfyUI目录下,然后地址栏输入 cmd,敲回车。
然后输入以下命令进行安装,安装之前也可以先查看下是否有安装,把install 改成 show 就可以了。
python.exe -s -m pip install sageattention
秋叶版的话,直接在环境维护中的重装单个 Python 组件中输入sageattention 安装就可以了。
除此之外,还需要安装 triton,这个稍微复杂一些,首先我们需要在以下链接中找到和我们的 python 版本对应的安装文件。
https://github.com/woct0rdho/triton-windows/releases/tag/v3.1.0-windows.post5比如听雨这里是 python310,那我们就找到 triton 对应的 310 的安装文件,然后把文件复制到我们的 pyhton 文件下,如果对 python 操作了解的小伙伴就随便放就好了。
然后回到我们刚才打开的 cmd 界面,输入以下的命令,敲回车进行安装。
python.exe -s -m pip install triton-3.1.0-cp310-cp310-win_amd64.whl
然后重启我们的 ComfyUI 就可以使用「sage_attn」这个模式了。
如果嫌麻烦的小伙伴也可以直接去 Mochi 的官网进行体验:
https://www.genmo.ai/play听雨总的体验下来还是非常不错的,尤其是提示词遵循方面很不错,运动幅度也很大,包括视频的流畅度以及物理世界模拟上来讲也是相当不错,细节也很真实到位,就是出视频太慢了。
好了,今天的分享就到这里了,感兴趣的小伙伴快去试试吧!
网盘链接:https://pan.quark.cn/s/fa37812ce665<hr/>我是听雨,专注于 AI 绘画以及 AI 工具分享,更多内容可以进我的个人主页查看,欢迎来一起交流。
如果觉得文章有帮助,请帮忙点赞收藏关注一下呦~ 目前利用ai制作短视频的方式有很多。
常见就是先将内容用AI工具生成图片,然后再导入剪辑视频的工具里面生成短视频。
有工具的话就是导入文案,让AI直接生成短视频,AI自动配好语言和音乐。但是这些工具都是需要收费或者会员使用。
目前市面上还没有免费自动AI生成短视频的软件。所以不想付费的就自己剪辑。
这款软件也是可以导入文案,选择模型,最后生成短视频。功能自己去体验一下。
直接生成短视频的,目前一般都是做小说推广项目的达人会用。小说推广主要就是小说内容比较吸引人。如果加上漫画类的图片生成的短视频,会更加吸引粉丝看。 您好!关于如何利用AI生成短视频,以下是一些专业的通俗易懂的回复:<br><br>首先,需要选取合适的AI工具或平台,比如利用深度学习技术构建的视频生成模型。其次,可以通过输入文字、图片等相关素材作为指令或参考,让AI模型依据算法自动生成符合需求的短视频。还可以借助语音合成技术、自动配乐、智能剪辑等技术提升视频的质量和观感。同时,编辑和修整也是必不可少的环节,以确保视频的专业性和流畅性。总之,利用AI生成短视频需要掌握一定的技术和工具,并不断实践和优化,以创造更具吸引力和影响力的视频内容。 尊敬的提问者,关于如何利用AI生成短视频,以下是我的回复:<br><br>AI技术已成为短视频创作的重要工具。我们可以借助AI驱动的短视频生成软件,通过以下几个步骤实现:首先,确定短视频的主题和内容;其次,选择适合的AI工具,如剪辑软件、语音合成工具等;接着,利用AI技术自动生成视频片段、音频、字幕等;最后,进行必要的编辑和调整,使视频更符合需求。这种方式不仅提高生产效率,还能增加视频的创意和个性化。请注意,使用AI生成短视频时,内容的质量和原创性仍是关键,需保持对人类创作理念的尊重。<br><br>希望以上回复能对您有所帮助。如有更多问题,欢迎继续提问。 尊敬的网友,针对您关于如何利用AI生成短视频的问题,以下是简要回复:<br><br>AI技术已成为短视频生成的重要工具。利用AI生成短视频,首先需要选取合适的AI平台和工具,如视频编辑软件等。接着,通过导入素材、选择风格、设定参数等步骤,让AI根据算法自动完成视频剪辑、特效添加、字幕配乐等工作。此外,还可以利用AI的语音识别和转换技术,实现视频中的语音内容自动生成字幕等功能。<br><br>利用AI生成短视频能提高制作效率,实现个性化定制。操作时,建议遵循简洁明了的原则,充分发挥AI技术的优势。<br><br>希望以上回复能对您有所帮助。如您有更多问题,欢迎继续提问。
页:
[1]