Kohya 发布混元视频模型 Lora 训练脚本

据X用户 TTPlanet 报道,该脚本将需要 16GB 显存,仅使用图像输入来训练视频 Lora。

@Kohya released the training code for Hunyuan Video. It will allow 16GB VRAM Graphic card to train video Lora with image input only.
Due to there is no GUI, and with a lot of job to setup. I have made a package with all repo, models, python and GUI included.
You can find it here http://pan.baidu.com/s/1EzlY728byW5…
please let me know which platform you can quickly download. I will upload to it. The password for the file is 汤团猪TTPlanet just copy to unzip by 7z application.

该用户还制作了一个包含所有 repo、模型、python 和 GUI 的包。

混元视频模型(HunyuanVideo) 是腾讯发布的开源文生视频模型。

Read more

《黑天鹅》作者:英伟达还会跌2-3倍!

快科技2月3日消息,《黑天鹅》一书的作者、著名风险分析师纳西姆·塔勒布(Nassim Taleb)认为,英伟达股价暴跌或仅是更大灾难的开端。 近日,塔勒布在迈阿密对冲基金周上向媒体表示,英伟达接下来的跌幅可能会是1月27日周一(17%下跌)的两到三倍。 他表示,这是人们适应现实的开始,并补充说,英伟达的股票表现不再完美无缺,而且已经开始出现裂痕。 抛售发生之际,投资者担心美国顶级科技股可能被高估,尤其是在人工智能领域。 勒布将这种情况与1999 年的互联网泡沫进行了比较,称早期的互联网投资者押注AltaVista(当时全球最知名的搜索引擎公司)——只是谷歌后来脱颖而出并占据主导地位。 他指出,市场现在已经意识到英伟达并非绝对永远上涨,之前被忽视的风险逐渐暴露。随着AI开发成本的降低,企业可能会减少对高价芯片的依赖,或转向定制化解决方案,这将进一步冲击英伟达的营收预期。投资者对英伟达乃至西方科技股的信心动摇,可能引发更大规模的抛售。 今年1月,中国人工智能初创企业深度求索公司发布最新开源模型R1,打破人工智能开发“越大越好”迷思。 据美国市场观察网站报道,英伟达公司市值在过

最快的N卡和最快的A卡跑DeepSeek谁更快:RTX 5090比RX 7900 XTX快一倍

快科技2月2日消息,最快的N卡和最快的A卡跑DeepSeek谁更快?最新消息显示,RTX 5090在DeepSeek R上的推理性能比AMD的 RX 7900 XTX快得多,性能至少翻了一倍。 测试显示,在多个DeepSeek R1型号中,RTX 5090明显领先于RX 7900 XTX,也比RTX 4090快了不少。 在Distill Qwen 7b和Distill Llama 8b模型中,该RTX 5090每秒可运行200个Tokens,几乎是RX 7900 XTX 的两倍。 1月31日,NVIDIA宣布,NIM已经可以使用DeepSeek-R1。NIM,即NVIDIA Inference Microservices,是一种云原生微服务技术,可简化生成式AI模型在云端、数据中心及GPU加速工作站上的部署流程 NVIDIA官网发布文章指出,DeepSeek-R1是最先进的推理开放模型,会对查询进行多次推理处理,使用连锁思维、共识和搜寻方法来生成最佳答案。 文章写道,为了帮助开发者安全地试验这些功能,并构建自己的专门代理,DeepSeek-R1模型现已作为NVIDIA NIM

SVFR:通用视频人脸修复的统一框架

SVFR 是一种用于人脸视频修复的统一框架,支持BFR、着色、修复等任务以及它们在一个内聚系统中的组合。 SVPR 由厦门大学和腾讯优图实验室推出,能够实现很好的视频人脸修复效果。 我们截取了一些使用SVPR的例子。就例子来看,SVFR还能通过绘制蒙版去除视频中的水印,非常适合用来修复老旧的黑白色彩、低分辨率或是包含水印的视频。