#AI #折腾 #图生视频
成功在 5090D 上跑起来了
FramePack,遇到了经典
CUDA 架构兼容性问题官方解决方案是这样的,先卸载旧的 PyTorch 然后装 cu128,我这边是解决了。但是速度比 GitHub 上说的要慢一些(一开始慢,后面快)
pip uninstall -y torch torchvision torchaudio
pip install --pre torch torchvision torchaudio --index-url
https://download.pytorch.org/whl/nightly/cu128然后愉快的跑起来了,效果是很 Amazing 了,太 NB 了。(用之前 AI 生的头像结合 AI 给的 Live2d 视频提示词然后跑 AI Live2d 视频)
Use TeaCache 的速度是大概 2.3~2.5s 一帧,感觉这个速度肯定是有点问题的,不过问题不大。
提示词是:
Transform the anime character into a Live2D-style subtle animation, maintaining the original pose while adding these micro-movements: slight head tilting (within 3-5 degrees range), hair gently flowing in a mild breeze, natural and slow blinking, occasional subtle lip movements, light fabric movements on clothing, and natural lighting/shadow changes that follow the character's micro-movements. Keep the overall scene stable, ensure smooth and natural motion without exaggerated movements. Maintain high image quality, 60fps, with a 5-10 second animation loop.
ps: 经典 webui 连着连着就断了最后只能去 output 文件夹里直接拿23333
https://fixupx.com/karminski3/status/1913775123913707699karminski-牙医 (@karminski3): 来看这个牛逼的视频生成框架——FramePack
最牛逼的地方在于:使用 13B 模型生成 1 分钟视频(60 秒),30fps(1800 帧),最低所需的 GPU 内存为 6GB。(是的,6GB,不是打字错误。笔记本电脑 GPU 也可以。)
官方只提供了windows构建版本,下载后使用 update.bat 进行更新,使用 run.bat 运行。框架会直接从HuggingFace 上下载模型(大概30G,注意流量)。然后就能用了
地址:http://github.com/lllyasviel/FramePack