作者:张吕敏
以下是大家遇到的许多常见问题解决方案:
RuntimeError: CPUAllocator
请参阅下方: 系统交换
模型加载,然后暂停,然后什么也没有发生
请参阅下方: 系统交换
Segmentation Fault
请参阅下方: 系统交换
Killed
请参阅下方: 系统交换
^C
,然后退出
请参阅下方: 系统交换
adm 2816, 然后卡住了
请参阅下方: 系统交换
Connection errored out
请参阅下方: 系统交换
Error 1006
请参阅下方: 系统交换
WinError 10060
请参阅下方: 系统交换
Read timed out
请参阅下方: 系统交换
没有错误,但控制台突然关闭。找不到任何错误。
请参阅下方: 系统交换
模型加载极慢(超过1分钟)
请参阅下方: 系统交换
系统交换
上述所有问题都是由于系统交换(虚拟内存)容量不足造成的。
请确保至少有40GB的系统空闲空间。事实上,您并不需要这么大的系统空闲空间,但40GB的空闲空间应能确保您100%成功运行Fooocus。
(如果您的内存超过64GB,那么可能不需要任何系统交换空间,但我们对此并不十分确定)。
此外,如果您的系统交换(虚拟内存)是在硬盘上,那么加载模型的速度会非常慢。请尽量将系统交换放在固态硬盘上。
如果您使用的是Linux/Mac,请按照提供商的说明设置交换空间(虚拟内存)。这里的 "提供商 "是指Ubuntu官方、CentOS官方、Mac官方等。
如果使用的是Windows,则可在此处设置交换空间:
如果你同时使用硬盘和固态硬盘,可以**测试上述第7步中的一些设置,尽量将交换区放在固态硬盘上,这样加载模型的速度会更快。
**重要:微软Windows 10/11默认会自动为你进行系统交换(虚拟内存),因此你无需触碰这个危险的设置。如果没有足够的系统交换(虚拟内存)空间,只需确保每个磁盘上至少有40GB的可用空间即可。
此外,如果你从一些非官方的中国或俄罗斯供应商处获得Microsoft Windows 10/11,他们可能会修改系统交换的默认设置,以宣传什么"增强的Windows 10/11"(但实际上他们只是在使情况变得更糟,而不是改善情况)。在这种情况下,你可能需要手动检查你的系统交换设置是否与上述截图一致。
最后请注意,你需要重启电脑才能激活系统交换(虚拟内存)中的任何更改。
MetadataIncompleteBuffer
请参阅下方: 模型损坏
PytorchStreamReader failed
请参阅下方: 模型损坏
模型损坏
如果您看到 "模型已损坏",则表示您的模型已损坏。如果网络连接良好,Fooocus 会为您重新下载已损坏的模型。否则,您也可以手动下载模型。
UserWarning: The operator 'aten::std_mean.correction' is not currently supported on the DML
这是一个警告,您可以忽略。
Torch not compiled with CUDA enabled
您没有遵循官方安装指南。
请不要相信网上那些错误的教程,请只相信官方安装指南。
subprocess-exited-with-error
请使用 Python 3.10
另外,你没有按照官方安装指南进行安装。
请不要相信网上那些错误的教程,请只相信官方安装指南。
SSL: CERTIFICATE_VERIFY_FAILED
您住在中国吗?如果是,请考虑关闭VPN或尝试手动下载模型。
如果您在世界其他地方遇到此错误,则可能需要查看 此搜索。我们无法提供非常具体的修复指南,因为原因可能千差万别。
可能在其他API调用中异步报告的CUDA kernel errors
此问题已在两个月前修复。请确保您使用的是最新版本的 Fooocus(尝试重新安装)。
如果还是不行,请尝试升级 Nvidia 驱动程序。
如果还是不行,请打开一个包含完整日志的问题,我们会进行检查。
发现您的系统上没有NVIDIA驱动程序
请升级Nvidia驱动程序。
如果您使用的是AMD,请遵循官方安装指南。
NVIDIA驱动程序太旧
请升级你的Nvidia驱动程序。
我用的是Mac,速度很慢。
一些Mac用户可能需要'--enable-smart-memory'来加快模型加载速度。
此外,目前对MAC的支持还处于试验阶段,我们鼓励用户尝试使用Diffusionbee或Drawingthings:它们仅针对MAC开发。
我使用的是Nvidia 8GB VRAM,但出现了CUDA Out Of Memory(CUDA内存不足)。
这是一个 BUG。请尽快告知我们并提交问题。
我使用的是 Nvidia 6GB VRAM,但出现了CUDA Out Of Memory(CUDA内存不足)。
这是一个 BUG。请尽快告知我们并提交问题。
我使用的是Nvidia 4GB VRAM,支持Float16(如RTX 3050),但却出现了 CUDA Out Of Memory(CUDA内存不足)。
这是一个 BUG。请尽快告知我们并提交问题。
我使用的是不支持Float16的Nvidia 4GB VRAM(如GTX 960),但却出现了 CUDA Out Of Memory(CUDA内存不足)。
在不支持Float16的情况下支持4GB VRAM的GPU极其困难,而且您可能无法使用SDXL。不过您仍可以提出问题并告知我们。您可以尝试使用Automatic1111 中的SD1.5或其他适用于您设备的软件。
我在Windows上使用AMD GPU,但却出现CUDA内存不足的问题
目前AMD对Windows的支持还处于试验阶段。如果出现这种情况,您可能无法在Windows下的设备上使用Fooocus。
但是,如果您能在同一设备上使用任何其他软件运行SDXL,请立即通知我们,我们将尽快提供支持。如果没有其他软件能让您的设备在Windows上运行SDXL,那么我们也帮不上什么忙。
此外,Linux 上的 AMD 支持会稍好一些,因为它会使用 ROCM。如果您愿意将操作系统更改为 Linux,也可以试试。
我在Linux上使用AMD GPU,却发现CUDA内存不足
目前AMD对Linux的支持要好于对 Windows 的支持,但仍处于试验阶段。不过,如果您能在同一设备上使用任何其他软件运行 SDXL,请立即通知我们,我们将尽快提供支持。如果没有其他软件能让您的设备在 Windows 上运行 SDXL,那么我们也帮不上什么忙。
我尝试了 --lowvram 或 --gpu-only 或 --bf16 等其他标记,但情况并没有好转?
如果你被一些错误的教程误导,请移除这些标记。在大多数情况下,这些标记会让情况变得更糟,并带来更多问题。
Fooocus的运行速度突然变得很慢,而我什么都没改
您是否不小心同时运行了两个Fooocus?