模型简介(Introduction)
Neta Lumina 是由捏Ta实验室(Neta.art)训练的高品质二次元风格图像生成模型。我们基于上海人工智能实验室 Alpha-VLLM 团队开源的 Lumina-Image-2.0,利用海量、高质量的二次元风格图像及多语种标签数据,使模型具备强大的需求理解与诠释能力,非常适合插画、海报、分镜、角色设计等场景。
主要特色
- 针对多样化创作场景进行优化,如 Furry、国风、宠物等
- 支持众多角色与风格,包括热门和冷门设定
- 准确理解自然语言,具备优秀的复杂提示词遵循能力
- 原生支持多语言,推荐优先使用中文、英文和日文
模型版本
- 基础模型(Base Model)
- 数据集:约 1300 万张二次元风格图像
- 主要目标:通用知识学习、二次元风格优化
- 美学微调模型(Aesthetic Model)
- 基于基础模型进一步微调
- 数据集:精选数十万张高质量动漫风格图像
- 主要目标:提升美学表现、肢体结构精准度与画面细节
使用指南(How to Use)
该模型采用基于 Diffusion Transformer 的 Lumina2 框架,与 Stable Diffusion 模型不同,请务必按本文档进行配置。
ComfyUI
环境要求(Environment)
目前 Neta Lumina 仅支持在 ComfyUI 平台使用:
- 安装最新版 ComfyUI
- 至少 8 GB 显存
模型下载与安装(Downloads)
原版
Neta Lumina-Beta
- 下载链接:https://huggingface.co/neta-art/Neta-Lumina/blob/main/Unet/neta-lumina-beta-aes-experimental-0624.safetensors
- 文件格式:.safetensor
- 存放路径:ComfyUI/models/unet/
文本编码器(Gemma-2B)
- 下载链接:https://huggingface.co/neta-art/Neta-Lumina/blob/main/Text%20Encoder/gemma_2_2b_fp16.safetensors
- 文件格式:.safetensors(约 5.23 GB)
- 存放路径:ComfyUI/models/text_encoders/
VAE 模型(16 通道 FLUX VAE)
- 下载链接:https://huggingface.co/neta-art/Neta-Lumina/blob/main/VAE/ae.safetensors
- 文件格式:ae.safetensors(约 300 MB)
- 存放路径:ComfyUI/models/vae/
对应工作流:lumina_workflow.json
(在 ComfyUI 中加载该 JSON 文件即可)
- UNETLoader:加载模型文件
- VAELoader:加载 ae.safetensors
- CLIPLoader:加载 gemma_2_2b_fp16.safetensors
- Text Encoder:输出分别连接采样器的正向/负向条件
简易合并版
下载 neta-lumina-beta-ase-experimental-all-in-on-0624
使用 ComfyUI 默认工作流即可
推荐参数(Recommended Settings)
- 采样器:res_multistep
- 调度器:linear_quadratic
- 采样步数:30
- CFG(提示词引导强度):4~5.5
- EmptySD3LatentImage:推荐分辨率为 1024×1024、768×1532 或 968×1322
提示词指南(Prompt Book)
社区(Community)
- Discord 社群:https://discord.gg/ugRSCY3v
- QQ 交流群:785779037
路线图(Roadmap)
我们主要在以下方面进行模型本身的开发
- 持续训练基础模型,提升智能水平。
- 迭代美学数据集,优化肢体表现、背景丰富度及画面整体美观度。
- 开发更智能、多样化的打标工具,降低用户创作门槛。
关于模型生态,我们会准备
- LoRA 训练教程和相应组件
- 虽然当前 Neta Lumina-Beta 尚未完全成熟,但有经验的用户可以尝试基于 Lumina-Image-2.0 的开源训练代码自行微调。
- 精细化控制、形象/风格一致化等能力(如 Omini Control)的开发,欢迎发起或者参与。
模型许可证与使用声明(License & Disclaimer)
- Neta Lumina 采用 Fair AI Public License 1.0-SD 协议
- 您后续如果修改、合并、再次开发该模型,需要将后续的衍生模型开源。
参与者与贡献者(Participants & Contributors)
- 特别鸣谢:感谢上海AI实验室 Alpha-VLLM 课题组开源了 Lumina-Image-2.0 。该模型的推出为社区提供了强大的视觉生成框架,我们基于此进行了二次元领域的定向训练。在此特别感谢 Lumina 项目的作者们为开源做出的贡献。
- 模型开发团队:捏Ta 实验室 Neta.art Lab Civitai 主页
- 合作伙伴
- nebulae: Civitai | Huggingface
- nebulae: Civitai | Huggingface
- Narugo1992: 感谢 narugo1992 和 deepghs 团队开源了各种训练集、图像处理工具和模型。
- Mikubill:感谢 Mikubill 的 Naifu 训练师。
开源社区贡献者
- 评测和开发:二小姐,spawner,奇葩菌2333
- 其他贡献者:沉迷摸鱼,poi氵,ashan,十分无奈,GHOSTLXH,wenaka,iiiiii,niangao233,恩匹希,奶冻美宣集,Rnglg2,mumu,yizyin,smile
附录与扩展资源(Appendix & Resources)
- TeaCache:https://github.com/spawner1145/CUI-Lumina2-TeaCache
- 进阶采样器和 TeaCache 使用方法(由spawner编写):https://docs.qq.com/doc/DZEFKb1ZrZVZiUmxw?nlc=1
- Neta Lumina ComfyUI 使用手册(内测版) :https://docs.qq.com/doc/DZEVQZFdtaERPdXVh