一个简单方便的界面,用于使用各种神经网络模型。您可以通过文本、语音和图像输入与LLM进行通信;使用StableDiffusion、Kandinsky、Flux、HunyuanDiT、Lumina-T2X、Kolors、AuraFlow、Würstchen、DeepFloydIF、PixArt, CogView3-Plus和PlaygroundV2.5生成图像;使用ModelScope、ZeroScope 2、CogVideoX和Latte生成视频;使用StableFast3D、Shap-E和Zero123Plus生成3D对象;使用StableAudioOpen、AudioCraft和AudioLDM 2生成音乐和音频;使用CoquiTTS、MMS和SunoBark进行文本到语音转换;使用OpenAI-Whisper和MMS进行语音到文本转换;使用Wav2Lip进行唇形同步;使用LivePortrait为图像添加动画;使用Roop进行换脸;使用Rembg移除背景;使用CodeFormer修复面部;使用PixelOE进行图像像素化;使用DDColor为图像上色;使用LibreTranslate和SeamlessM4Tv2进行文本翻译;使用Demucs和UVR进行音频文件分离;使用RVC进行语音转换。您还可以在图库中查看输出目录中的文件,下载LLM和StableDiffusion模型,在界面内更改应用程序设置并检查系统传感器。
项目目标 - 创建一个尽可能简单易用的神经网络模型应用程序
Install
和Update
文件进行调试日志记录1) 首先安装所有必需依赖
2) 在任意位置执行Git clone https://github.com/Dartvauder/NeuroSandboxWebUI.git
3) 运行 Install.bat
, 选择您的版本并等待安装
4) 安装完成后, 运行 Start.bat
并进行初始设置
5) 等待应用程序启动并从终端中跟随链接
6) 现在您可以开始生成了。 请尽情享用!
Update.bat
Venv.bat
1) 首先安装所有必需依赖
2) 在任意位置执行Git clone https://github.com/Dartvauder/NeuroSandboxWebUI.git
3) 运行 ./Install.sh
, 选择您的版本并等待安装
4) 安装完成后, 运行 ./Start.sh
并进行初始设置
5) 等待应用程序启动并从终端中跟随链接
6) 现在您可以开始生成了。 请尽情享用!
./Update.sh
./Venv.sh
首先,我要感谢PyCharm和GitHub的开发者。借助他们的应用程序,我能够创建并分享我的代码
gradio
- https://github.com/gradio-app/gradiotransformers
- https://github.com/huggingface/transformersauto-gptq
- https://github.com/AutoGPTQ/AutoGPTQautoawq
- https://github.com/casper-hansen/AutoAWQexllamav2
- https://github.com/turboderp/exllamav2coqui-tts
- https://github.com/idiap/coqui-ai-TTSopenai-whisper
- https://github.com/openai/whispertorch
- https://github.com/pytorch/pytorchcuda-python
- https://github.com/NVIDIA/cuda-pythongitpython
- https://github.com/gitpython-developers/GitPythondiffusers
- https://github.com/huggingface/diffusersllama.cpp-python
- https://github.com/abetlen/llama-cpp-pythonstable-diffusion-cpp-python
- https://github.com/william-murray1204/stable-diffusion-cpp-pythonaudiocraft
- https://github.com/facebookresearch/audiocraftxformers
- https://github.com/facebookresearch/xformersdemucs
- https://github.com/facebookresearch/demucslibretranslatepy
- https://github.com/argosopentech/LibreTranslate-pyrembg
- https://github.com/danielgatis/rembgsuno-bark
- https://github.com/suno-ai/barkIP-Adapter
- https://github.com/tencent-ailab/IP-AdapterPyNanoInstantMeshes
- https://github.com/vork/PyNanoInstantMeshesCLIP
- https://github.com/openai/CLIPrvc-python
- https://github.com/daswer123/rvc-pythonaudio-separator
- https://github.com/nomadkaraoke/python-audio-separatorpixeloe
- https://github.com/KohakuBlueleaf/PixelOEk-diffusion
- https://github.com/crowsonkb/k-diffusionopen-parse
- https://github.com/Filimoa/open-parseAudioSR
- https://github.com/haoheliu/versatile_audio_super_resolutionsd_embed
- https://github.com/xhinker/sd_embedtriton
- https://github.com/triton-lang/triton/