Простой и удобный интерфейс для использования различных моделей нейронных сетей. Вы можете общаться с LLM, используя текстовый, голосовой и визуальный ввод; использовать StableDiffusion, Kandinsky, Flux, HunyuanDiT, Lumina-T2X, Kolors, AuraFlow, Würstchen, DeepFloydIF, PixArt, CogView3-Plus и PlaygroundV2.5 для генерации изображений; ModelScope, ZeroScope 2, CogVideoX и Latte для генерации видео; StableFast3D, Shap-E, и Zero123Plus для генерации 3D-объектов; StableAudioOpen, AudioCraft и AudioLDM 2 для генерации музыки и аудио; CoquiTTS, MMS и SunoBark для преобразования текста в речь; OpenAI-Whisper и MMS для преобразования речи в текст; Wav2Lip для синхронизации губ; LivePortrait для анимации изображений; Roop для замены лиц; Rembg для удаления фона; CodeFormer для восстановления лиц; PixelOE для пикселизации изображений; DDColor для раскрашивания изображений; LibreTranslate и SeamlessM4Tv2 для перевода текста; Demucs и UVR для разделения аудиофайлов; RVC для преобразования голоса. Вы также можете просматривать файлы из выходной директории в галерее, загружать модели LLM и StableDiffusion, изменять настройки приложения внутри интерфейса и проверять системные датчики.
Цель проекта - создать максимально простое в использовании приложение для работы с моделями нейронных сетей.
Install
и Update
1) Сначала установите все Необходимые зависимости
2) Git clone https://github.com/Dartvauder/NeuroSandboxWebUI.git
в любое место
3) Запустите Install.bat
, выберите свою версию и дождитесь установки
4) После установки запустите Start.bat
и пройдите начальную настройку
5) Дождитесь запуска приложения и перейдите по ссылке из терминала
6) Теперь вы можете начинать генерацию. Наслаждайтесь!
Update.bat
Venv.bat
1) Сначала установите все Необходимые зависимости
2) Git clone https://github.com/Dartvauder/NeuroSandboxWebUI.git
в любое место
3) Запустите ./Install.sh
, выберите свою версию и дождитесь установки
4) После установки запустите ./Start.sh
и пройдите начальную настройку
5) Дождитесь запуска приложения и перейдите по ссылке из терминала
6) Теперь вы можете начинать генерацию. Наслаждайтесь!
./Update.sh
./Venv.sh
Прежде всего, я хочу поблагодарить разработчиков PyCharm и GitHub. С помощью их приложений я смог создать и поделиться своим кодом
gradio
- https://github.com/gradio-app/gradiotransformers
- https://github.com/huggingface/transformersauto-gptq
- https://github.com/AutoGPTQ/AutoGPTQautoawq
- https://github.com/casper-hansen/AutoAWQexllamav2
- https://github.com/turboderp/exllamav2coqui-tts
- https://github.com/idiap/coqui-ai-TTSopenai-whisper
- https://github.com/openai/whispertorch
- https://github.com/pytorch/pytorchcuda-python
- https://github.com/NVIDIA/cuda-pythongitpython
- https://github.com/gitpython-developers/GitPythondiffusers
- https://github.com/huggingface/diffusersllama.cpp-python
- https://github.com/abetlen/llama-cpp-pythonstable-diffusion-cpp-python
- https://github.com/william-murray1204/stable-diffusion-cpp-pythonaudiocraft
- https://github.com/facebookresearch/audiocraftxformers
- https://github.com/facebookresearch/xformersdemucs
- https://github.com/facebookresearch/demucslibretranslatepy
- https://github.com/argosopentech/LibreTranslate-pyrembg
- https://github.com/danielgatis/rembgsuno-bark
- https://github.com/suno-ai/barkIP-Adapter
- https://github.com/tencent-ailab/IP-AdapterPyNanoInstantMeshes
- https://github.com/vork/PyNanoInstantMeshesCLIP
- https://github.com/openai/CLIPrvc-python
- https://github.com/daswer123/rvc-pythonaudio-separator
- https://github.com/nomadkaraoke/python-audio-separatorpixeloe
- https://github.com/KohakuBlueleaf/PixelOEk-diffusion
- https://github.com/crowsonkb/k-diffusionopen-parse
- https://github.com/Filimoa/open-parseAudioSR
- https://github.com/haoheliu/versatile_audio_super_resolutionsd_embed
- https://github.com/xhinker/sd_embedtriton
- https://github.com/triton-lang/triton/