Автоматизированное высококачественное удаление фона с изображения с использованием нейронных сетей
В настоящее время решения для удаления фона имеют высокий спрос в различных областях:
- 📢 Рекламная индустрия: в данном случае удаление фона необходимо, чтобы создавать различные рекламные материалы, баннеры и логотипы. Это позволяет ускорить и облегчить работу дизайнеров, так как ручное удаление фона занимает много времени. Также, необходимо учитывать необходимость в высококачественных изображениях, это играет важную роль в восприятии различных рекламных товаров.
- 🛒 Продажа товаров через интернет: для сферы электронной коммерции, где важно представить товар в наиболее выгодном свете и более качественно презентовать с целью продажи, удаление фона является важной частью процессов. Например, торговая площадка “Amazon” имеет строгие рекомендации по изображению продукта, включая требование о том, чтобы основное изображение было хорошего качества на чистом белом фоне. Это правило гарантирует, что основное внимание остается исключительно на продукте, и обеспечивает единый внешний вид товаров на их платформе.
- 🏥 Медицинские и научные исследования и диагностика: для таких видов исследований как компьютерная томография и магнитно-резонансная томография удаление фона может решать такую задачу как получение более качественных изображений для диагностики различных заболеваний, в том числе и на ранних стадиях.
- 👁️ Компьютерное зрение и искусственный интеллект: удаление фона широко используется в области компьютерного зрения и искусственного интеллекта для обнаружения и классификации объектов на изображениях. Путем удаления фона можно упростить процесс обработки изображений и увеличить точность алгоритмов распознавания объектов. Одним из вариантов является использование в научной области ядерной техники и радиационной безопасности для визуализации радиоактивных материалов, для обработки изображений и отображения данных, что способствует более точному анализу, классификации и управлению радиоактивными материалами и обеспечению безопасности. Удаление фона используется в различных прикладных решениях в разных областях. Программный комплекс можно переконфигурировать под различные задачи и нужды.
Мы собрали обширный набор данных, охватывающий наиболее распространенные классы объектов, предназначенных для удаления фона.
Он включает фотографии объектов, принадлежащих 9 различным классам.
Класс объектов | Кол-во изображений |
---|---|
🚗 автомобили | 1878 |
👗 одежда | 1840 |
🏠 предметы быта | 1878 |
📱 электроника | 1806 |
🧸 детские игрушки | 1785 |
🍳 кухонные принадлежности | 1878 |
👨👩👧👦 люди | 1777 |
🏡 объекты в жилых помещениях | 1777 |
🐾 животные | 1878 |
Общее количество изображений в наборе данных: 16 497.
- CarveSet - содержит 3 172 изображения высокого качества размером примерно 2500x2500 пикселей, собранных вручную из Pexels, Unsplash.
- SOPG - состоит из 13 325 изображений, увеличенных в 4 раза из набора данных SOPG, размером примерно 2048x1536 пикселей.
Более подробная информация: Набор данных CarveSet
- Высокое качество выходного изображения
- Работает в автономном режиме
- Пакетная обработка изображений
- Поддержка NVIDIA CUDA и процессорной обработки
- Поддержка FP16: быстрая обработка с низким потреблением памяти
- Легкое взаимодействие и запуск
- 100% совместимое с remove.bg API(REST API реализован при посредством FastAPI)
- Удаляет фон с волос
- Автоматический выбор лучшего метода для изображения пользователя
- Простая интеграция с вашим кодом
- Модели размещены на HuggingFace
-
Центральный процессор (CPU): Intel(R) Core(TM) i9-12900F или аналогичный процессор.
-
Графический процессор (GPU): NVIDIA RTX 3090.
-
Оперативная память (RAM): Минимум 32 ГБ оперативной памяти.
-
Свободное место на жестком диске: SSD не менее 512 ГБ свободного места на диске.
-
Операционная система (OS): Arch Linux
Для полноценной работы программного комплекса следует учитывать следующие минимальные технические требования:
-
Центральный процессор (CPU): Intel(R) Core(TM) i7-12700H или аналогичный процессор.
-
Графический процессор (GPU): GeForce RTX 3070 Mobile / Max-Q.
-
Оперативная память (RAM): Минимум 16 ГБ оперативной памяти.
-
Свободное место на жестком диске: Не менее 10 ГБ свободного места на диске для установки программного комплекса и моделей, без учета внешних зависимостей.
-
Операционная система (OS): Arch Linux.
Обратите внимание, что программа может работать как на графическом процессоре (GPU), так и на центральном процессоре (CPU). Однако, производительность на CPU может быть ниже, и некоторые функции могут быть ограничены. Важно иметь в виду, что указанные характеристики представляют собой минимальные требования, при которых работа программного комплекса гарантирована. На устройствах с более высокими характеристиками комплекс будет работать более эффективно и быстро.
Тем не менее, на устройствах, не соответствующих указанным минимальным требованиям, корректный запуск и работа программного комплекса не гарантируются, но теоретически могут быть возможными, в зависимости от конкретной ситуации и настроек. Рекомендуется провести тестирование на собственном устройстве, чтобы оценить производительность и возможности программы. Также некоторые возможности могут быть ограничены, например пакетная обработка изображений может быть недоступна на устройствах с низкими характеристиками. В частности может быть недоступна обработка изображений с высоким разрешением при определенных настройках ПО.
# Arch/Arch-based
pacman -S lib32-libglvnd
# Debian/Ubuntu
apt install libgl1
pip install git+https://github.com/OPHoperHPO/freezed_carvekit_2023 --extra-index-url https://download.pytorch.org/whl/cpu
Проект поддерживает версии Python от 3.8 до 3.10.4.
В ходе работы программного комплекса на ЦП вы можете увидеть следующее предупреждение
UserWarning: The CascadePSP finetuned model has an extremely slow processing bug on the CPU. Use GPU to load it. Using pretrained model instead.
В связи с внутренними особенностями модели и/или PyTorch дообученная на нашем наборе данных модель не может быть использована на ЦП, в связи с чем используется стандартная. В связи с тем, что обработка на ЦП не является приоритетной для проекта и устройство соответствующее минимальным техническим требованиям способно обрабатывать изображения при помощи ГП, задача по исследованию и, возможно, устранению этой проблемы имеет низкий приоритет
- Убедитесь, что у вас есть графический процессор NVIDIA с 8 ГБ видеопамяти.
- Установите
CUDA Toolkit и Видеодрайвер для вашей видеокарты.
# Arch/Arch-based
pacman -S lib32-libglvnd glib2 lib32-libglvnd
# Debian/Ubuntu
apt install libgl1 libglib2.0-0
pip install git+https://github.com/OPHoperHPO/freezed_carvekit_2023 --extra-index-url https://download.pytorch.org/whl/cu113
Проект поддерживает версии Python от 3.8 до 3.10.4. Пожалуйста, соберите и установите carvekit прямо из этого репозитория. Не используйте готовые двоичные файлы из PyPI или других уже имеющихся ссылок. Это только для основного репозитория.
В ходе работы программного комплекса на ГП вы можете увидеть следующее предупреждение при определенных настройках CascadePSP.
Batch size > 1 is experimental feature for CascadePSP. Please, don't use it if you have GPU with small memory!
Данное предупреждение означает, что вы используете пакетную обработку изображений с размером пакета больше 1. Вы можете его игнорировать, если у вас достаточно видеопамяти. В противном случае рекомендуется уменьшить размер пакета до 1.
🏓 Игрушка 📱Смартфон 🍜 Тарелка 🥾Туфли
from typing import Union
from carvekit.api.autointerface import AutoInterface
from carvekit.ml.wrap.deeplab_v3 import DeepLabV3
from carvekit.ml.wrap.isnet import ISNet
from carvekit.ml.wrap.scene_classifier import SceneClassifier
from carvekit.ml.wrap.tracer_b7 import TracerUniversalB7
from carvekit.ml.wrap.u2net import U2NET
from carvekit.ml.wrap.yolov4 import SimplifiedYoloV4
# Параметры trimap указаны для изображений-примеров в docs/imgs/example_images!
# Для ваших изображений может потребоваться дополнительная настройка согласно документации!
# override the default trimap parameters for the networks
def select_params_for_net(net: Union[TracerUniversalB7, U2NET, DeepLabV3]):
"""
Selects the parameters for the network depending on the scene
Args:
net: network base class
"""
if net == TracerUniversalB7: # Objects
return {
"trimap_generator": {
"prob_threshold": 231,
"kernel_size": 30,
"erosion_iters": 5,
},
"matting_module": {"disable_noise_filter": False},
"refining": {"enabled": True, "mask_binary_threshold": 128},
}
elif net == ISNet: # Hairs on the simple background
return {
"trimap_generator": { # Check TrimapGenerator doc string for more information
"prob_threshold": 100,
"kernel_size": 30,
"erosion_iters": 5,
"filter_threshold": 20,
},
"matting_module": {"disable_noise_filter": True}, # Check FBA Matting doc string for more information
"refining": {"enabled": False, "mask_binary_threshold": 128}, # Check Cascade PSP doc string for more information
}
else:
raise ValueError("Unknown network type")
scene_classifier = SceneClassifier(device="cpu", batch_size=1)
object_classifier = SimplifiedYoloV4(device="cpu", batch_size=1)
interface = AutoInterface(scene_classifier=scene_classifier,
object_classifier=object_classifier,
segmentation_batch_size=1,
postprocessing_batch_size=1,
postprocessing_image_size=2048,
refining_batch_size=1,
refining_image_size=900,
segmentation_device="cpu",
fp16=False,
postprocessing_device="cpu",
override_trimap_params=select_params_for_net)
images_without_background = interface(['./docs/imgs/example_images/cat.jpg'])
cat_wo_bg = images_without_background[0]
cat_wo_bg.save('2.png')
import torch
from carvekit.api.high import HiInterface
# Параметры trimap требуют корректировки!
# Check doc strings for more information
interface = HiInterface(object_type="auto", # Can be "object" (tracer-b7) or "hairs-like" (isnet) or "auto" (autoscene)
batch_size_seg=5,
batch_size_pre=5,
batch_size_matting=1,
batch_size_refine=1,
device='cuda' if torch.cuda.is_available() else 'cpu',
seg_mask_size=960, # Use 960 for Tracer B7 and 1024 for ISNet
matting_mask_size=2048,
refine_mask_size=900,
trimap_filter_threshold=-1, # -1 for disable
trimap_prob_threshold=231,
trimap_dilation=30,
trimap_erosion_iters=5,
fp16=False)
images_without_background = interface(['./tests/data/cat.jpg'])
cat_wo_bg = images_without_background[0]
cat_wo_bg.save('2.png')
import PIL.Image
from carvekit.api.interface import Interface
from carvekit.ml.wrap.fba_matting import FBAMatting
from carvekit.ml.wrap.scene_classifier import SceneClassifier
from carvekit.ml.wrap.cascadepsp import CascadePSP
from carvekit.ml.wrap.tracer_b7 import TracerUniversalB7
from carvekit.pipelines.postprocessing import CasMattingMethod
from carvekit.pipelines.preprocessing import AutoScene
from carvekit.trimap.generator import TrimapGenerator
# Параметры trimap требуют корректировки!
# Check doc strings for more information
seg_net = TracerUniversalB7(device='cpu',
batch_size=1, fp16=False) # or ISNet, DeepLabV3, etc
cascade_psp = CascadePSP(device='cpu',
batch_size=1,
input_tensor_size=900,
fp16=False,
processing_accelerate_image_size=2048,
global_step_only=False)
fba = FBAMatting(device='cpu',
input_tensor_size=2048,
batch_size=1, fp16=False)
trimap = TrimapGenerator(filter_threshold=-1, prob_threshold=231, kernel_size=30, erosion_iters=5)
scene_classifier = SceneClassifier(device='cpu', batch_size=5)
preprocessing = AutoScene(scene_classifier=scene_classifier) # or None
postprocessing = CasMattingMethod( # or MattingMethod
refining_module=cascade_psp,
matting_module=fba,
trimap_generator=trimap,
device='cpu')
interface = Interface(pre_pipe=preprocessing,
post_pipe=postprocessing,
seg_pipe=seg_net)
image = PIL.Image.open('tests/data/cat.jpg')
cat_wo_bg = interface([image])[0]
cat_wo_bg.save('2.png')
python3 -m carvekit -i <input_path> -o <output_path> --device <device>
Usage: carvekit [OPTIONS]
Performs background removal on specified photos using console interface.
Options:
-i ./2.jpg Путь до входного файла или директории. Путь до ДИРЕКТОРИИ должен
быть указан при использовании --recursive [обязателен]
-o ./2.png Путь для сохранения результата обработки. По умолчанию:
/<путь до исходного файла>/<имя файла>_bg_removed.png
--pre [none|autoscene|auto] Метод предобработки, по умолчанию: autoscene
--post [none|fba|cascade_fba]
Метод постобработки, по умолчанию: cascade_fba
--net [u2net|deeplabv3|basnet|tracer_b7|isnet]
Нейронная сеть для сегментации, по умолчанию: tracer_b7
--recursive Включение рекурсивного поиска изображений в папке
--batch_size 10 Размер пакета изображений, загруженных в ОЗУ
--batch_size_pre 5 Размер пакета для списка изображений, которые будут обрабатываться
методом предварительной обработки
--batch_size_seg 5 Размер пакета изображений для обработки с помощью
сегментации
--batch_size_mat 1 Размер пакета изображений для обработки с помощью
матирования
--batch_size_refine 1 Размер пакета для списка изображений, которые будут обрабатываться уточняющей сетью
--seg_mask_size 960 Размер исходного изображения для сегментирующей
нейронной сети
--matting_mask_size 2048 Размер исходного изображения для матирующей
нейронной сети
--refine_mask_size 900 Размер входного изображения для уточняющей нейронной сети.
--trimap_filter_threshold -1 Пороговое значение для фильтрации маски объекта.
-1 для отключения фильтрации. (см. документацию)
--trimap_dilation 30 Размер радиуса смещения от маски объекта в пикселях при
формировании неизвестной области
--trimap_erosion 5 Количество итераций эрозии, которым будет подвергаться маска
объекта перед формированием неизвестной области.
--trimap_prob_threshold 231 Порог вероятности, при котором будут применяться
операции prob_filter и prob_as_unknown_area
--device cpu Устройство обработки.
--fp16 Включает обработку со смешанной точностью.
Не поддерживается для модели U2NET
Используйте только с CUDA. Поддержка процессора является экспериментальной!
--help Показать это сообщение и выйти.
Использование API через Docker — это быстрый и эффективный способ получить работающий API.\
- Образ Docker имеет фронтенд по умолчанию по адресу
/
и документацию к API по адресу/docs
.- Обратите внимание, после нажатия кнопки "Remove background" возможно длительное ожидание при условии обработки первого ихображения. Последующие обрабатываются быстрее. Отслеживать статус текущего запроса можно в инструментах разработчика в браузере на вкладке "Сеть". Возможно в будущих версиях интерфейс будет удобнее, но на текущий момент web версия не является приоритетной, поскольку реализует лишь демонстрацию возможностей, которая возможна и при помощи CLI и кода.
- Аутентификация включена по умолчанию.
Ключи доступа сбрасываются при каждом перезапуске контейнера, если не установлены специальные переменные окружения.
docker-compose.<device>.yml
для более подробной информации.- При использовании настроек по умолчанию для использования фронтентда требуется API ключ.
Вы должны посмотреть свои ключи доступа в логах докер-контейнера. В первой строке логов контейнера api.
"auth":{"auth":true,"admin_token":"….","allowed_tokens":["…"]}}
admin_token — это ключ, который вы можете использовать для доступа к обработке на фронтенд, /api/removebg, /api/admin/config.
allowed_tokens — это ключи, которые вы можете использовать для доступа к обработке на фронтенд, /api/removebg.- Примеры работы с API.
См.docs/code_examples/python
для уточнения деталей
- Установите
docker, docker-compose, дополнительные зависимости для хост системы. (см. ниже)
- Соберите образ:
docker-compose -f docker-compose.cpu.yml build
для обработки на ЦП - или
docker-compose -f docker-compose.cuda.yml build
для обработки на ГП. - Запустите
docker-compose -f docker-compose.cpu.yml up -d
# для обработки на ЦП - Запустите
docker-compose -f docker-compose.cuda.yml up -d
# для обработки на ГП
Также вы можете монтировать папки с вашего компьютера в docker container и использовать интерфейс командной строки внутри контейнера докера для обработки файлов в этой папке.
С 30.05.2024 сборка Docker образа из России может быть затруднена в связи с ограничениями со стороны DockerHub. При сборке обязательно выполните настройку зеркал для Docker Registry, которые доступны из вашего региона. Список зеркал доступен в интернете. Инструкция по настройке зеркал docker daemon
При сборке контейнера могут появиться предупреждения вида
debconf: delaying package configuration, since apt-utils is not installed
Предупреждение связано с некорректно составленным базовым образом python и не может быть исправлено. В связи с тем, что на работоспособность и результаты сборки это предупреждение не влияет, игнорируйте его появление
Так же при запуске с использованием ГП требуется установить дополнительные зависимости для доступа к ГП со стороны Docker.
Для Arch-based дистрибутивов установите пакеты nvidia-container-toolkit nvidia-container-runtime из aur
yay -S nvidia-container-toolkit nvidia-container-runtime
Для Debian-based дистрибутивов следуйте инструкциям Nvidia Создание docker образа в Windows официально не поддерживается. Однако вы можете попробовать использовать WSL2 или «Linux container mode» в Docker Desktop.
pip install -r requirements_test.txt
pytest
- Запустите
docker-compose -f docker-compose.cpu.yml run carvekit_api pytest
# для тестирования на ЦП - Run
docker-compose -f docker-compose.cuda.yml run carvekit_api pytest
# для тестирования на GPU
👪 Ссылки, структура репозития и другая информация: Больше информации
Буду рад отзывам о проекте и предложениям об интеграции.
По всем вопросам писать: farvard34@gmail.com