Разработчики приложения DeepNude, которое может «удалять» одежду с фотографии человека, временно закрыли сервис. Об этом они сообщили в своем твиттере.
«DeepNude пока оффлайн. Почему? Потому что мы не ожидали наплыва посетителей, и наши серверы не справляются», – говорится в сообщении.
По словам создателей программы, им «нужно исправить некоторые ошибки и отдышаться». Они также отметили, что работают над тем, чтобы приложение работало стабильно. По словам создателей программы, DeepNude снова заработает через несколько дней.
Суть приложения заключается в том, что в компьютер загружается фотография человека, а оно «удаляет» его одежду при помощи технологии нейронных сетей. Лучше подлежат обработке снимки, на которых одежды немного изначально – например, фото девушек в купальниках.
На обнаженных фотографиях DeepNude автоматически ставит пометку, что это подделка. Но ее можно убрать – при наличии преимум-подписки за 50 долларов.
Пока что в приложении раздевать можно только женщин. Разработчик намерен «научить» его раздевать и мужчин.
Приложение работает в операционных системах Windows или Linux. Для мобильных устройств сервис пока не доступен.
Между тем, веб-аналитик «Лаборатории Касперского» Владислав Тушканов отметил в комментарии Rambler News Service, что приложение может стать причиной психологических детских травм из-за массового интернет-буллинга.
«Созданная в подобном приложении фотография или видео может стать причиной интернет-травли, в том числе массовой. Особенно высок этот риск для детей, когда травля в школе может привести к психологической травме», — передаёт пресс-служба компании слова Тушканова.
Во избежание эксцессов он посоветовал ограничить количество данных, которые пользователи публикуют в интернете, в том числе фотографии, или установить правильные настройки приватности в социальных сетях, дабы на фотографии не смотрели все подряд.
Эусперт также напомнил, что случай с DeepNude при этом не первый. Еще в конце 2017 года появилось приложение DeepFake, которое позволяло заменять лицо человека на видео.
«Это могли быть как шуточные видео, так и видео «взрослого» содержания. Как и с предыдущим методом, DeepNude оставляет заметные артефакты, по которым можно понять, что фото является фейком», — пояснил Тушканов.