Вийшов DragGAN – ШІ, що вміє крутити все підряд

Вчені з Google і декількох університетів опублікували відкритий код нейромережі DragGAN, що може маніпулювати об’єктами або їх фрагментами на фотографіях.

DragGAN виявився здатний працювати з об’єктами різних типів. У демонстраційному відео, розробники нейромережі змінили вирази облич людей, змушуючи собак сісти або дивитись у камеру, а також коригували зовнішній вигляд автомобілів.

Цікаво, що нейромережа взаємодіє не лише з об’єктом, але й з його оточенням. Іноді це призводить до невдалого результату: штучний інтелект не завжди якісно домальовує або трансформує фони. Схоже, що найменше проблем виникає з об’єктами на білому фоні.

Згідно з розробниками, DragGAN має працювати як на відеокартах з CUDA-ядрами, так і на чіпах без підтримки цієї технології. Процесори M1 і M2, створені Apple, також підтримуються.

Розробники проекту не уточнили, яке потужне обладнання буде необхідне для використання DragGAN. Нейромережу можна використовувати як під Linux і Mac OS, так і під Windows.

DragGAN – це вражаючий приклад того, як глибоке навчання і нейронні мережі можуть трансформувати наш підхід до обробки зображень. Ця технологія може відкрити нові горизонти в областях, як-то графічний дизайн, редагування фотографій, кіно і багато іншого.


Телеграм double.newsТелеграм double.news

Схожі Новини
Drive and Listen

Drive and Listen: катайтесь вулицями Лондона, Берліна, Токіо та слухайте місцеве радіо

Уявіть, що ви їдете вузькими вуличками Парижа, швидкісними магістралями Лос-Анджелеса чи серед жвавого натовпу Токіо, а з динаміків лунає місцеве радіо. Вам не потрібно бронювати квитки чи збирати валізи – усе це можливо завдяки сервісу Drive and Listen.
Детальніше
QR код

Як сканувати QR-код за допомогою смартфона: швидка інструкція

QR-коди давно стали частиною повсякденного життя — від меню в кафе до швидкої авторизації в застосунках. Але не всі знають, як правильно їх сканувати зі свого смартфона. У цій статті пояснюємо, як це зробити на iPhone та Android, без додаткових програм.
Детальніше