Intel випустила AI-інструмент для оцінки якості зображення в іграх у реальному часі

Intel Computer Graphics Video Quality Metric

Intel презентувала новий AI інструмент під назвою Computer Graphics Visual Quality Metric для об’єктивного вимірювання якості зображення в сучасних іграх. Про це пише Tom’s Hardware. Інструмент вже доступний на GitHub у вигляді PyTorch-додатку.

Сучасні ігри майже ніколи не відображають кадри безпосередньо з рендерингу — більшість кадрів проходять через апскейлінг (DLSS, FSR, XeSS), генерацію кадрів, трасування променів або інші методи. Це породжує численні артефакти, такі як:

  • “примари” (ghosting),
  • мерехтіння (flicker),
  • спотворення (aliasing),
  • помилки при виведенні об’єктів (disocclusion).

Раніше якість таких зображень оцінювали суб’єктивно або за допомогою неідеальних метрик, наприклад PSNR, що більше підходить для відеокодеків, а не для рендерингу в реальному часі.

Як працює AI інструмент?

Intel представила подвійний підхід:

1. База даних: створено новий набір CGVQD (Computer Graphics Visual Quality Dataset) — колекцію відео з артефактами, притаманними сучасним технологіям рендерингу. Сюди входять:

    • трасування променів;
    • нейронне згладжування шуму;
    • нейросуперсамплінг (DLSS, FSR, XeSS);
    • Gaussian splatting;
    • інтерполяція кадрів;
    • процес застосування шейдингу;

    2. AI-модель: спеціально навчена модель CGVQM аналізує відео та присвоює об’єктивний рейтинг якості. Вона враховує широкий спектр візуальних спотворень, які традиційні метрики не фіксують.

    З появою CGVQM Intel відкриває нову еру оцінювання графіки у відеоіграх. Завдяки поєднанню якісного датасету та машинного навчання, оцінка якості більше не буде базуватись лише на суб’єктивному сприйнятті. Інструмент уже доступний на GitHub для відкритого використання.


    Телеграм double.newsТелеграм double.news

    Схожі Новини