Una nuova frontiera nella valutazione della qualità visiva dei videogiochi e delle applicazioni di grafica in tempo reale è stata inaugurata da Intel con il lancio di CGVQM, uno strumento open source pensato per ridefinire gli standard del settore.
Questa innovazione si distingue per la capacità di misurare in modo preciso e oggettivo la resa grafica, superando le limitazioni delle metriche tradizionali e offrendo agli sviluppatori un alleato potente nella corsa verso immagini sempre più realistiche e coinvolgenti.
Strumenti precedenti
La storia della valutazione della qualità visiva nei videogiochi è stata per anni legata a strumenti come PSNR e SSIM, originariamente progettati per la compressione video e spesso inadeguati nell’analisi degli artefatti prodotti dalle moderne tecniche di rendering.
Con l’avvento di soluzioni come DLSS, FSR e XeSS, oltre a tecnologie emergenti quali path tracing e Gaussian splatting, si è reso necessario un approccio radicalmente nuovo, in grado di affrontare le sfide poste da effetti visivi complessi e dinamici.
La struttura di CGVQM
Al cuore di CGVQM si trova una sofisticata rete neurale convoluzionale 3D, basata sull’architettura 3D-ResNet-18. Questa è stata addestrata sul dataset proprietario CGVQD, che raccoglie 80 clip video provenienti da 15 ambienti 3D open source, ciascuna valutata da un panel di 20 persone sulla base della percezione della qualità.
Tale metodologia ha permesso allo strumento di sviluppare una sensibilità superiore nella rilevazione di difetti visivi come ghosting, flicker, aliasing e instabilità temporale, problematiche sempre più frequenti nei giochi di ultima generazione.
Due varianti
La versatilità di CGVQM si esprime attraverso due varianti: CGVQM-5, la versione più completa e precisa, ma anche più esigente dal punto di vista computazionale, e CGVQM-2, pensata per sistemi con risorse limitate.
Un aspetto particolarmente innovativo è la generazione automatica di mappe di errore dettagliate, che consentono agli sviluppatori di individuare con rapidità le aree problematiche, riducendo la necessità di lunghi test soggettivi e accelerando così i cicli di ottimizzazione.
Plugin dedicati
L’integrazione di CGVQM nei flussi di lavoro degli sviluppatori è resa agevole grazie a plugin dedicati per Unreal Engine e a hook per le API Vulkan. Questa compatibilità permette di monitorare costantemente la qualità visiva durante tutte le fasi di sviluppo, favorendo iterazioni rapide e un miglioramento continuo del prodotto finale. In particolare, la possibilità di ottenere feedback immediati sulla resa grafica rappresenta un vantaggio competitivo significativo in un settore dove il time-to-market è cruciale.
Ottimizzazione del path tracing
Uno degli ambiti di applicazione più interessanti è quello dell’ottimizzazione del path tracing. Qui, CGVQM si dimostra capace di determinare in modo automatico il numero minimo di sample per pixel necessari per raggiungere una qualità visiva equivalente alla reference, permettendo di ridurre drasticamente i tempi di rendering senza sacrificare la fedeltà delle immagini.
Questa caratteristica è particolarmente preziosa nell’era dei denoiser neurali, dove l’efficienza computazionale e la qualità percepita sono due fattori chiave per il successo delle produzioni videoludiche.
Nuove prospettive anche per l'AI
La natura differenziabile della metrica sviluppata da Intel apre inoltre nuove prospettive nell’ambito dell’intelligenza artificiale applicata al rendering. CGVQM può essere utilizzato come funzione di perdita nell’addestramento di reti neurali, orientando l’ottimizzazione verso la massimizzazione della qualità visiva percepita dall’utente finale.
Nonostante alcune limitazioni quando si lavora con dataset molto diversi da quelli utilizzati nell’addestramento iniziale, i test condotti hanno evidenziato una buona capacità di generalizzazione anche su contenuti inediti.
Se vuoi aggiornamenti su Software e App inserisci la tua email nel box qui sotto: