La questione del frame rate sembra avere assunto un’enorme importanza nell’immaginario dei giocatori, in particolare da quando le console di nuova generazione hanno tentato – fin’ora con risultati scarsi – di avvicinarsi al mondo PC dal punto di vista della resa visiva. Ogni volta che si parla di frame rate e si snocciolano dati, però, il pubblico reagisce in maniera scomposta e disgiunta, scatenando delle discussioni nelle quali emerge una certa confusione sull’argomento. Dunque, che cos’è il frame rate? È davvero così importante?
Lo sguardo difettoso
Prima di tutto, parliamo di occhi. O, più precisamente, dell’occhio umano. Il grande regista svedese Ingmar Bergman definì il cinema come una stregoneria possibile solo grazie a un banale difetto dei nostri occhi. Fino alla prima metà del novecento, infatti, si parlava del cinema come di una tecnologia possibile solo grazie al fenomeno della persistenza retinica, la capacità dei nostri occhi di “trattenere” un’immagine per un tempo breve ma significativo, pari a circa un sedicesimo di secondo. Questo fenomeno, in realtà, spiega solo parzialmente il perché una serie di fotografie in sequenza ci dia l’illusione del movimento. Il cinema – o, in generale, gli audiovisivi composti da sequenze di immagini – ci danno l’illusione del movimento a causa del cosiddetto fenomeno Phi, un meccanismo illusorio del nostro cervello che è spinto a percepire un senso di movimento in una successione di immagini consecutive da un punto di vista spaziale.
Sia nel fenomeno della persistenza retinica che nel fenomeno Phi, tuttavia, il dato fondamentale riguarda la frequenza delle immagini che vengono sottoposte ai nostri occhi: maggiore è tale frequenza, minore è il rischio che il fenomeno Phi e quello della persistenza retinica si inceppino. Per questa ragione, il cinema – nato con una frequenza di 16 fotogrammi al secondo – venne portato a 24 fotogrammi al secondo nel giro di qualche anno. Perché, sebbene 16 fotogrammi al secondo sia il valore minimo per ottenere un accettabile senso di movimento, il nostro cervello percepisce un movimento più naturale aumentando questa frequenza.
Quando parliamo di videogiochi, spesso leggiamo affermazioni che parlano della presunta incapacità dell’occhio umano di percepire frequenze superiori a un dato valore di fotogrammi al secondo. Nello specifico, talvolta assistiamo a commenti di persone convinte che oltre i 40 o 50 fotogrammi al secondo l’occhio umano non sia in grado di percepire alcuna differenza. Tale affermazione è, in realtà, un mito: i nostri nervi sono in grado di trasmettere circa 1000 impulsi al secondo e, conseguentemente, i nostri occhi potrebbero raggiungere tale incredibile frequenza. Nella realtà, un occhio di un essere umano può vedere segnali luminosi di una durata media pari ad appena 1/150 di secondo in una stanza buia, valore che si dimezza per occhi particolarmente allenati come quelli dei piloti di caccia e, perché no, dei giocatori professionisti. Ne deduciamo che, se messo di fronte a un videogioco che gira a 60 fps e uno che gira a 150 fps, qualunque essere umano sia in grado di distinguere la differenza. Questo, tuttavia, non ci dice perché sia importante avere un alto frame rate né, soprattutto, se sia realmente necessario.
Una questione di medium
Prima di tutto, non è detto che un alto frame rate sia sempre la scelta giusta. Nel cinema, ad esempio, è opinione diffusa che un frame rate superiore ai tradizionali 24 fotogrammi al secondo provochi un deterioramento della resa visiva complessiva. Questo avviene perché la bassa frequenza nel cinema favorisce la presenza del “mosso”, che nel mondo dei videogiochi è più noto con il nome di motion blur. Registrando immagini in movimento a bassa frequenza, infatti, queste tenderanno ad apparire sfocate e a mascherare gli elementi posticci che fanno parte dei set cinematografici. Il nostro cervello, di fronte a una bassa frequenza, percepisce di trovarsi di fronte a uno spettacolo, a qualcosa di irreale ed è pertanto disposto ad accettare le convenzioni del cinema (il montaggio, la recitazione, la presenza di effetti speciali). Se si aumenta tale frequenza, il cervello inizia a perdere la sua “sospensione di giudizio” e va in corto circuito: ciò che normalmente viene accettato perché inconsciamente riconosciuto come “finto” diventa improvvisamente “reale”, e i nostri occhi iniziano a vedere ciò che nel cinema è illusione. Un esempio concreto di ciò lo si nota nel film Lo Hobbit di Peter Jackson, girato a 48 fotogrammi al secondo e spesso criticato per la resa innaturale della pellicola.
Il videogioco, invece, è un’esperienza fortemente immersiva nella quale il giocatore ha spesso il controllo della telecamera e del movimento. La sospensione di giudizio tipica del cinema qui non si innesca, in quanto il giocatore in controllo del punto di vista si trova a proiettare i propri occhi all’interno dello schermo. Così, una bassa frequenza ci può apparire innaturale, in quanto i nostri occhi – come detto prima – sono naturalmente in grado di raggiungere frequenze ben più alte. È opinione diffusa che, nel mondo dei videogiochi, i 60fps siano il minimo per ottenere un senso di movimento fluido e naturale. In effetti, pur considerando che fino a 150fps l’occhio umano sia in grado di distinguere la differenza, possiamo altresì affermare che oltre i 60 fotogrammi al secondo il senso di naturalezza delle immagini in movimento del videogioco si possa dire raggiunto. O, se vogliamo, la differenza di un videogioco che gira a 60 e uno che gira a 120 fotogrammi al secondo non è così drammatica come la differenza tra un videogioco che gira a 30 e uno che gira a 60.
Balbuzie
Questo ci porta a un altro problema: lo stuttering. Nel cinema e nella televisione, questo fenomeno è assente in quanto i flussi audiovisivi procedono a una frequenza costante. In un videogioco, dove l’audiovisivo viene generato in tempo reale, non è detto che il frame rate sia stabile. Un calo (o un’accelerazione) nella frequenza dei fotogrammi viene notato dall’occhio umano in maniera pressoché istantanea, provocando nello spettatore/giocatore una sensazione fastidiosa, che lo può addirittura portare a perdere la coordinazione occhio-mano necessaria per controllare un videogioco. Per questa ragione molti sviluppatori – in particolare su console – hanno introdotto il cosiddetto frame rate lock, uno strumento che blocca la frequenza dei fotogrammi a un numero costante, solitamente inferiore al massimo numero raggiungibile dal videogioco in condizioni normali. Così, se un videogioco per console in fase di test mostra un frame rate che oscilla tra i 30 e i 60 fps, gli sviluppatori nella stragrande maggioranza dei casi bloccheranno il frame rate a 30, al fine di evitare lo stuttering, a discapito della fluidità.
Su PC il frame rate lock è quasi sempre affidato a un’opzione selezionabile dal giocatore, in quanto il mercato del gaming per personal computer è caratterizzato da una enorme varietà di hardware, con differenti capacità grafiche. Un giocatore in possesso di un hardware di fascia bassa potrebbe scegliere di bloccare il frame rate a una frequenza ragionevolmente bassa, pur di evitare dei vistosi fenomeni di stuttering. Vi sono altre ragioni per cui il frame rate lock potrebbe risultare cruciale per migliorare la resa grafica (vedi alla voce “sincronia verticale”), ma non ce ne occuperemo in questo articolo.
In conclusione, la febbre dei 60fps che sembra avere contagiato un gran numero di giocatori con il lancio della nuova generazione ha ragion d’essere. Anche se non tutti i generi videoludici necessitano di elevati frame rate, in generale una frequenza di almeno 60fps garantisce l’amplificazione del senso di immersività che il videogioco sa innescare meglio di qualunque altro medium. Al contempo, è cruciale che tale frequenza si mantenga stabile affinché il giocatore possa mantenere la propria coordinazione e la concentrazione. In altre parole: sì, fate generalmente bene ad arrabbiarvi quando i videogiochi contemporanei faticano a raggiungere i 60fps e sì, nel futuro del gaming console ci attendiamo un maggior numero di prodotti ad alta frequenza dei fotogrammi. Se aggiungiamo all’equazione la realtà virtuale, poi, la cosa si fa ancora più importante. Infine, una nota polemica: inutile pretendere la grafica ultrarealistica quando questa fatica a raggiungere una frequenza accettabile e, soprattutto, stabile.