Uè uè, fermi! =D
Così m'ammazzate Gfx. =P
Dunque: cerchiamo di distinguere quando si parla di semicampi, fotogrammi o frame interi.
E' chiaro che il refresh di una TV, se non si prendono in considerazione i CRT a 100Hz, è sempre lo stesso, in NTSC, ovvero 60 refresh al secondo. Ora per banalizzare il tutto basterebbe dire che in progressivo ci sono 60 fotogrammi interi al secondo, mentre in interlacciato si alternano 60 volte al secondo le linee pari e le linee dispari. E fin qui immagino sia chiaro a tutti.
Cosa succede nei videogiochi? Paradossalmente i giochi che viaggiano a 60 fotogrammi al secondo sono i più penalizzati dall'interlacciatura, vediamo perchè. Immaginate un gioco a 30 fotogrammi al secondo: la console calcola nel frame buffer principale (spazio di memoria adibito ad immagazzinare l'immagine finale risultata dai calcoli) 30 fotogrammi interi al secondo. Questi verranno mostrati su una TV che si aggiorna 60 volte al secondo. Il risultato in interlacciato sarà:
righe pari del primo frame
righe dispari del primo frame
righe pari secondo frame
righe dispari secondo frame
etc.
Quindi in pratica i frame, anche se come sequenza di righe pari e dispari alternate, vengono effettivamente mostrati tutti nella loro interezza, non viene 'scartato' nulla.
Se invece prendiamo un gioco che calcola 60 frame buffer principali interi ogni secondo va da sè che avremo:
righe pari del primo frame
righe dispari del secondo frame
righe pari del terzo frame
righe dispari del quarto frame
etc.
Per cui la TV interlacciata riuscirà a mostrare effettivamente solo frame a RISOLUZIONE DIMEZZATA.
Ora, se il gioco è piuttosto statico non ci sono problemi: il primo frame assomiglia così tanto al secondo che le righe pari del secondo frame sono 'compatibili' con le dispari del primo, ergo non si ha una perdita evidente di risoluzione. Ma se il gioco è molto dinamico sarà NOTEVOLE la perdita di risoluzione verticale, fino a causare uno spiacevole aliasing (scalettatura).
Come ovviare a questo? Ci sono soluzioni non troppo dispendiose applicate sin dai tempi del DC (prima vera console in alta risoluzione, anche se già PSOne e Saturn qualche applicazione a 640*480 la avevano): la più efficacemente usata su DC (e quasi sempre ormai anche sulle altre console più recenti, 360 esclusa - ha algoritmi più potenti) è l'interpolazione di semicampi. In pratica prima di mandare a video un semicampo lo si 'amalgama' (si fa la risultante della componente colore di soli due pixel vicini) con il precedente (quindi si mettono insieme righe pari e righe dispari di due frame consecutivi) per cercare di colmare le lacune informative dell'interlacciatura.
Funziona, ma non è un vero antialiasing, tanto è vero che in progressivo, vista la natura prettamente interlacciata, non si applica.
Serve molto però nel caso di giochi con massicce porzioni di graficha bidimensionale (vedi picchiaduro in alta risoluzione come Guilty Gear), dato che nel qual caso talvolta le linee disegnate sono così sottili da essere spesse un solo pixel. Questa inconsueta sottigliezza renderebbe le linee sottili orizzontali invisibili nel 50% dei semicampi sparati a video (esempio: una riga orizzontale sottile come un pixel viene visualizzata solo nelle righe dispari di un frame buffer, scomparendo quando vengono visualizzate solo le pari). Ciò porta a quello che comunemente viene chiamato "flickerio da interlacciatura", artefatto terribilmente spaccaocchi e fastidioso.
Non ho concluso il discorso ma vado a nanna perchè mi sanguinano le dita e le cornee. =D
Se avete domande chiedete...
Che Gfx risponde. =P
P.S. Da quanto ne so io le telecamere DIV e le tipiche telecamere utilizzate nelle riprese televisive (e telenovele) filmano a 50/60 fotogrammi al secondo. I film invece sono a 25/30, nati dal formato cinematografico di 24 fotogrammi al secondo.
Il perchè voi vediate effetti scia o altro immagino dipenda dal tipo di filtro applicato all'immagine, o dal tipo di impressionamento della pellicola.
P.P.S. Ciups!