1. This site uses cookies. By continuing to use this site, you are agreeing to our use of cookies. Learn More.

[FAQ] Schede Video/grafica

Discussion in 'Hardware' started by Knight, Apr 27, 2013.

  1. Knight
    Sleepy

    Knight
    GF Admin
    Staff Member

    Messages:
    428
    Likes Received:
    162
    Trophy Points:
    43
    Cos'? una scheda video?


    La scheda video? il componente dei computer che mostra l'output di questi su un monitor.

    A seconda del tipo di computer questo dispositivo pu? essere pi? o meno potente: i primi modelli di scheda video potevano visualizzare solo testo; successivamente si sono diffusi anche schede video in grado di mostrare anche output grafici (immagini non testuali) e, recentemente, anche modelli tridimensionali texturizzati in movimento e in tempo reale. Questi ultimi tipi di scheda provvedono anche ad elaborare e modificare l'immagine nella propria memoria interna, per sollevare la CPU da una serie di calcoli molto pesanti. Per far questo una moderna scheda video integra al suo interno una GPU (Graphics processing unit), ossia un processore specializzato nel trattamento di immagini, e della memoria RAM.



    Architettura delle schede video


    Una tipica scheda video contiene un integrato grafico (o pi? di uno) che gestisce una certa quantit? di RAM dedicata a memorizzare i dati grafici da visualizzare e che risiede fisicamente sulla scheda stessa.

    Il funzionamento di una scheda video ?, in linea di massima: ogni locazione di RAM grafica contiene il colore di un pixel dello schermo, o di un carattere se la scheda sta visualizzando solo testo: il chip grafico si limita a leggere in sequenza le locazioni necessarie (se sta lavorando in modo testo, ogni locazione viene elaborata da un generatore di caratteri) e a pilotare un convertitore digitale-analogico, detto RAMDAC, che genera il segnale video che sar? visualizzato dal monitor. Dalla quantit? di RAM grafica che equipaggia la scheda e dalla velocit? (frequenza) massima del suo RAMDAC dipendono la risoluzione massima raggiungibile e il numero di colori contemporaneamente visibili.

    Tutte le schede video possono visualizzare anche grafica tridimensionale,ma senza funzioni apposite di accelerazione, l'intero lavoro di calcolo deve essere svolto, pixel per pixel, dalla CPU principale del computer, che viene spesso completamente assorbita da questo compito: una scheda grafica non tridimensionale si limita in pratica a visualizzare una serie di immagini bidimensionali che gli vengono inviate dal sistema.



    Schede video con accelerazione 2D


    A volte il chip grafico ? in grado di eseguire alcune funzioni grafiche in modo autonomo, senza che il processore principale debba intervenire: le schede grafiche con questi chip sono dette 2D accelerate, perch? possono svolgere da sole una parte del lavoro di disegno che altrimenti spetterebbe al processore. Le operazioni pi? comuni da implementare in hardware sono il tracciamento di linee, di archi e di forme geometriche semplici (poligoni, cerchi, ellissi) e il bit blitting (cio? lo spostamento da una parte all'altra dell'immagine di blocchi di pixel). ? in genere presente anche un generatore di caratteri evoluto, capace di funzionare anche in modalit? grafica e di visualizzare contemporaneamente caratteri di molti font e grandezze diverse.



    Schede video con accelerazione 3D


    Le schede video con capacit? grafiche tridimensionali (o 3D accelerate) hanno le stesse capacit? bidimensionali delle precedenti, e in pi? ne hanno una completamente nuova, la modalit? 3D appunto, in cui i pixel dell'immagine da visualizzare vengono calcolati dalla GPU, fotogramma per fotogramma, partendo da una serie di dati geometrici forniti dalla CPU.



    In questa modalit?, la RAM video contiene una serie di sottoimmagini, le texture. Ciascuna di queste viene associata ad una particolare superficie bidimensionale di un modello tridimensionale di cui ne costituisce la "pelle": volendo, si possono considerare le varie texture come delle carte da parati elettroniche. Per ogni fotogramma (frame) da visualizzare in modalit? 3D, la scheda video riceve dal processore una serie di punti geometrici (vertici) che specificano delle superfici in uno spazio tridimensionale con l'indicazione di quali texture applicare alle varie superfici: la GPU si occupa di calcolare, a partire dai dati ricevuti, se la particolare superficie sia visibile o no, e, se visibile, la sua forma in due dimensioni (coordinate schermo); poi si occupa di applicare la (o le) texture indicate. Il valore di ogni pixel viene quindi calcolato a partire da quali e quanti texel (i pixel delle texture) sono contenuti in esso.



    Ulteriori funzioni di accelerazione, utili per aumentare il livello di realismo delle immagini calcolate, sono il calcolo in hardware delle luci incidenti (Transform and Lighting o T&L), i pixel shader e vertex shader, il filtro anisotropico e il filtro antialiasing.



    Da cosa ? composta una scheda video?


    La scheda video ? composta principalmente dal PCB, GPU, Ram



    Cos'? il PCB?

    Il pcb o circuito stampato ? la base della scheda video dove si trovano allocati GPU RAM condensatori transistor ecc....

    Il PCB ? realizzato in Vetronite: La Vetronite, o vetro epossidico, ? un noto materiale isolante presente in quasi tutte le componenti elettroniche degli elettrodomestici di casa nostra.La vetronite ? un materiale abbastanza resistente e, sopratutto, molto isolante ? usato per creare i PCB o circuito stampato sulle quali verranno montati i componenti elettronici per realizzare i circuiti.

    La vetronite utilizzata per creare i circuiti stampati viene realizzata in forti volumi in appositi stabilimenti chimici a partire da vari strati di tessuto in fibra di vetro, che vengono sovrapposti, impregnati con una apposita resina ad alte temperature, e laminati nella forma finale. Le propriet? fisiche finali della vetronite sono determinate da quelle della resina. Fondamentalmente le caratteristiche pi? importanti riguardano la resistenza della vetronite alle alte temperature e/o shock termici cui potrebbe essere sottoposta dalla dissipazione termica dei componenti elettronici che in seguito verranno con essa in contatto.



    Questi PCB sono anche chiamati "schede ramate" poich? ricoperte da un lato (nel caso di circuiti a singola faccia) da uno strato uniforme di pochi micron di rame (di solito 35 micron e 1,6 mm di materiale isolante).



    La produzione di ciscuiti stampati, sopra ai quali poi saranno montati le componenti discrete del circuito, consiste proprio nell'asportare questa ricopertura solo l? dove non ? previsto il passaggio di una traccia del circuito stampato.



    Vi sono varie tecniche impiegate per questo scopo, le due principali sono:



    * Trasferimento diretto attraverso sottrazione chimica del rame in eccesso

    * Fotoincisione attraverso vernice fotosensibile



    La prima ? usata soprattutto in ambito amatoriale, la seconda in ambito industriale. A questo punto il PCB ? pronto per la foratura e la saldatura dei componenti elettronici.



    Cos'? una GPU?


    La GPU o Graphics Processing Unit (Chiamata anche VPU, acronimo di Visual Processing Unit) ? il microprocessore di una scheda video per computer o console.

    La GPU attualmente entra pesantemente in funzione solo nell'accelerazione 3D, difatti nell'accelerazione 2D i dati vengono elaborati dalla CPU e allocati dalla GPU in una parte della memoria chiamata frame buffer; da l?, il RAMDAC (Digital to Analogic Converter) legge i valori di colore da assegnare ai singoli pixel e genera il segnale per lo schermo.

    Diversamente, quando viene elaborata un'immagine 3D, la CPU del computer si occupa solo del calcolo delle coordinate geometriche dei vertici dei poligoni che compongono gli oggetti della scena, e lascia alla GPU il compito di riempire le "facce" formate da questi vertici, chiamate in gergo Texture, e del calcolo delle ombre e degli effetti grafici da applicare ai poligoni, sgravandosi da pesanti operazioni di calcolo. Dopo di ci? normalmente i dati risultanti verranno posizionati nel frame buffer, per poi passare per il RAMDAC ed arrivare allo schermo.



    Cos'? il frame buffer?


    Il Frame buffer ? un' apposita area della RAM o della scheda grafica (RAMDAC), contenente l'immagine video rappresentata come bitmap.



    Cos'? il RAMDAC?


    Letteralmente: Random Access Memory Digital to Analogue Converter

    Il processore che converte i dati digitali provenienti, dalla memoria, in segnali analogici diretti al monitor.



    Cos'? un Pixel?


    Un pixel (abbreviazione inglese di picture element) ? uno dei molti minuscoli puntini che compongono la rappresentazione di un'immagine nella memoria di un computer. Solitamente i punti sono cos? piccoli e cos? numerosi che se vengono stampati su carta o visti su un monitor appaiono fusi in una unica immagine. Colore e intensit? di ciascun punto sono usati dal computer per rappresentare una piccola area dell'immagine. Le differenti sfumature di grigio si fondono tra loro creando l'illusione di una immagine 'liscia'.A volte i pixel ai margini di un carattere di testo sono sfumati per produrre un effetto meno a zig-zag quando visualizzati nella loro dimensione normale. Questo processo si chiama antialiasing.



    Pi? pixel sono usati per rappresentare un' immagine, pi? il risultato assomiglier? all'immagine originale. Il numero di pixel in un'immagine ? detto risoluzione. Pu? essere espressa da un solo numero, come tre megapixel detto di una fotocamera che ha tre milioni di pixel, o da una coppia di numeri come in 'schermo 640 x 480', che ha 640 pixel in larghezza e 480 in altezza (come nei display VGA), perci? con un numero totale di pixel di 640*480 = 307.200.



    I pixel sono o rettangolari o quadrati. Un numero chiamato aspect ratio, descrive le proporzioni di un pixel. Ad esempio, un' aspect ratio di 1,25:1, significa che ogni pixel ? 1,25 volte pi? largo che alto. I pixel sugli schermi dei computer sono in genere quadrati, ma i pixel utilizzati nel video digitale hanno forma non quadrata, come nel D1 aspect ratio.



    Ogni pixel di un immagine monocroma ha la sua luminosit?. Un valore pari a zero di norma rappresenta il nero, mentre il valore massimo rappresenta il bianco. Ad esempio, in un immagine a otto bit, il massimo valore senza segno che pu? essere immagazzinato ? 255, cos? questo ? il valore usato per il bianco.



    Nelle immagini a colori, ogni pixel ha la sua luminosit? e colore, tipicamente rappresentate da una tripletta di intensit? di rosso, verde e blu. I monitor a colori usano pixel composti da 3 sotto-pixel (ognuno per i tre colori, posti a distanza ravvicinata, ogni singolo sotto-pixel ? illuminato in base a un determinato valore, e a causa della loro prossimit?, creano l'illusione ottica di un singolo pixel di un colore particolare).



    Il numero di colori distinti che possono essere rappresentato da un pixel dipende dal numero di bit per pixel (BPP). Valori comuni sono:



    * 8 bpp (256 colori)

    * 16 bpp (65.536 colori, noto come Highcolour)

    * 24 bpp (16.777.216 colori, noto come Truecolour).



    Per profondit? di colore pi? ampie di 8 bit, il numero ? il totale dei tre componenti RGB (rosso, verde e blu). Una profondit? di 16 bit viene di solito divisa in cinque bit di rosso e blu e sei di verde, (il verde ha pi? bit perch? l'occhio e pi? sensibile a quel colore). Una profondit? di 24 bit permette 8 bit per componente. Su alcuni sistemi ? disponibile una profondit? di 32 bit: questo significa che ogni pixel a 24 bit ha 8 bit extra per descrivere l'opacit?. Sui sistemi pi? vecchi ? comune il formato a 4 bpp (16 colori).



    Cos'? l'Antialiasing?


    L' antialiasing (delle volte abbraviato con AA) ? una tecnica per ridurre l'effetto aliasing (scalettamento) quando un segnale ad alta risoluzione viene mostrato a bassa risoluzione. L'antialiansing ammorbidisce le linee smussando i bordi e omogeneizzando l'immagine.

    Le schede video lavorano con triangoli e linee che, per essere mostrati, devono essere campionati (sampling). Questa ? la fase dove vengono stabiliti i colori dei singoli pixel e che purtroppo produce le scalinature tra gli oggetti finali. Durante la campionatura il colore ai pixel viene assegnato un solo colore prendendo come riferimento il centro del pixel; se un pixel appartiene ad una linea che delimita due campi, anche in questo caso prevale il colore del campo a cui appartiene il centro del pixel. Per questo motivo su linee oblique, zone con alta differenza di colore o sui bordi netti si forma l'effetto alias.

    Per questo nella maggior parte dei casi, (generalmente a livello hardware) l'immagine viene campionata come se invece di un singolo pixel ce ne siano di pi? e al pixel finale viene assegnato il colore medio (supersampling).



    Il supersampling ? forse il metodo pi? usato. Ogni pixel viene suddiviso in pi? pixel che hanno un colore indipendente. Per calcolare il colore finale dei pixel viene fatta una "media" di tutti i pixel, generalmente dando una maggiore importanza ai pixel centrali. La maschera dei subpixel ? l'insieme dei "frammenti" di pixel. Un ottima maschera ? di 4x4px (16 subpx) anche se paga in prestazioni rispetto alle pi? veloci 2x2 o 3x3px.



    un altro tipo di Antialiasing ? il polygon filtering.Con il polygon filtering vengono smussati i bordi dei poligoni lasciando per? inalterata la parte interna. L'effetto alias viene eliminato tramite un filtro di bilanciamento dei colori: se due (o pi?) poligoni giacciono sullo stesso pixel, il colore del pixel viene determinato in base ai colori dei poligoni. Per esempio, se su un pixel ci sono due poligoni di colori diversi p1 che copre 2/3 e p2 che copre il restante terzo, il colore del pixel sar? uguale al bilanciamento dei due colori, tenendo conto che la "forza" del colore di p1 sar? doppia rispetto a quella di p2.



    Che cos'? il Full-Screen Anti-Aliasing (FSAA)?


    Uno dei difetti visivi che affliggono notevolmente la grafica dei giochi 3D ? il cosidetto "aliasing" cio? le fastidiose e irrealistiche scalettature presenti lungo i bordi degli oggetti 3D.

    Con l'aumentare della risoluzione ? possibile diminuire notevolmente tale difetto grafico, proprio a causa della riduzione della dimensione dei pixel, ma esiste anche un'altra tecnica, chiamata Full Screen Anti-Aliasing, che permette di eliminare (o perlomeno in parte) tali scalettature.



    Spesso l'utilizzo del FSAA comporta un forte decremento del frame-rate, compromettendo a volta la giocabilit?, specialmente a risoluzioni almeno medie, che si tendono ad utilizzare comunque per ottenere una buona nitidezza e pulizia dell'immagine.
     






  2. Google Advertisement

  3. Knight
    Sleepy

    Knight
    GF Admin
    Staff Member

    Messages:
    428
    Likes Received:
    162
    Trophy Points:
    43
    Cos'è il filtro Anisotropico?



    Il filtro Anisotropico è una serie di algoritmi per il rendrering di forme non uniformi con contorni lineari.Le forme vengono formate suddividendole in aeree piu piccole,elaborabili piu facilmente e quindi ripetute.L'elaborazione bi-lineare o tri-lineare suddivide le forme in zone circolari calcolate in base ad aree di 2x2 pixel.

    Questo metodo, però, non è adatto alla resa di forme non uniformi con contorni lineari, ad esempio di una forma vista in prospettiva, come degli edifici posti lungo un'autostrada, siccome l'immagine risulterebbe sfocata e imprecisa nelle linee convergenti della prospettiva.

    Invece il filtro anisotropico suddivide la forma in ellissi, calcolandone la superficie, i due raggi e l'inclinazione, a partire dalle dimensioni della forma da rendere.

    Il filtro anisotropico però richiede un'elaborazione pesante e chip grafici che lo supportino.



    Cos'è il Bilinear filtering ?



    Metodo utilizzato per correggere l'effetto a pixel che può risultare dall'applicazione di texture su oggetti 3D.

    Si ottiene riducendo le scalettature della texture, mediante il calcolo del colore dei punti da creare con la interpolazione dei valori dei quattro pixel circostanti.



    Cos'è il mipmapping ?



    Il Mip mapping è una metodologia che permette di risolvere l'effetto pixel delle texture senza dover svolgere complesse interpolazioni come il Bilinear Filtering.

    Si effettua memorizzando tre copie della medesima texture con diverse risoluzioni, per poi utilizzare quella più adatta alle dimensioni dell'oggetto.

    Così si riduce la necessità di effettuare i ridimensionamenti che sono all'origine dell'effetto pixel.

    Questa tecnica tuttavia richiede l'utilizzo di molta memoria per la conservazione delle texture.



    Cosa sono le Pipeline di rendering ?

    E' l'insieme di operazioni che si succedono per la creazione dell'immagine/aminazione 3d.

    Si tratta della principale unità di elaborazione presente all'interno di un chip grafico; ve ne possono essere più di una, operanti in parallelo, e a seconda della frequenza di clock utilizzata, esse generano un determinato numero di pixel per secondo; è possibile ottenere il Fill-Rate di un chip grafico proprio moltiplicando la frequenza di clock per il numero di pipelines presenti nel chip in questione.

    Il numero di pipeline influisce direttamente sul fill-rate del chip grafico, specificatamente sul numero massimo di pixel generati al secondo (per ogni ciclo di clock vengono renderizzati tanti pixel quante sono le pipeline).



    Cos'è il FILL-RATE ?

    Il fillrate indica il numero di pixel (pixel fillrate) o di texel (texture fillrate) che una scheda grafica è in grado di elaborare per unità di tempo. In particolare, il pixel fillrate è il prodotto della frequenza di clock del chip grafico per il numero di pixel che le pipeline possono generare per ogni ciclo; il texture fillrate è il prodotto fra il pixel fillrate ed il numero di texture applicabili in un ciclo di clock. Per cui una scheda grafica con un processore a 200 MHz e con 4 pipeline interne, ognuna capace di applicare 2 textures per pixel, avrà un pixel fillrate di 800 MPixels/s (200Mx4) ed un texture fillrate di 1600 MTextures/s (800Mx2)



    Cos'è il Point sampling ?

    E' uno dei metodi di texture mapping: avviene applicando le texture agli oggetti e creando i pixel mancanti tramite la clonazione del colore dei punti più vicini.

    E' una tecnica che non offre alcuna correzione dell'effetto pixel, però garantisce le migliori prestazioni.



    Cos'è il Texture Blending ?

    E' la tecnica con la quale dei "livelli" (layer) vengono fusi insieme (blending) per creare degli effetti speciali.

    Ogni livello viene fuso con quelli che si trovano sotto di esso.

    Si prendono due livelli (vedi due texture), e li si uniscono attraverso uno dei tanti metodi. Il risultato di questo "blending" può essere usato per texturizzare un poligono.



    Cos'è il Texture mapping ?

    Tecnica utilizzata per dare un maggior realismo agli oggetti tridimensionali.

    Consiste nell'applicazione di immagini bidimensionali, dette texture alle superfici degli oggetti: ad esempio applicando un'immagine piccola rappresentate l'erba ad un pavimento, si può dare l'idea del prato. Oppure applicando una texture a forma di mattone ad un muro, si avrà un muro realistico e non monocolore.



    Cosa sono i Pixel Shaders ?



    Il Pixel Shader è una funzione grafica che permette di calcolare gli effetti su una base di pixel. A seconda della risoluzione, ci sono più di 2 milioni di pixel da elaborare, rischiarare, ombreggiare e colorare su ciascun frame, a 60 frame al secondo, il che provoca un carico notevole di gestione. Il GeForce3 riesce a gestire facilmente questo carico grazie al Pixel Shader, il quale è in grado di visualizzare sullo schermo degli effetti tipicamente cinematografici. Si tratta di un controllo hardware senza precedenti per gli utenti. L'elaborazione di pixel permette di evidenziare una ricchezza straordinaria di dettagli che consente di vedere oltre il livello del triangolo. Inoltre, grazie al Pixel Shader programmabile gli artisti e gli sviluppatori hanno la possibilità di creare degli effetti a base di pixel che rispecchiano la loro visione creativa.

    Invece di limitarsi a scegliere una serie di effetti preconfezionati, gli sviluppatori possono crearne di nuovi e personali. Di conseguenza, grazie al Pixel Shader programmabile gli sviluppatori possono usufruire di uno strumento senza precedenti, in grado di determinare la luminosità, le ombre e il colore di ogni singolo pixel e di creare una quantità considerevole di effetti incredibili.



    Cosa sono gli Hz e Mhz nelle schede video?

    Gli Hz e Mhz sono le due principali unità di misura utilizzate con le schede video, gli Hz indicano la frequenza di rigenerazione dell'immagine, cioè quante volte la schermata visualizzata dal monitor viene calcolata ogni secondo. Un valore superiore ai 60 indica che l'immagine appare stabile, anche se per le migliori prestazioni è bene stare oltre i 75 Hz.

    I Mhz indicano la frequenza alla quale opera il chip video montato sulla scheda, questa unità di misura è la stessa utilizzata per i processori di sistema, infatti indica la potenza di calcolo di un chip video. A parità di chip video, si otterranno prestazioni velocistiche superiori con un più elevato numero di Mhz.



    Che cosa è la Bandwidth di una scheda video?

    Nel campo delle schede video si tratta della quantità massima di dati (in Mbytes) scambiabili tra core grafico e memoria video; tale valore, specialmente nelle schede grafiche più recenti è molto importante e spesso un fattore limitante per le prestazioni della scheda video. Molti sono i dati che che vanno infatti a gravare su di essa; quelli relativi al frame-buffer, allo z-buffer, alle textures, al Ramdac.





    Cosa è una API?

    Con il termine API, Application Programming Interface, si indicano delle librerie grafiche, ovvero di un'insieme di funzioni tramite le quali un'applicazione può accedere all'hardware della scheda video, senza preoccuparsi di quale tipo o marca esso sia. E' uno strato software che permette la compatibilità di una applicazione con qualsiasi scheda video, purché i driver di quest'ultima abbiano il supporto per la specifica API.



    Cosa sone le Direct3D?

    Le Direct3D o D3D, sono delle API per la gestione della grafica tridimensionale di DirectX: una libreria completa di Application Programming Interface sviluppata da Microsoft a partire dalla release del sistema operativo Windows 95. Poiché tutte le schede grafiche supportano queste librerie, sono divenute uno standard molto diffuso.



    Cosa sono le OpenGL?

    Le OpenGL o OGL, al pari delle D3D sono delle API sviluppate in origine dalla Silicon Graphics per uso professionale. Data la loro alta efficienza e semplicità d'uso (sono infatti librerie aperte) sono oggi utilizzate anche per le applicazioni consumer (giochi e fotoritocco). Si tratta di API molto efficienti, ma che richiedono un hardware potente per essere gestite al meglio.



    In che modo le schede grafiche si connettono col PC?



    Tramite 2 tipi di slot chiamati AGP e PCI-express:



    AGP



    Acronimo di Accelerated Graphics Port: porta dedicata che permette il trasferimento diretto dei dati tra scheda video, CPU e RAM. La porta AGP è una applicazione dell'interfaccia PCI, ma è fisicamente e logicamente separata dal bus PCI in modo da evitare di sovraccaricare ulteriormente questo bus, già utilizzato dalle altre periferiche. La porta AGP ha una frequenza standard di 66 MHz. L'ampiezza massima della banda per il trasferimento di dati attraverso la porta AGP è indicato dal fattore di moltiplicazione: in modalità 1x il volume dei dati può essere al massimo di 266 MB al secondo, in 2x di 533 MB al secondo, in 4x di 1 GB al secondo.

    L'Accelerated Graphics Port (AGP) è stata sviluppata da Intel nel 1996 come modo per aumentare le prestazioni e velocità delle schede grafiche connesse ai PC. Si basa sullo standard PCI 2.1, e per questo la frequenza base a cui opera è di 66 MHz. Il trasferimento dei dati avviene in modalità parallela, per cui non è possibile una comunicazione bidirezionale contemporanea.



    Revisioni dell AGP

    La prima versione dello slot AGP raddoppiava la frequenza di un normale slot PCI, raggiungendo quindi i 133 MHz. Successivamente le versioni 2.0 e 3.0 hanno raddoppiato ogni volta la frequenza, fino a raggiungere i 533 MHz odierni. Per prevenire problemi di compatibilità tra le differenti versioni, è previsto il funzionamento in modalità 1x, quindi a 66 MHz. Questa modalità viene attivata automaticamente dal BIOS in caso di problemi.



    * Modalità di compatibilità: 66 x 1 = 66 MHz, trasferimento dati a 266 MB/s

    * 1.0: 66 x 2 = 133 MHz, trasferimento dati a 533 MB/s

    * 2.0: 66 x 4 = 266 MHz, trasferimento dati a 1066 MB/s

    * 3.0: 66 x 8 = 533 MHz, trasferimento dati a 2133 MB/s



    La versione 3.0 è l'ultima evoluzione di questo bus, che si prepara ad essere rimpiazzato dal più veloce PCI Express, il quale sostituirà anche l'interfaccia PCI. Questo nuovo standard dovrebbe permettere velocità di trasferimento fino a 5,8 GB/s. In questo modo verrà ad eliminarsi il principale collo di bottiglia per quanto riguarda la grafica 3D, che è stato storicamente proprio lo slot AGP.



    PCI-express



    Il PCI Express è l'evoluzione del bus di espansione PCI,creato per sostituire l'interfaccia per schede grafiche AGP.



    È basato su un trasferimento dei dati seriale, a differenza di quello parallelo del PCI, che semplifica il layout del PCB delle schede madri ed è costituito da una serie di canali. Ciò consente una notevole modularità, in quanto possono essere aggregati più canali per aumentare la banda passante disponibile o per supportare particolari configurazioni come l'utilizzo di due o più schede video. Inoltre la bandwidth di ciascun canale è indipendente da quella degli altri.



    Un singolo canale PCI-ex, chiamato x1, offre una bandwidth full duplex di 266 MBytes/sec. I connettori PCI-ex per schede video sono generalmente costituiti da 16 canali, dunque 16x, offrendo una velocità doppia rispetto allo standard AGP 8x.



    I primi chipset in commercio offrivano un massimo di 20 canali, pertanto nel caso di un utilizzo simultaneo di due schede grafiche (nel caso della tecnologia sviluppata da Nvidia chiamato con l'acronimo SLI, Scalable Link Interface o il CrossFire successivamente creato da ATI) i canali si riducono a 8x per ciascuna scheda, senza tuttavia evidenziare decadimenti prestazionali.

    Nelle ultime incarnazioni del chipset Nvidia SLI-16X i canali sono stati praticamente raddoppiati, in attesa che i futuri applicativi CAD o ludici possano trarne giovamento.



    PCI Express è infine progettato per sostenere il sempre maggior fabbisogno energetico delle schede video di ultima generazione. Infatti, a differenza dello slot AGP, in grado di erogare un massimo di 50 Watt, l'attuale revisione di PCI-ex supporta carichi fino a 75W.



    Cosa sono le DirectX API?

    DirectX (in origine chiamato "Game SDK") è una collezione di API per lo sviluppo semplificato di videogiochi per Windows. Il kit di sviluppo (SDK) è disponibile gratuitamente sul sito della Microsoft. Le DirectX venivano distribuite dai produttori di giochi stessi insieme al videogioco, ma sono ora incluse direttamente in Windows. La 9.0c è la versione attuale delle librerie.



    I vari componenti delle librerie DirectX sono disponibili al programmatore come oggetti corrispondenti alle specifiche COM.



    I componenti compresi in DirectX 9.0c sono:



    1. DirectX Graphics: permette la presentazione a video di grafica 2D e 3D, interfacciandosi direttamente con la scheda video.

    È composto da una API di basso livello (Direct3D) ed una di alto livello (Direct3DX).

    * Direct3D è concepito per applicazioni grafiche complesse e che richiedono un'alta frequenza di aggiornamento dello schermo (come per esempio i videogiochi). Fino alla versione 8.0 esistevano DirectDraw (grafica 2D) e Direct3D (solo grafica 3D), di cui nelle ultime versioni è rimasto solo l'API per la grafica tridimensionale (che all'occorrenza renderizza anche in 2D sfruttando poligoni texturizzati senza prospettiva).

    * Direct3DX si basa su Direct3D per offrire potenzialità simili con minore complessità.

    * DirectX Graphics permette al programmatore di sfruttare direttamente le potenzialità dell'hardware del PC, eludendo Graphics Device Interface (GDI) e Display Device Interface (DDI) di Windows. Le funzioni non supportate dall'hardware vengono emulate via software dalle DirectX grazie al Hardware Emulation Layer (HEL).

    2. DirectInput: gestisce l'input dato dalla tastiera, dal mouse, dal joystick o da qualsiasi altra periferica di gioco, bypassando il sistema di messaggi di Windows e accedendo direttamente all'hardware, sia esso analogico che digitale. Supporta gli effetti di Force Feedback.

    3. DirectPlay: fornisce supporto ai giochi di rete. Consiste principalmente in un protocollo a livello "applicazione" (vedi il Modello OSI) che gestisce oggetti logici quale la Sessione di gioco e i Giocatori (differenziati in remoti e locali).

    Generalmente però l'uso di DirectPlay è connesso ad un notevole overhead di comunicazione, per cui ha ricevuto un'accoglienza tiepida tra gli sviluppatori, i quali sono ricorsi più spesso a implementazioni di rete ad-hoc tramite socket (che permette l'eventuale compatibilità con server di gioco su Linux, cosa impossibile con le DirectX legate al sistema operativo Microsoft). DirectPlay è ancora incluso nella DirectX, ma non viene più sviluppato.

    4. DirectSound: si interfaccia con la scheda audio per la riproduzione e la registrazione di effetti sonori. Supporta l'audio posizionale (che simula la spazialità del suono in 3D).

    I suoni possono essere modificati da effetti da diversi buffer di ingresso (Secondary Sound Buffers), dopodiché vengono missati insieme nell'unico buffer di uscita (Primary Sound Buffer). I buffer di ingresso possono essere statici (da file) o dinamici (streaming da un microfono, ecc...) e la loro quantità dipende esclusivamente dalla potenza computazionale del computer. DirectSound si può appoggiare sulle funzionalità della scheda audio, nel caso supporti gli effetti richiesti. Tre gli effetti ci sono il volume, l'equalizzazione, il panning, il riverbero, la distorsione, vari effetti tridimensionali e la simulazione dell'effetto Doppler.

    5. DirectMusic: supporta la riproduzione di musica (MIDI, ma non MP3). Offre la funzionalità di un sintetizzatore software all'occorrenza.

    6. DirectShow: gestisce diversi file multimediali (per esempio filmati MPEG o audio MP3) e supporta lo streaming via Internet.

    7. DirectSetup: permette al programmatore di rivelare le DirectX installate e aggiornarne i componenti durante l'installazione del proprio programma.

    8. DirectX Media Objects: permette la modifica di streams audio e video, così da poterli poi riprodurre tramite DirectShow o DirectSound.



    Il futuro delle DirectX



    Microsoft attualmente sta lavorando per un aggiornamento delle DirectX. In origine chiamate Windows Graphics Foundation, ma ora rinominate in DirectX 10, saranno incluse in Windows Vista. La versione 10 sarà semplicemente una versione rivista e migliorata delle 9.0c, con l'aggiunta di uno scheduler e di un sistema di virtualizzazione della memoria. Le specifiche della versione 11 non sono state ancora definite, ma si suppone che saranno rilasciate insieme a Windows Vista (da notare che Windows Vista utilizzerà prevalentemente le DirectX per renderizzare la sua interfaccia).



    Un altro strumento su cui la Microsoft sta lavorando è XNA, un framework con lo scopo di assistere lo sviluppo di videogiochi integrando le DirectX, gli shader in linguaggio di alto livello (HLSL) e altro su diverse piattaforme. In tal modo la conversione tra un sistema XNA ed un altro sarà notevolmente più facile, rendendo il porting da Xbox a PC molto più facile (e viceversa).





    Cos'è il FastWrite?

    La modalita' FastWrite, impostabile nel setup del Bios, permette alla CPU di scrivere direttamente nel frame buffer della scheda grafica, senza doverli scrivere nella memoria centrale e farli copiare poi dalla scheda video. Questa modalita' elimina (in teoria) un collo di bottiglia e permette una maggiore efficienza nel flusso dei dati..... Comunque, se i moduli RAM non possono supportare questo switch più veloce i dati potrebbero essere persi e il sistema può diventare instabile. Ricordandosi di questo, abilitare tale opzione per una migliore prestazione della RAM e conservarla tale a meno che non si notino dei problemi di stabilità dopo averla abilitata.



    Cos'è il VSync?

    Tra le impostazioni dei drivers, o di utility di tweaking come Powerstrip si trova spesso un parametro relativo al VSync, che è possibile abilitare o disabilitare. V-Sync sta per Vertical Sync, segnale di sincronismo che indica il completamento della visualizzazione del frame corrente sul monitor. Quando questo è abilitato, il frame-rate è limitato dalla frequenza di refresh del monitor, in quanto non viene data la possibilità di effettuare il passaggio tra back frame buffer e front frame buffer in tempi più rapidi, per evitare l'effetto "tearing". Quando il V-Sync è disabilitato non si ha nessuna limitazione al frame-rate, ma in alcuni casi, o sopratutto con schede video non molto recenti, si possono avere immagini difettose, spezzate o sfarfallanti; questo si verifica proprio a causa del fatto che le immagini vengono inviate sul monitor appena pronte, senza attendere la frequenza di refresh intrinseca del monitor.



    Con le schede grafiche attuali, o recenti, è generalmente bene tenere tale settaggio disabilitato, in modo da ottenere migliori frame-rates; soltanto nel caso che si verifichino alcuni problemi sarà bene abilitarlo, in modo da risolverli.



    Cos'è lo Z-buffer



    Memoria della scheda grafica addetta ai dati relativi all'asse Z delle immagini. L'asse Z è quello della profondità. La memoria dello Z-buffer consente quindi di gestire la sovrapposizione degli oggetti.
     






  4. Knight
    Sleepy

    Knight
    GF Admin
    Staff Member

    Messages:
    428
    Likes Received:
    162
    Trophy Points:
    43
    Cos'e l' HDR?

    L' HDR o High Dynamic Range è una funzionalità introdotta per prima sulle Nvidia NV40 in seguito su G70 e poi anche su ATI R520.

    Nei giochi i primi ad implementare questa funzionalità sono stati Far Cry e Splinter Cell Chaos Teory.

    In pratica questa funzione crea degli effetti cromatici e differenti illuminazioni il piu possibile vicino alla realtà.

    I valori percepibili sono di 14 db con l'occhio umano, cioè come noi percepiamo un immagine quando la vediamo coi nostri occhi.....considerando che ora con i nuovi G70 e R520 (le nuove schede grafiche) riescono a riprodurre un valore di 12 db quindi vicino a quello dell occhio umano.

    Con l'HDR gli oggetti scuri appaiono realmente scuri mentre le scene luminose o la luce stessa riescono ad essere incredibilmente reali, con i dettagli ben visibili in tutte le condizioni. Gli sviluppatori possono ora convertire con facilità le loro applicazioni in totale compatibilità con l'HDR Render ed aggiungere molti effetti speciali prima neanche lontanamente immaginabili.

    Quindi la scena che si andrà a vedere sul monitor sarà molto piu realistica e profonda di quella che si vedeva con schede grafiche di antecedente produzione.

    Per capire questa tecnica proviamo ad immaginare di scattare un certo numero di foto allo stesso oggetto e con la medesima inquadratura ma con esposizioni variabili cioè andando da una foto fortemente sottoesposta cioè quasi completamente nera, ad una talmente sovraesposta da risultare quasi completamente bianca, e assemblando tutte le foto con un apposito software in un unico file.

    Questa serie di foto ci servirà per riprodurre con maggiore fedeltà l'illuminazione e soprattutto i riflessi che questa crea sugli oggetti.
     






Share This Page