Skjermkort: Forskjell mellom sideversjoner

Slettet innhold Innhold lagt til
Ingen redigeringsforklaring
Telaneo (diskusjon | bidrag)
mIngen redigeringsforklaring
 
(34 mellomliggende versjoner av 20 brukere er ikke vist)
Linje 1:
{{opprydning}}
[[Fil:PowerColor Radeon X850XT PE.jpg|thumb|Ati Radeon X850XT modifisert av PowerColor|400px.]]
Et '''skjermkort''' eller '''grafikkort''' er en komponent i en [[datamaskin]] som konverterer en logisk representasjon av et bilde lagret i minnet til et [[signal (teknikk)|signal]] som kan brukes av en [[Skjerm (monitor)|skjerm]]. Ofte tilbyr skjermkortet funksjonalitet for å manipulere det logiske bildet i minnet. Se [[DirectX]] og [[OpenGL]].
 
Det finnes to typer skjermkort, integrerte og kort med andre tilkoblinger. De førstnevnte er,kommer somintegrerte navneti antyder, en del av [[hovedkort]]etCPU, mens sistnevnte er separate kort som man kobler til hovedkortet. Hvis ikke hovedkortetprosessoren har et integrert grafikkort, må man skaffe seg et grafikkort av den andre typen for å få bilder på skjermen.
 
Moderne [[datamaskin]]er har ofte et skjermkort spesielt utviklet for tredimensjonal grafikk. Dette er for å avhjelpe [[CPU|prosessor]]en ved ressurskrevende [[Videospill|spill]]. Grafiske arbeidsstasjoner har ofte skjermkort mer tilpasset todimensjonal grafikk.
 
På skjermkortmarkedet er det to selskaper som står for størstedelen av markedsandelen. Disse heter [[ATI]], som nå er kjøpt av [[AMD]], og [[NVIDIA]]. Begge selskapene støtter to viktige funksjoner som er nødvendig i spill, nemlig
Linje 11:
 
==Hvordan et skjermkort virker==
En [[Personlig datamaskin|PC]]-[[Skjerm (monitor)|skjerm]] er bygd opp av flere millioner små lyspunkter. Hvert lyspunkt består av én av tre grunnfarger[[primærfarge]]r, nemlig Rød[[rød]], Grønn[[grønn]] eller Blå[[blå]] (RGB). Tilsammen utgjør en slik gruppe av de tre grunnfargene en [[piksel]] ([[additiv fargesyntese]]). Lyser alle tre like sterkt vil fargen (summen av alle tre) fremstå som hvit. Slukker alle, er punktet (naturligvis) svart. Lyser prikkene med ulik intensitet vil summen av dem gjengi en hvilken som helst farge i regnbuen.
 
Instruksjoner til skjermen forteller altså skjermen hvilke punkter som skal tennes og slukkes, og hvilken intensitet hvert enkelt tent punkt skal ha. Tar man et bilde med et digitalkamera, vil sensorbrikken lagre lysinformasjon. Sensorbrikken består av millioner av lysfølsomme punkter, som kan registrere farge og lysintensitet. Når denne informasjonen gjengis på en skjerm i full oppløsning, vil skjermen benytte tre lyspunkter (RGB) for hvert sensorpunkt på kamerasensoren. Bildet vises da i full størrelse. Hvert slikt lyspunkt kalles en [[piksel]].
Hvis du zoomer inn enda mer enenn 1:1 hvisningvisning, vil hvert originalt piksel (lyssensor fra kameraet) dekke mer enn én RGB-gruppe på skjermen. Zoomer du inn til 10 dobbel størrelse, vil altså informasjonen fra én av lyssensorene i kamerabrikken dekke 10x10 piksler på skjermen. Hvert av disse skjermpikslene består altså av tre lysdioder, så i dette eksempelet er 300 lysdioder er tent for hver original piksel fra kameraet.
 
Dette bildet vil fremstå som en serie av synlige firkanter på skjermen, og ikke som et detaljert bilde. Når bilde vises i 1:1 skala (altså en pikslepiksel fra kameraet tilsvarer en piksel (RGB) på skjermen), ser bildet detaljrikt og fint ut.
Poenget er altså at en skjerm med høy oppløsning som skal vise et bilde tatt med et kamera med lav oppløsning, bare vil vise bildet fint i en 1:1-oppløsning. I eksempelet vil et slikt bilde vises som et lite bilde midt på skjermen. Zoomer du inn slik at bildet fyller hele skjermen, vil du få et "piksellisert" bilde, altså at hvert enkelt piksel fra kamerasensoren blir synlig i stedet for å gli sammen til et pent bilde.
 
Et 3D-spill operer på en annen måte. Bildene her er jo ikke et resulatatresultat av lagret informasjon fra en billedsensor, men konstrueres fortløpende av grafikkmotoren (programvare) i spillet. Har du en høyoppløst skjerm (2560×1600) og spiller et spill der du setter oppløsningen til 800x600, vil bildet fremstå som pikselert slik eksempelet med kameraet over. For å få en fin billedopplevelse på denne skjermen må altså spillet levere et like høyoppløst bilde som skjermen (2560×1600). På en lavere oppløst skjerm (1680x1059) vil bildet vises pent når spillet leverer bildet i tilsvarende oppløsning.
 
Et grafikkort trenger bare å oversette de binære tallkjedene til lysdiodeinsstruksjoner for at bildet skal vises (altså hvilke dioder som skal tennes, og med hvilken styrke). Dette krever svært lite datakraft når billedinformasjonen kommer som en strøm med instrukser fra hovedprosessoren (typisk et vanlig bilde/fotografi som skal vises på skjermen). Arbeidsbelastningen oppstår når bildet ikke eksisterer, men må konstrueres "on the fly" av grafikkortet, slik det må i spill.
Linje 40:
Hvis man driver med lettere programmer som for eksempel Word, MSN, Office, Email osv, har man strengt tatt ikke bruk for noe bra skjermkort; da holder det med ett billig et. Unntaket kan være hvis man absolutt trenger høy oppløsning, men de billige har en helt grei oppløsning som folk flest er fornøyd med. Disse kan klare seg med ett integrert skjermkort på hovedkortet.
 
De som spiller [[dataspillvideospill]] og driver med videoredigering derimot, har et mye større behov for et bedre skjermkort. Grunnen til dette er at slikt arbeid krever en del av kortet, og er kortet for dårlig i forhold til det for eksempel spillet krever, vil bildet ”lagge”. Dette vil si at det kommer færre bilder i sekundet enn det skulle gjort, eller sagt på en annen måte: bildet vil hakke og det vil bli umulig å spille. Men man trenger absolutt ikke det beste på markedet for å kunne spille et spill. Kun de som har behov for å kjøre de nyeste spill på markedet på full grafikk og stor oppløsning har behov for et veldig dyrt skjermkort.
 
==Skjermkortets fysiske tilkoblinger==
Linje 53:
Som et hovedkort er skjermkortet et printkort som inneholder en prosessor, minne og en [[BIOS]].
===Graphics processing unit (GPU)===
En [[GPUgrafikkprosessor]], GPU, ''grafikkontroller'' eller ''grafikkbrikke'' er en microprosessormikroprosessor som bestemmer alt om hvordan hver enkelt piksel skal vises på skjermen til enhver tid. Dette betyr at GPUen mottar beskjeder fra prosessoren ([[CPU]]), som den så bearbeider og sender ut til skjermen. De fleste GPU-er inneholder flere transistorer enn CPU-er, og produserer derfor en god del varme, i detnoen ertilfeller viktigmer medenn selve CPU-en. Derfor er god kjøling viktig. Det er ofte en vifte eller en kjøleribbe plassert på skjermkortet. Enkelte slike vifter gir sjenerende [[støyforurensning|støy]].
 
===Minnet===
Når GPUenGPU-en lagerkomponerer et bilde, bruker den minnet for å lagre og holde på informasjon om bildet den nettopp har gjort ferdig. Her lagres informasjon om hver enkelt piksel, fargen og hvor på skjermen denne pikselen skal plasseres. Minnet kan også fungere som et slags skjermbuffer, noe som vil si at den holder på informasjonen om bildet helt til det er klart for å vises på skjermen. Disse lagringsprosessene gjør at minnets størrelse naturlig nok er viktig for skjermkortets ytelse, men dette er ikke den eneste viktige spesifikasjonen. De to andre viktige elementene er minnetype og hvor mange bit minnet er på. I dag har de fleste kort enten [[DDR2]] eller [[GDDR3]], men en del nye kort har GDDR5. NårSom detoftest gjelderkjører hvorvideo mangerammen bits minnetveldig erhøy på,klokkefrekvens og er nok’’dual 128ported’’ detsom vanligste.vil <brsi />at systemet både kan skrive til og lese fra minnet samtidig.
Som oftest kjører video rammen på veldig høy klokkefrekvens og er ’’dual ported’’ som vil si at systemet både kan skrive til og lese fra minnet samtidig.
 
Spesielt med hensyn til krevende programvare, slik som 3D-modellering og noen spill, er minnestørrelsen sentral, idet grafikkortet må holde «teksturer» (bildene som bidrar til å gi objekter på skjermen egenskaper som farge, dybde o.l.) i minnet for å oppnå en mest mulig effektiv skjermvisning.
===Random Access Memory Digital-to-Analog Converter===
 
Dette er en digital til analog konverterer som gjerne kalles RAMDAC. Det konvertereren gjør er å oversette digitale signaler fra [[CPU]]en til analoge signaler som skjermen kan bruke. Denne funksjonen har forsvunnet fra flere og flere nye skjermkort de siste årene, i takt med [[LCD]]- og [[plasma]]-skjermenes økende popularitet. Disse skjermene kan nemlig sende digitale signaler, og det er dermed ikke nødvendig å konvertere signalene til analogt format. <br />
===Random Access Memory Digital-to-Analog Converter, RAMDAC===
Noen skjermkort har flere DACer som gjør at man ytelsen blir forbedret og at man har mulighet for å bruke flere skjermer samtidig.
Dette er en digital til analog konverterer som gjerne kalles RAMDAC. Det konvertereren gjør er åDenne oversetteoversetter digitale signaler fra [[CPU]]en til analoge signaler som skjermen kan bruke. DenneI funksjonen2000-årene harbegynte forsvunnetdenne frafunksjonen flereå ogforsvinne flerefra nye skjermkort de siste årene, i takt med [[LCD]]- og [[plasmaplasmaskjerm]]-skjermenesenes økende popularitet. Disse skjermene kan nemlig sende digitale signaler, og det er dermed ikke nødvendig å konvertere signalene til analogt format. <br />
Noen skjermkort har flere DACer som gjør at man ytelsen blir forbedret og at man har mulighet for å bruke flere skjermer samtidig.
 
===Video BIOS===
Video BIOSenBIOS-en er en [[chip]] som inneholder et basisprogram som overvåker skjermkortets operasjoner og gir de instruksjonene som er nødvendige for at kortet skal kunne kommunisere med PCenPC-en.
 
==[[OpenGL]] og [[Directx]]==
OpenGL og DirectX er to [[API (programmering)|API]]'-er som, gjennom å fortelle hardmaskin- og softwarenprogramvaren hvordan komplekse grafiske oppgaver som 3Dvisning av 3D-grafikk og 2D -bilder (spill, film osv) skal utføres, viser spill og programmer på skjermen din. UtviklerneI avnoen softwaretilfeller optimiserer programvaren sin for en av de to standardene for at programmene skal fungere best mulig, og det er derfor viktig at man harvil et skjermkort sommed støtter helst både OpenGL og DirectXstøtte for å få mest mulig uten av både skjermkortet og programmet man ønsker å kjøre. I flere tilfeller vil et skjermkort med slik støttestandardene ikke bare være nødvendig for å optimalisere hastigheten på bildet, men også for at det i det hele tatt skal være mulig å kjøre programmet. De fleste skjermkort som selges i dag har støtte for både OpenGl og DirectX, men merk at det er forskjellige versjoner av disse API'ene, og ikke alle skjermkort støtter de nyeste versjonene.
 
==Forskjeller mellom skjermkort==
Grovt sagt kan man si at det er GPU klokkehastigheten (MHz eller GHz), størrelsen på minnebussen (bits), mengde tilgjengelig minne(MB), minneklokkehastighet (MHz), minnebåndbredde(GB/s), og eventuelt RAMDAC-hastighet hastighet(MHz), som forteller hvor bra et skjermkort er. Har et kort høyere spesifikasjoner på etett eller flere av disse områdene, er det i utgangspunktet et bedre kort. <br /> Imidlertid er det også noe annet som spiller inn, nemlig det som kan kalles grafisk prosessor/leverandør. Dette er den teknologien som ligger til grunn for skjermkortet, og som brukes til å klassifisere kortene i ulike serier.

Pr i dag er det to store aktører som dominerer dette grafikkort-markedet: [[ATI]] og [[NVIDIA]]. Begge disse firmaene produserer hver sine serier av skjermkort, der kortene innen hver serie bygger på mye av den samme teknologien. Hver serie er videre delt inn i såkalte low-, mid- og high-end -kort, der high-end -kortene har den i utgangspunktet beste teknologien. Det er denne klassifiseringen, altså produsent, serie, X-end kort som utgjør benevnelsen grafisk prosessor/leverandør. En slik inndeling betyr at et kort i high-end kategorien i utgangspunktet skal være bedre enn et kort i low-end klassen, gitt samme spesifikasjoner og produsent. Imidlertid kan man ikke forvente at alle kortene i en serie skal være bedre enn alle kortene i den foregående serien. DetKortets henderfaktiske atytelse toppkortpåvirkes fraogså enav gammel[[driver]]nes serie på enkelte områder presterer bedre enn mid-end kort i den etterfølgende serienkvalitet. <br /> For å kunne få et best mulig inntrykk av forskjellene mellom skjerkort kan man derfor se på tre ting:
*Kortets produsent, serie og type
*Kortets spesifikasjoner (GPU-hastighet osv)
*Tester av kort under ulike situasjoner. (Først og fremst spill og film).
En annen god ting å måle hvordan skjermkortet yter er FPS(Frames Per Second) som betyr hvor mange bilder skjermkortet kan produsere i løpet av ett sekund. Det menneskelige øyet kan ikke oppfatte mer enn 25FPS men for at det ikke skal virke som om spillet hakker bør man ha ca. 60FPS eller mer.
 
I tillegg spiller også resten av systemet en rolle, prosessorminne og hovedkort må henge med for at skjermkortet skal yte optimalt. Prossesoren leverer alle instruksene til skjermkortet, så er den treg vil skjermkortet få færre instrukser enn den kunne ha fått, og dermed jobbe mindre effektivt. Noe annet som spiller inn er hvor mange [[watt]] strømforsyningen klarer å levere, imidlertid er ikke skjermkortenes strømkrav absolutte. Det er for eksempel mulig å kjøre enkelte kort med strømkrav på 400W på flere PCerPC-er med strømforsyning helt ned mot 300W.
{{Autoritetsdata}}
 
[[Kategori:DatakomponenterSkjermkort| ]]