Videokaart: erinevus redaktsioonide vahel

Eemaldatud sisu Lisatud sisu
Addbot (arutelu | kaastöö)
P Robot: muudetud 57 intervikilinki, mis on nüüd andmekogus Wikidata
Resümee puudub
2. rida:
[[Pilt:Videokaardiskeem.jpg|thumb|Videokaardi ülesehitus]]
 
'''Videokaart''' (ka graafikakaart, graafikakiirendi, kuvaadapter, videoadapter, graafikaadapter) on [[laienduskaardid|laienduskaart]] ja seade, mis muundab arvuti mälus oleva kujutise [[kuvar|kuvarile]] arusaadavaks signaaliks. Võib öelda, et videokaart on omalaadne "tõlk" – ta võtab protsessorilt kahendsüsteemi andmed, mis peale mitmesugust töötlemist teisendab kõik need andmed pildiks, mida kasutaja kuvarilt näha võib. Kujutise loomine kahendsüsteemi andmetest on nõudlik protsess. Ruumilise, 3D-kujutise loomiseks peab videokaart esmalt looma juhtraamistiku sirgjoontest. Siis see kujutis rasterdatakse (täidetakse järelejäänud pikselid). Seejärel lisab videokaart valgustuse, tekstuuri ja värvid. Nõudlike graafiliste rakenduste puhul peab arvuti suuteline olema teostama seda protsessi kuuskümmend korda sekundis. Ilma videokaardita oleks vaja teostada selline hulk arvutusi, millistega paljud arvutid hakkama ei saaks. [[EGA]] standardi tulekuga oskasid videokaardid saata digitaalsignaali otse [[monitorkuvar]]ile, kus see muundati [[elektronkiiretoru]]le vajalikuks [[analoog]]signaaliks. EGA'le järgnenud uut standardit - [[VGA]]'d - toetav videokaart oskas väljastada juba analoogsignaali. Tänapäeval, tänu [[vedelkristallkuvar]]ite laialdasele kasutamisele, väljastab videokaart nii analoog- kui digitaalsignaali. Uued videokaardid oskavad peale oma põhiülesande täita ka mitmeid lisafunktsioone, võimaldades näiteks [[kolmemõõtmeline arvutigraafika|kolmemõõtmelise]] ja [[kahemõõtmeline arvutigraafika|kahemõõtmelise]] arvutigraafika kiirendatud renderdamist ning [[MPEG-4]] dekodeerimist. Muid kõrge jõudlusega videokaarte kasutatakse graafiliselt nõudlike protsesside läbiviimiseks, näiteks nõudlike [[arvutimäng|arvutimängude]] mängimiseks.
 
Osad videokaardid on integreeritud emaplaadile, mis on eriti tavaline [[sülearvuti|sülearvutite]] puhul. Sellisel juhul on [[graafikaprotsessor|graafikaprotsessoril]] endal väga väike hulk kasutatavat mälu, mistõttu videokaart võtab kasutusele osa arvuti [[muutmälu|muutmälust]], vähendades vaba muutmälu hulka. Sellised integreeritud videokaardid on tavaliselt väikese jõudlusega ning seetõttu ei ole populaarsed nõudlikumate kasutajate hulgas. Integreerimata ehk siis eraldiseisvad videokaardid omavad erinevalt integreeritud videokaartidest oma muutmälu ning [[graafikaprotsessor|graafikaprotsessorit]], mis on spetsiaalselt mõeldud kujutiste töötlemiseks ning seeläbi vähendavad arvuti [[protsessor|protsessori]] koormust. Väiksest jõudlusest hoolimata omavad 95% hetkelmüüdavatest arvutitest integreeritud videokaarti, mis jätab kasutaja enda otsustada, kas lisada juurde täiendav videokaart, või mitte.
 
==Ajalugu==
Videokaardid on läbi käinud pika tee alates sellest, kui IBM esitles esimest esindajat 1981. aastal enda arvutiga IBM PC. Monokroomse kuvaadapteri nime (Monochrome Display Adapter - MDA) kandev kaart omas 4KB mälu ning oskas väljastada teksti näitavale kuvarile rohelist või valget teksti mustal taustal. 1987. aastal ilmus videokaartide maailma uus standard - VGA (Video Graphics Array). VGA standard sai vägagi laialt levinuks ning viis paljude nimekate firmade, näiteks ATI, S3 ja Cirrus Logic, loomiseni. VGA standardile järgnes juba Super VGA standard, mille eeliseks VGA ees oli parem lahutus, rohkem värve ning suur hulk mälu (2MB). Aastal 1995 väljastati esimesed 2D ja 3D videokaardid, mis võimaldasid 3D funktsioone. Need videokaardid olid arendatud firmade Matox, Creative, S3 ning ATI poolt. Aastal 1997 lõi firma nimega 3dfx esimese graafikaprotsessori nimega Voodoo, mis oli enda aja kohta väga võimas ning oskas kasutada 3D efekte. Varsti peale Voodoo ilmumist tõi 3dfx turule uue graafikaprotsessori Voodoo2, mille peale 3dfx konkurent NVIDIA tõi turule enda graafikaprotsessorid (TNT, TNT2). Samal ajal lõi Intel [[kiirendatud graafikaport|kiirendatud graafikapordi AGP]], mis täitis tühimiku videokaardi ning mikroprotsessorite vahel. NVIDIA jätkas videokaartide turu vallutamist ning aastal 1999 muutus NVIDIA maailma peamiseks videokaartide tootjaks. Aastatel 1999-20011999–2001 olid põhiliselt fokusseeritud 3D graafikat puudutavate algoritmide täiustamisele. Mõne aja möödudes võeti videokaartides kasutusele ka DDR tehnoloogia, kuna nähti vajadust suurendada andmete edastamise kiirust videokaardi mälu ja graafikaprotsessori vahel. DDR'i tulekuga suurenes mälumahtude suurus 32 megabaidilt 128 megabaidini.
 
Tänapäeval on olemas videokaarte, mis vastavad kõrgtootlikule standardile QXGA ((Quantum Extended Graphics Array), võimaldades kuvada miljoneid värve pildilahutusel kuni 2040 x 1536 pikslit.
22. rida:
===Graafikaprotsessor===
{{vaata|Graafikaprotsessor}}
Graafikakaardi protsessor, nimega graafikatöötlusüksus (graphics processing unit - GPU), on sarnane arvuti protsessorile (CPU). GPU on kavandatud nimelt teostama keerulisi matemaatilisi ja geomeetrilisi arvutusi, mis on vajalikud graafika viimistlemiseks. Lisaks oma töötlusvõimsusele kasutab graafikaprotsessor (GPU) eriprogrammeerimisviisi abi andmete analüüsiks ja kasutamiseks. Kujutise kvaliteedi parandamiseks kasutab graafikaprotsessor:
* Täisstseenset antiaalias põhimõtet (Full scene anti aliasing - FSAA), mis muudab kolmemõõtmeliste objektide servad sujuvamaks.
* Anisotroopset filtreerimist (Anisotropic filtering - AF), mis muudab kujutise selgemaks ja teravamaks.
Tehnoloogia arengu tõttu ei pea videokaardil tingimata olema üks GPU - moodsamatel kaartidel võib GPU'sid olla kaks või enam. Kuna GPU toodab oma tööga tublisti kuumust, paikneb ta peal tavaliselt radiaator või jahutusventillaator. Graafikaprotsessor vähendab oma tööga arvuti [[protsessor|keskprotsessor]]i töökoormust.
 
===RAMDAC===
41. rida:
|- align="center"
| '''[[DDR mälu|DDR]]'''
| 166–950
| 166 - 950
| 1.2 - 30.4
|- align="center"
| '''[[DDR2]]'''
| 533–1000
| 533 - 1000
| 8.5 - 16
|- align="center"
| '''[[GDDR3]]'''
| 700–2400
| 700 - 2400
| 5.6 - 156.6
|- align="center"
| '''[[GDDR4]]'''
| 2000–3600
| 2000 - 3600
| 128 - 200
|- align="center"
| '''[[GDDR5]]'''
| 3400–5600
| 3400 - 5600
| 130 - 230
|}
Kui graafikaprotsessor loob kujutise, siis ta vajab kohta, kus hoida infot lõpetatud piltide kohta. Selleks kasutab ta videokaardi mälu (RAM), ladustades andmed iga pikseli, tema värvi ja asukoha kohta ekraanil. Osa mälust (RAM) võib täita raampuhvri rolli, see tähendab, et hoitakse lõpetatud kujutisi, kuni saabub aeg neid kuvada. Tüüpiliselt töötab videomälu (RAM) väga kõrgel kiirusel ja omab ”kahepoolset sadamakaid” see tähendab, et süsteem võib andmeid lugeda ja kirjutada üheaegselt. Operatiivmälu (RAM) on ühendatud digitaal-analoog tõlgiga (digital-to-analog converter – DAC), mida tuntakse ka nimega RAMDAC, mis tõlgib kujutise kuvarile mõistetavaks analoogsignaaliks. Hetkel kasutusel olevate videokaartide muutmälu maht on vahemikus 128 MB kuni 4 GB. Tavaliselt kasutavad videokaardid spetsiaalset ning kiiret muutmälu, näiteks [[VRAM]]i, [[WRAM]]i, [[SGRAM]]i, jne. Aastal 2003 baseerus videokaartides kasutusel olev muutmälu [[DDR (mälu)|DDR]] tehnoloogial. Aja möödudes on videokaartide tootjad läinud üle uutele ning palju kiirematele tehnoloogiatele, näiteks [[DDR2 SDRAM|DDR2]], [[GDDR3]], [[GDDR4]],[[GDDR5]]. Hetkel laiatarbekasutuses olevatel videokaartidel on mälude taktsammud vahemikus 400 MHz kuni 3.8 GHz.
76. rida:
 
===Draiver===
Draiver on programmijupp, mis seletab videokaardile, mida ta peab joonistama. Kui rakendus teatab operatsioonisüsteemi vahendusel, et aken A on tarvis viia punktist B punkti C, siis kuvaadapterile arusaadavasse keelde tõlgib selle just draiver. Draiver sisaldab infot käskudest, mida graafikaprotsessor on võimeline täitma ja mida mitte, ehk millised pildiosad on võimeline ta ise välja arvutama ning millised vaja jätta protsessorile. Süsteemi töökiiruse ja võimaluste seisukohalt on draiveril oluline tähtsus. Sageli on videokaardi või operatsioonisüsteemiga kaasas mitu draiverit, iga eraldusvõime ja värvussügavuse jaoks oma - järelikult võivad ka videokaardi võimalused eri reziimides erineda, olenevalt konkreetsest draiverist.
 
==Vaata ka==