Reklama

Proč a jak lžou testy spotřeby grafických karet

Povíme si, kde se při porovnávání spotřeby karet v recenzích dělají chyby a jaké a nač byste měli si při čtení výsledků v testech pamatovat a na co si dát pozor. Ve druhé polovině článku najdete unikátní podrobné srovnání spotřeby devíti karet v Medal of Honor.

Co a jak je špatně v testech spotřeby

Konečně jsem se dostal k tomu, abych přebral a zpracoval další výsledky, které jsem naměřil v Medal of Honor při testování grafických karet. Než začnete v diskuzi lamentovat, že to mohlo být už v samotném testu, vězte, že mám také jiný důvod proč se spotřebou zabývat trochu šířeji a v samostatném článku.  Měření spotřeby ve hrách si zaslouží trochu omáčky kolem, a v šestistránkové recenzi by se jí určitě nedostalo takové pozornosti ze strany čtenářů. Budu se snažit, abyste se s podobnými a troufám si říci, že unikátními grafy průběhu spotřeby na Extrahardware setkávali co nejčastěji. Na rozdíl od běžného způsobu měření, který se v recenzích obvykle používá, lze s touto metodikou dosáhnout přesnějších výsledků i podstatně lepší představy o reálné spotřebě počítače při hraní.

Asi není třeba zdůrazňovat, že prakticky všechna měření, která v recenzích najdete, se týkají celé sestavy. Na ˜„spotřebě karet“ v grafech se tedy podílejí i ostatní komponenty. I bez nečekaných výkyvů může nepřesnosti v měření způsobit už samotný procesor – u výkonnějších grafických karet může být kvůli většímu množství výpočtů vytížený víc, než v případě slabší grafiky. To nejspíš nijak neovlivníme ani neeliminujeme. Na druhou stranu to ani není žádoucí. Jestliže pořídíte výkonnější grafiku, musíte počítat s tím, že bude více  zaměstnávat procesor a s tím poroste i spotřeba celého systému, právě to, co nás v důsledku zajímá.

Reklama

Obvykle se v lepším případě setkáte s měřením spotřeby v konkrétním místě hry. V horším případě vám recenzent naservíruje jen maximální hodnotu, které sestava dosáhla během celého testu. Při tomto způsobu už se nezohledňuje, že se PC nemuselo na tuto špičku dostat vinou grafické karty, ale mohlo na ni vyskočit kvůli nenadálému zatížení procesoru či pevného disku ze strany jiných aplikací běžících na pozadí či samotného systému.

Dalším „drobným“ nedostatkem, který běžné grafy s výsledky měření spotřeby nezohledňují, je skutečnost, že každá z porovnávaných hodnot je dosažena při jiné snímkové frekvenci a každá z karet má při dané spotřebě jiný výkon. To lze částečně kompenzovat zařazením grafu s poměrem výkon/watt. Pokud máte i nějaký lepší návrh, jak z toho vybruslit, sem s ním.

Větší teplo, větší spotřeba

Při měření záleží také na tom, kdy a jak dlouho po spuštění zátěže spotřebu měříte. Se zvyšující se teplotou jádra totiž stoupá i spotřeba karty – pro příklad se stačí podívat na průběh spotřeby po spuštění MSI Kombustor, ve kterém spotřeba až do ustálení teplot stoupá, přestože kartu zatěžuje stále stejně náročnou scénou. Vliv závislosti teploty na spotřebě je vidět už na začátku grafu, kde se spotřeba vyhoupne nahoru a poté, kdy se ventilátor začne točit rychleji a teplota jádra o něco klesne, spadne i spotřeba.

graf závislosti spotřeby a teploty v msi kombustor

Mimo jiné z tohoto grafu také vyplývá, že výsledky měření spotřeby u dvou stejných karet s odlišně výkonným chlazením nelze označit za srovnatelné.

Průměr spotřeb lépe vypovídá o reálné spotřebě sestavy při hraní. Při něm se špičkových hodnot, podle kterých se jinak grafiky často hodnotí, dosahuje jen výjimečně. Podle grafů z Medal of Honor, které uvidíte dále, by se hodnocení podle maximální spotřeby nemuselo zdát jako velký problém. Ale tento titul je vedle dalších her spíše výjimkou. Kromě grafické karty velmi intenzivně vytěžuje i procesor. Spotřeba celé sestavy se tak dostávala na hodnoty, které u jiných her jen tak neuvidíte. Křivka spotřeby v zátěži (potažmo spotřeba sestavy) v průběhu animace kolísá méně, než tomu bývá v jiných hrách. Svůj podil na tom má právě vyšší zátěž procesoru, kvůli které má změna spotřeby grafiky na spotřebu celé sestavy menší vliv.

Jako příklad pro srovnání, jak to také může vypadat, ale vezmeme ještě měření z Far Cry 2 a Crysis:

spotřeba ve far cry

Přesnější představu o rozdílu mezi měření špiček a průměrné spotřeby získáte z následujících tabulek:

 

Crysis Warheadprůměrná spotřebamaximální spotřebarozdílodchylka
GeForce GTX 470406,1 W450,0 W43,9 W10,8 %
Radeon HD 6850306,6 W311,0 W4,4 W1,4 %

 

Far Cry 2 (ranch medium)

průměrná spotřeba

maximální spotřebarozdílodchylka
Radeon HD 5850279,5 W289,0 W9,5 W3,4 %
Radeon HD 6850271,7 W283,0 W11,3 W4,2 %
GeForce GTX 470388,8 W419,0 W30,2 W7,8 %
GeForce GTX 460320,5 W345,0 W24,5 W7,6 %

 

Pokud bychom brali v potaz jen špičkovou spotřebu, GeForce by mi kvůli jednomu výraznému vteřinovému výkyvu od průměru vycházela kromě 100W rozdílu, který udělá rozdíl průměrů, ještě o 39,5 W horší, protože Radeon při své špičce v nejkritičtějším místě od průměru uskočil jen o 4,4 W.

Ve Far Cry 2 je rozdíl o něco menší, přesto to ale dělá téměř 20 W. V Medal of Honor už je průběh o něco klidnější, ale o tom už dále.

Další články na téma: 
Oblíbené Tisk E-mail
Reklama

Komentáře

Fermi je nenazrana a je jedno ako sa to snazis okraslit. Pokial viem, grafika bez ostatnych komponentov nemoze fungovat a preto je spotreba samotnej karty irelevantna, takisto nikoho nezaujima ci viac zatazi procesor a ine blaboly.

Fermi ani tak ne, jako jeho první geenrace. GTX580 vypadá zatím poměrem na výkon/watt hodně dobře a to i vzhledem ke spotřebě, ale vše sou jen spekulace.

A mě zajímá spíš spotřeba samotné karty abych si mohl sám spočítat zda mi ji zdroj utáhne. Nejsem jediný a není to nesmyslné měření.

GTX 580 je stale prva generacia :-). S reviziou jadra. Okrem toho serverov ktore meraju len spotrebu karty vela nie je a spoliehat sa na TDP oficialne udavane Nvidiou - to by si sa mohol popalit.

Na mnoha webech se uvádí GTX580 resp GF110 jako "second generation of Fermi". Já se k tomu přikláním. Revize jádra znamená stejné jádro s vylepšenou výrobou ale GF110 NENÍ GF100. I kdyby teoreticky byla.

koukal jsi na přepínací graf GTX470 vs HD6870? To je realita dnešních dnů

Kdo chce znát spotřebu samotných karet, může mrknout na Techpowerup, koho zajímají podrobnosti (průběhy, špičky...), může navštívit X-bit labs. IMHO je celkem zbytečné, aby tyhle podrobné testy dělali všichni. Každému rozumně uvažujícímu člověku musí být jasné, že měření sestavy není všeříkající, tím víc pokud chybí metodika, ale pro hrubou představu stačí. Navíc spoustě čtenářů je samotná karta putna a zajímá je právě celá sestava (doma si také nebudou pouštět samotnou kartu). Tak nechme na specializovaných webech, ať řeší speciality, a ostatní mohou klidně dělat celé sestavy. Kdyby to do budoucna bylo pomocí průběhů, jako tady, bylo by to pro drtivou většinou čtenářů naprosto dostačující.

BTW, poslední měření HD 6870 a 6850 plus srovnávací grafy: http://www.xbitlabs.com/articles/video/display/radeon-hd6870-hd6850_9.ht...

Je však zajímavé, že Techpowerup a Xbitlabs se ve svých výsledcích jednotlivých karet dosti liší :(

Různé karty, různé podmínky, různá metodika, různé výsledky. Porovnání karet v rámci jednoho webu by mělo na obou dopadnout podobně. Rozdíl mezi TPU a XBL jen dokládá, že testy spotřeby samotných karet také nejsou všespasitelné.

Amen!

Chcel by som sa opytat redakcie, ci by bolo mozne v testoch grafickych kariet uvadzat aj spotrebu celej zostavy (PC only) po pripojeni 2 monitorov (v idle), pripadne 3 monitorov v idle a burne.

Myslim, ze tých, co maju 2 a viac monitorov nie je az tak malo a vela ludi by tato hodnota mohla zaujimat.

Tak s tímhle souhlasím. Zrovna si chci koupit druhý a zajímá mě, o kolik si připlatím :) I když to důvod pro rozhodnutí nebude.
Použité připojení by měly být DVI/HDMI, displayporty možná spotřebu zvyšovat takto nebudou.

Možné by to bylo, teoreticky tomu nic nebrání, monitorů s DVI a HDMI tu na to mám dost.

Na druhou stranu se tu kousek výše píše o tom, jak je zbytečné dělat něco, co se dá poskládat z měření Xbit-labs a techPowerUp! (přestože mám výhrady jak k izolovaném měření spotřeby grafické karty, tak vůbec k celým testům na TPU). No a jelikož se snažíme neodkazovat pouze konkurenci s hustým výskytem prezentace velmi podivných názorů/testů a recenzí, tak vám klidně ještě jednou zmíním, že David Ježek na DIIT zrovna měření nárůstu spotřeby PC (a různou grafickou kartou) s druhým monitorem v recenzích pravidelně má. Jestli ji někdy zařadí i Adam, ušetří to zájemcům hledání jinde, ale z mého pohledu je to jedna blbost k druhé a ve výsledku komplexita tvorby recenze narůstá a narůstá (a pak se nic nestíhá).

Souhlas, myslím že měření spotřeby zde na EXH Adamem bylo provedeno vyčerpávajícím způsobem, takže bych toto téma již uzavřel a věnoval bych váš drahocený čas něčemu novému.
Pokud vám nová témata docházejí (asi nepravděpodobné), využil bych toho a rád bych se přimluvil za následujcí testy:
1. Test MLAA (jeho kvalita s režie)
2. Test UVD3 (i s ohledem na to, že UVD3 budou zřejmě obsahovat nová APU od AMD)
3. Samozřejmě také test AF na HD6800. Zde se přikláním k testování pouze na hrách, které byly využity již pro testy výkonu. Testy by pak byly celkově ucelené a samozřejmě byste nedopadli jak na ComputerBase.

Díky, že mě hned nenakopete do zadku, když si tak vymýšlím :)

MLAA MJ slíbil

Po pravdě tohle je docela důležité. Navíc například s mým monitorem (jedním) nové ATIny nejsou kompatibilní bez toho "alternativního režimu DVI", nebo jak tomu říkají. A pak frekvence neklesají a žere to stejně, jako se dvěma monitory.
BTW zajímavé, že starší ATIny a nvidie takové nastavení nepotřebovaly (resp. nvidie ani nemají) a spotřebu v idle mají tudíž ve finále u mně o dost nižší než nové rádoby úsporné AMD. Ta problematika je fakt dost složitá :)

To vypadá spíše na nekompatibilní DVI tvého monitoru než na chybu těch "rádoby úsporných AMD". IMHO

Ještě mě napadlo jak možná smazat rozdíli vlivu náročnosti GPU na CPU, resp eliminovat větší zátěž CPU kvůli GPU. A to nastavit na tvrdo požadovaný takt (4GHz).

1)Nevím ale zda je nějaký rozdíl při procesoru tikajícím na 4GHz a procesoru který běží na 4GHz a je ve 100% loadu.
2)Na EHW to stejně asi přidáno do testovací metodiky nebude, jen by to byla zajímavá věc. Přeci-jen, kupuji si grafiku, tak je pro mě jednodužší připočítat si spotřebu grafiky ke spotřebě procesoru.

Neeliminuješ zátěž ve wattech, především ne peak. Eliminuješ případné čekání GPU na data od procesoru.

ad 1) Rozdíl tam je a podstatný.

Podle me by se dal eliminovat vliv zatizeni procesoru necim jako HyperPi pustenym s co nejnizsi prioritou (Nízká) na pozadi hry . Mozna by tim nepatrne klesnul i celkovy vykon, ale podle me je prepinani vlaken dostatecne efektivni na to aby vliv nebyl moc patrny. CPU pak bude porad brat 100% energie.

Podminkou je mit dostatecne dimenzovane chlazeni CPU a hlavne ho ridit tak aby vykyvy teploty CPU byly co nejnizsi (kvuli eliminaci vykyvu ve spotrebe).

Vlivy disku by se asi dali eliminovat podobnym zpusobem. Nutny vy byl vykonny SSD disk, ktery by byl konstantne zatezovan treba na 20% sveho vykonu v nahodnem pristupu aby se eliminovali setrici funkce. (rozdil ve vytizeni ridiciho cipu by pak mohl delat maximalne nekolik malo jednotek wattu a to by se dalo vyzkouset a zahrnout do chyby mereni) Navic by to mohlo zamezit pripadnym lagum hry, kdyz system nutne dela neco s diskem a tim i propadum v minimalnich FPS, ktere u nekterych her mohou byt pristupy na disk.

Co se tyka chlazeni grafickych karet tak bych srovnaval stejne jako dnes. To ze ma nereferencni reseni mensi spotrebu je prima a pro bezne pouziti je jedno jestli je to lepsim navrhem PCB, kvalitnejsimi soucastkami nebo lepsim chlazenim.

Toto by nefungovalo, lebo rôzne záťažové softy (a rôzne softy vôbec) rôzne zaťažujú CPU, a tak hoci pri každom bude hlásiť 100% vyťaženie, v každom bude mať inú spotrebu energie.

No fungovalo by to rozhodne o dost lip, nez bez toho. A nic nebrani pustit na kazdy jadro 10 ruznejch aplikaci aby se zatez zprumerovala..

Super námět i grafy. Jedinu výtku, která mne hned napadla je to, že mřížka osy by měla být u spotřeby nikoli u snímkové frekvence respektive hlavní osa by měla být spotřeba a vedlejší osa snímková frekvence. Kromě toho, že by to bylo logičtější, když se jedná o test spotřeby, tak by to bylo též přehlednější při snaze vyčíst z grafu průměrnou spotřebu. Ale i bez toho ještě jednou pochvala....

Krome ceny za elektrinu jste zapomel jeste na jeden duvod - hluk. Cim nizzsi spotreba sestavy, tim nizzsi hluk vyprodukuje.

hluk snad zalezi hlavne na kvalite chlazeni ;)

komponenta s pasivnim chlazenim a spotrebou 80W bude porad mene hlucna nez komponenta s 50W a aktivnim chlazenim

Ja vedel, ze se toho hned nekdo chytne - samozrejme jsem myslel stejny typ chlazeni.
Mate plnou pravdu, ze zalezi na kvalite chlazeni, ve sve reakci jsem predpokladal stejen kvalitni chlazeni.

Jinak i ve Vasem pripade nemusite mit pravdu - pasiv odvadi teplo dovnitr pocitace a tech 80W se zase musi dostat nejak ven - vetsinou uz ne pasivne, ale aktivne. Dovedu si tedy predstavit, ze PC s 80W pasivni grafikou jako celek dela vetsi hluk, nez jine PC s 50W aktivni grafikou.

To přeci záleží na tom, jestli vyžaduješ konstantní teplotu.
Jinak se ti při vyšší spotřebě akorát zvýší, ale hlučnost může být stále stejná.

Stránky

Reklama
Reklama