Forbruk gtx 560 ti. Jeger i titan rustning

Nvidia og AMD gjør alt de kan for å sikre at de har noe å tilby som et alternativ til noen av konkurrentenes produkter. Ingen skjermkort har noen gang blitt det dominerende produktet i en bestemt prisgruppe på lenge.

La oss ta et eksempel: nVidia nylig utgitt GeForce GTX 550 Ti som en verdig rival til Radeon HD 5770/6770-modellen, og AMD presenterte på sin side et skjermkort Radeon HD 6790, som kan konkurrere med GeForce GTX 460 768 MB fra nVidia.

nVidia ga sitt rivaliserende selskap et nytt slag: det ga ut GeForce GTX 560. Legg merke til fraværet av "Ti"-suffikset. Skjermkort GeForce GTX 560 Ti konkurrerte med Radeon HD 6950 1 GB-modellen fra AMD. Dermed er dette produktet designet for å "bekjempe" det litt rimeligere Radeon HD 6870-skjermkortet, som kan kjøpes i nettbutikker for rundt 200 dollar.

Men hvordan snudde nVidia modellen GeForce GTX 560 Ti i GeForce GTX 560? Ja, dette krevde flere trinn enn bare å fjerne suffikset. Det er som om GF114-brikken plutselig fikk et tøff fra et ufarlig skumleketøy.

Med andre ord, nVidia slår av streaming-multiprosessoren. Det viser seg at GeForce GTX 560 fungerer med syv av de åtte streaming-multiprosessorene til GF114. Hver løpende SM har 48 trådkjerner, fire forsendelsesenheter og åtte teksturenheter. Alle de fire 64-bits ROP-partisjonene er funksjonelle og hver er i stand til å behandle åtte 32-biters heltallspiksler per klokkesyklus. Som et resultat har GeForce GTX 560-modellen 336 strømkjerner, 56 teksturenheter og 32 rasteroperasjonsrørledninger (ROP) med et 256-bits minnegrensesnitt.

Hvis disse spesifikasjonene høres kjent ut for deg, er det fordi de er nøyaktig de samme som til Nvidias GeForce GTX 460 1GB. Dette er forståelig: tross alt er GF114 GPU funksjonelt identisk med GF104. Den har nettopp blitt tilpasset for å tillate høyere klokkehastighet samtidig som den bruker mindre strøm. Gitt alt det ovennevnte, kan du anta at grafikkortet GeForce GTX 560 er rettet mot å erstatte modellen GeForce GTX 460. Men det er en annen variabel som må tas i betraktning: klokkehastighet. Referanse GeForce GTX 460-skjermkortet hadde en kjerne som opererer på 675 MHz, og GDDR5-minne krevde 900 MHz. Men GeForce GTX 560-modellen kjører på 810 MHz for kjernen og 1002 MHz for minne - dette er mye nærmere nivået GeForce GTX 560 Ti(822/1022 MHz for henholdsvis kjerne og minne).

Vi husker alle at etter overklokking økte ytelsen til GeForce GTX 460 ganske bra. Det er av denne grunn vi forventer at GeForce GTX 560 lett vil konkurrere med Radeon HD 6870-modellen fra AMD. Når det gjelder konkurrerende produkter, la oss se på andre alternativer til lignende priser.

GeForce GTX 460 1 GB GeForce GTX 560 1 GB GeForce GTX 560 Ti 1 GB Radeon HD 6870 1 GB
Trådkjerner 336 336 384 1120
Teksturblokker 56 56 64 56
Fullfarge rasterrørledninger 32 32 32 32
GPU klokkehastighet 675 MHz 810 MHz 822 MHz 900 MHz
Shader frekvens 1350 MHz 1620 MHz 1644 MHz Ingen data
Minnefrekvens 900 MHz 1002 MHz 1002 MHz 1050 MHz
GDDR5 minne 1 GB 1 GB 1 GB 1 GB
Minnegrensesnitt 256 bit 256 bit 256 bit 256 bit
Minnebåndbredde 3,6 GB/s 4 GB/s 4 GB/s 4,2 GB/s
Teksturfiltreringshastighet 37,8 Gtex/s 45,4 Gtex/s 52,5 Gtex/s 50,4 Gtex/s
Videoutganger 2 x DL-DVI
1 x mini-HDMI
2 x DL-DVI
1 x mini-HDMI
2 x DL-DVI
1 x mini-HDMI
2 x DL-DVI
1 x mini-HDMI
2 x DisplayPort
Formfaktor To spor To spor To spor To spor
Strømkontakter 2 x 6-pins 2 x 6-pins 2 x 6-pins 2 x 6-pins
Anbefalt strømforsyning 450 W 450 W 500 W 500 W
Termisk pakke 160 W 160 W 170 W 151 W

Tabellen viser tydelig at GeForce GTX 560-skjermkortet i hovedsak er en GeForce GTX 460-modell overklokket til GeForce GTX 560 Ti .

Nvidia ga oss ikke et referansebrett for denne testingen. I stedet ble vi rådet til å kontakte et par av nVidias partnere involvert i produksjon av skjermkort. Så i laboratoriet vårt har vi to grafikkort: GeForce GTX 560 AMP! Edition fra Zotac og GTX 560 DirectCU II TOP fra Asus.

Ny nVidia-driver 275.20

I tillegg til det nye grafikkortet, introduserer nVidia en ny versjon av GeForce-drivere. I tillegg til de vanlige påstandene om økt ytelse – spesielt for PC-spillene Crysis 2, Portal 2 og Bulletstorm – er det noen andre interessante funksjoner.

Du er kanskje kjent med driverutgivelsesvarslene introdusert i versjon 270: når en ny driver er tilgjengelig for nedlasting, varsler systemet deg om det. I følge nVidia bestemte mer enn 90 % av brukerne med skjermkort denne funksjonen seg for å aktivere den. I den nye versjonen 275.20 kan du aktivere funksjonen for automatisk nedlasting av SLI- og AA-oppdateringer. Du kan også se hvilke oppdateringer som er installert i historikkfanen i driverens kontrollpanel. En fremtidig versjon av driverne planlegger å legge til 3D Vision-profiler, men nVidia har ikke annonsert en eksakt utgivelsesdato for de nye driverne.

Introduksjon Som alle som i det minste er litt interessert i nye produkter i det diskrete datagrafikkmarkedet vet, var fødselen til GeForce GTX 480 vanskelig, og den førstefødte av den nye NVIDIA Fermi-arkitekturen ble ikke født i sin fulle konfigurasjon. Først mot slutten av 2010 fullførte selskapet arbeidet med feilene, og presenterte for publikum en forbedret versjon av GF100-kjernen - GF110. Den raffinerte og forbedrede etterfølgeren var endelig i stand til å bli det GF100 burde vært helt fra begynnelsen, og løsninger basert på den, GeForce GTX 580 og GeForce GTX 570, vant vår sympati, og presterte utmerket i gamingtester.

Men helt fra begynnelsen var det klart at NVIDIA ikke ville begrense seg til dette, og prosessen med å erstatte GeForce 400-familien med GeForce 500-familien ville fortsette. Neste kandidat i denne kjeden var naturligvis GeForce GTX 460. Det skal sies at løsninger basert på GF104 i utgangspunktet viste seg å være mer vellykkede enn de eldre GeForce 400-modellene som brukte GF100. For det første var selve brikken enklere og billigere å produsere, og for det andre var den i stand til å utføre FP16-teksturfiltrering i full hastighet.

Alt dette tillot ham å bli NVIDIAs "hovedstridstank" i lang tid, i stand til å lykkes med å kjempe mot fienden og beseire ham. I priskategorien $199-229 hadde GeForce GTX 460 768MB og GeForce GTX 460 1GB ingen like i lang tid, og tilstedeværelsen på markedet av et stort antall modeller med seriøs fabrikkoverklokking vitnet om det høye potensialet til GF104 . Imidlertid hadde denne kjernen også sin egen "mørke hemmelighet" - av de åtte multiprosessorene den inneholdt, var bare syv aktive, noe som ga 336 ALUer og 56 teksturenheter, mens det var henholdsvis 384 og 64 fysiske enheter.

Det er usannsynlig at GF104 led av de samme "barnesykdommene" som GF100; det var bare det at NVIDIA, tilsynelatende, prøvde å gi ut en ny masseprodusert grafikkjerne til markedet så raskt som mulig, samtidig som den sikret maksimalt utbytte av brukbare krystaller. Mange gjennomgangsressurser antydet at etter den avkortede versjonen av GF104, kan en full versjon se dagens lys, men dette skjedde aldri i løpet av GeForce 400-familiens levetid.

Dette skjedde først i dag, 25. januar, da NVIDIA introduserte verden for etterfølgeren til GF104 - GF114-kjernen, samt et nytt "performance-mainstream"-grafikkkort basert på den. I NVIDIA-terminologi kalles klassen med rimelige, men høyytelses grafikkort "Hunter", men vi foretrekker sammenligningen til moderne kampvogner. I dette perspektivet ser flaggskipmodeller som koster mer enn $250 ut til å være kraftige, tunge og godt bevæpnede tankmodeller, som imidlertid på grunn av deres relativt små antall ikke kan skape en fordel langs hele fronten. Denne harde og utakknemlige jobben faller på skuldrene til mer masseproduserte kampkjøretøyer som kombinerer enkelhet med akseptable taktiske og tekniske egenskaper.

NVIDIAs nye kampmaskin av denne klassen er GeForce GTX 560 Ti, kunngjort i dag. Helt ærlig, tilbakegangen til bruken av prefikser i grafiske titler overrasket oss. "Ti" betyr åpenbart "Titanium", noe som burde antyde de utmerkede forbrukerkvalitetene til det nye produktet, men bruken av forskjellige prefikser og suffikser ødelegger det harmoniske navnesystemet og tar oss tilbake til det fjerne 2001, da de ovennevnte prefikset ble først brukt i navnet til en av modellene GeForce 2. Etter vår mening kunne vi begrense oss til navnet GeForce GTX 560 og ikke skape potensiell forvirring i hodet til kjøpere.

På en eller annen måte er den nye GeForce GTX 560 Ti her, og vi skal se nærmere på den for å finne ut hva NVIDIAs nye mainstream-tank kan gjøre på slagmarken.

NVIDIA GeForce GTX 560 Ti: arkitektur

Som med GeForce GTX 580/570 har ikke organiseringen av den nye kjernen endret seg. I hovedsak er GF114 en fullt aktiv GF104 optimalisert for å oppnå høyere klokkehastigheter samtidig som strømforbruket holdes innenfor rimelige grenser.


To GPC-klynger inkluderer fire multiprosessorer, som hver i sin tur har 48 universelle trådkjerner, og følgelig er det totale antallet av disse kjernene 384. Hver multiprosessor betjenes av åtte teksturoperasjonsenheter, så det totale antallet aktive TMU-er i den nye brikken er 64. Arkitekturen til teksturprosessorer har ikke endret seg siden GF104. De er i stand til fullhastighetsfiltrering av FP16-teksturer, sammen med det tradisjonelle INT8-formatet. Men teksturfiltrering i FP32-format er fire ganger tregere. Volumet til cachen på andre nivå, som i GF104, er 512 KB.

I tillegg inkluderer hver multiprosessor også en PolyMorph Engine, som setter GF114 hode og skuldre over enhver AMD-løsning innen områdene geometrisk prosessering og tessellasjon. Selv de to tredjegenerasjons tessellasjonsenhetene i Cayman vil neppe være i stand til å konkurrere på like vilkår med de åtte enhetene til GF114. GF114 forblir den samme og inkluderer 32 RBE-enheter. Siden dette undersystemet er direkte koblet til minneundersystemet, består sistnevnte fortsatt av fire 64-bits kontrollere, så den totale bredden på bussen som kobler GPUen til den lokale minnebanken er 256 biter.

Når det gjelder multimediefunksjoner, ble ingen merkbare innovasjoner lagt merke til her, men de er i hovedsak ikke nødvendige: GF104 kunne allerede gjøre alt nødvendig etter moderne standarder, inkludert full maskinvaredekoding og skalering av høyoppløselig video i H.264 og VC -1-formater, samt beskyttet flerkanals lydutgang i Dolby TrueHD og DTS-HD Master Audio-formater via Protected Audio Path. Den eneste betydelige fordelen som AMD kan skryte av på dette området er støtte for maskinvare DivX-dekoding.

Generelt samsvarer GF114 perfekt med prinsippet om "rimelig tilstrekkelighet" - den støtter all moderne grafikk- og multimedieteknologi, men inneholder ikke noen sjeldent nødvendige ekstrautstyr, for eksempel muligheten til å koble til seks skjermer samtidig. Faktisk er den nye mainstream NVIDIA-grafikkprosessoren ikke noe mer enn en naturlig evolusjonær utvikling av ideene som er nedfelt i GF104. La oss vurdere hvordan en løsning basert på den ser ut på bakgrunn av rivaler, forgjengere og eldre brødre.

NVIDIA GeForce GTX 560 Ti: plass i rekkene

Akkurat som GF110 er den "riktige" versjonen av GF100, er den nye GF114 hva GF104 burde vært hele tiden. Som et resultat av arbeidet med feilene klarte NVIDIAs utviklingsteam å oppnå stabil drift av den nye kjernen i en full konfigurasjon med åtte aktive multiprosessorer, noe som gir totalt 384 universelle ALU-er, og med høyere klokkehastigheter enn i tilfellet. av GF104. Imidlertid er slike ting mye bedre forstått ved sammenligning:



* fra og med Catalyst 10.12


Så det er åpenbart at den nye GeForce GTX 560 Ti er for GeForce GTX 460 1GB hva GeForce GTX 580 og 570 er for henholdsvis GeForce GTX 480 og GeForce GTX 470. Med andre ord, dette er nok et "gammelt eventyr på en ny måte", men det er ikke noe galt med dette, siden Fermi-arkitekturen i seg selv er veldig vellykket, kanskje med unntak av at teksturundersystemet ikke er særlig produktivt i sammenligning med løsningene til konkurrenten.

Først av alt er de betydelig økte kjerneklokkehastighetene slående - over 800 MHz for hoveddomenet og over 1,6 GHz for databehandlingsdomenet. For NVIDIA-løsninger, tatt i betraktning deres arkitektoniske funksjoner, er dette en svært alvorlig prestasjon. Tidligere var slike frekvenser kun underlagt individuelle GeForce-modeller med fabrikkoverklokking, men fra nå av bør AMD begynne å bekymre seg seriøst, siden selv hoveddomenet til GF114 fungerer raskere enn hele kjernen til Radeon HD 6950. Dessuten er sistnevnte har bare 352 universelle VLIW4-prosessorer mot 384 skalære ALU for GF114.

Samtidig er det kjent at ATI/AMD-grafikkarkitekturen ikke alltid oppnår maksimal ytelse, og dens nye inkarnasjon i form av Cayman har dessuten mistet en dedikert ALU for komplekse operasjoner, og om nødvendig blir den tvunget å bruke fire enkle ALUer, og dermed miste i "thrust-to-weight ratio". Det følger at i det mest upraktiske tilfellet for AMD Cayman-arkitekturen, vil Radeon HD 6950 være alvorlig dårligere enn GeForce GTX 560 Ti med sine 384 trådprosessorer som opererer ved frekvenser over 1600 MHz. Tester vil vise hvordan ting vil slå ut i virkelige applikasjoner. Det er ingen grunn til å snakke om Radeon HD 6870 - den er dårligere enn GeForce GTX 560 Ti på alle måter, inkludert teksturundersystemytelse.

Egenskapene til GeForce GTX 560 Ti-minneundersystemet har forbedret seg noe, men 128 GB/sek sammenlignet med ytelsen til AMD Cayman og til og med Barts ser ikke ut som en åpenbaring. Det er ikke helt klart hva som hindret NVIDIA-utviklere fra å øke videominnefrekvensen til det nye produktet til minst 1125 (4500) MHz. Løsninger basert på GF110 har en begrunnelse: å oppnå stabil minnedrift ved slike frekvenser med en 320-bits eller til og med 384-bits tilgangsbuss er en ekte kunst, men GF114, som, i likhet med sin forgjenger, har en 256-bits minnebuss, er fri for denne begrensningen , og ingenting ville hindre bruken av kraftigere GDDR5-brikker i GeForce GTX 560 Ti-designet, i det minste i teorien. Imidlertid er toppbåndbredden til videominneundersystemet ikke den sterke siden til GeForce GTX 560 Ti, og i denne parameteren blir det nye produktet etterlatt selv av Radeon HD 6870, for ikke å nevne Radeon HD 6950.

Når det gjelder ytelsen til teksturundersystemet, med opplåsingen av den åttende multiprosessoren og heving av kjerneklokkehastigheten til 820 MHz, har denne ofte kritiserte flaskehalsen til Fermi-arkitekturen i stor grad blitt konstruert. Med 64 aktive TMU-er når den maksimale teksturbehandlingshastigheten 52,6 gigatexels per sekund, som er enda høyere enn de samme indikatorene til de eldre modellene i GeForce 500-familien. AMD Cayman med sine 96 teksturprosessorer (88 i tilfellet med Radeon) HD 6950) er i stand til mer, men på mange måter kommer dette skytingen ut av en kanon: som testresultatene viser, lider ikke GeForce GTX 580 og GeForce GTX 570 av mangel på TMU-ytelse i det hele tatt, og den nye GeForce GTX 560 Ti, som allerede nevnt, er foran dem på dette området.

Ytelsen til rasteroperasjonsundersystemet er også utmerket på grunn av den økte kjernefrekvensen. Toppfyllingshastigheten til den nye GeForce GTX 560 er litt lavere enn for Radeon HD 6870, hvis kjerne opererer på 900 MHz, men høyere enn for den mer arkitektonisk avanserte Radeon HD 6950. Det skal ikke være ytelsesmangler selv ved høye oppløsninger ved bruk av kantutjevnelse.

De gjenværende funksjonene til GeForce GTX 560 Ti forblir de samme; Det er bare verdt å merke seg at som et resultat av optimaliseringene gjort av GF114-utviklerne, økte TDP med bare 10 watt sammenlignet med forgjengeren. La oss gjenta, det er ingenting galt med det faktum at det nye produktet er en forbedret versjon av GeForce GTX 460 1GB med åtte aktive gjenge-multiprosessorer og høyere GPU- og minneklokkehastigheter. Forgjengeren GeForce GTX 560 Ti var og fortsetter å være en veldig god løsning og et utmerket valg for en spiller som ikke vil bruke mer enn $250 på et grafikkort. Arvingen tok alt det beste fra ham og brakte det til logisk perfeksjon, og økte i pris med bare 20 dollar.

Med en offisiell MSRP på $249, faller den nye GeForce GTX 560 Ti automatisk mellom Radeon HD 6870 og Radeon HD 6950 mens den kan konkurrere med begge, og noe forteller oss at den har en god sjanse til å vinne. La oss se på den nye NVIDIA-løsningen i detalj. Denne gangen var prøven med NVIDIA-referansedesign den første som nådde vårt testlaboratorium.

NVIDIA GeForce GTX 560 Ti: design og tekniske spesifikasjoner

Den nye GeForce GTX 560 Ti er omtrent 2 centimeter lengre enn forgjengeren, GeForce GTX 460 1GB, i hvert fall i referanseversjonen. Lengden på det nye produktet er 23 centimeter, noe som lar deg enkelt installere det i de fleste mer eller mindre romslige bygninger.


Noen problemer kan oppstå i tilfeller med kort base, siden strømkontaktene på GeForce GTX 560 Ti er plassert på enden av brettet. Hvis dette med referansedesignet til GeForce GTX 460 ikke utgjorde et stort problem, kan her et par ekstra centimeter bli avgjørende. Før du kjøper en GeForce GTX 560 Ti, skader det ikke å sørge for at det er nok plass til den i etuiet.



Demontering av kjølesystemet avslørte ingen spesielle avsløringer for våre øyne, bortsett fra at vi var fornøyd med festingen med vanlige Phillips-skruer, og ikke den naturlig irriterende Torx T2, som i designet til GeForce GTX 570. Vi håper at det vil brukes i fremtiden.

Det kan ikke sies at utformingen av GeForce GTX 560 Ti PCB har gjennomgått betydelige endringer. En av minnebrikkene sitter fortsatt stolt på venstre side av GPU-en, mens de syv andre er plassert i den tradisjonelle "L"-formen over og til høyre. Tilsynelatende ble det brukt betydelige deler av referanse-PCB-designet fra GeForce GTX 460. De største endringene påvirket kraftundersystemet, som nå er bygget i henhold til et "4+1"-skjema. Tatt i betraktning de økte frekvensene til GF114, er styrking av GPU-kraftstabilisatoren et logisk skritt fra utviklernes side.


Hjertet til den grafiske kjernekraftregulatoren er fortsatt NCP5388-kontrolleren produsert av ON Semiconductor. En beskjeden Richtek RT8101-brikke, plassert over chokene til hovedstrømsystemet, er ansvarlig for å administrere minnekraften. I likhet med forgjengeren bruker GeForce GTX 560 Ti to sekspinners PCIe 1.0-kontakter med en maksimal anbefalt belastningskapasitet på 75 watt for å koble til strømforsyningen. Det er ikke plass til en åttepinners PCIe 2.0-strømkontakt i referansedesignet.


Utformingen av NVIDIA GeForce GTX 560 Ti bruker mye brukte brikker produsert av Samsung Semiconductor K4G10325FE-serien. De finnes i det minste om bord på GeForce GTX 580, så vel som mange andre grafikkort. Disse GDDR5-brikkene har en kapasitet på 1 Gbit (32Mx32), og HC04-suffikset indikerer en nominell frekvens på 1250 (5000) MHz. I energisparende moduser kan minnefrekvensen senkes først til 324 (1296) MHz, og deretter, i hvilemodus, til 135 (540) MHz. Minnet er koblet til grafikkprosessoren med en 256-bits buss og opererer med en frekvens på 1002 (4008) MHz, noe som gir en god toppgjennomstrømming av hele delsystemet - 128,3 GB/sek.


Eksternt er den nye brikken ikke forskjellig fra GF104 og har samme dimensjoner. I følge offisielle data fra NVIDIA forblir området til selve krystallen det samme og er 360 kvadratmillimeter, men det er ingen måte å se på det, siden krystallen tradisjonelt er dekket med en beskyttende deksel-varmespreder for kraftige løsninger fra denne utvikleren. Merkingen indikerer at denne kopien, som har revisjon A1, ble utgitt tilbake i den 46. uken i fjor, i midten av november, det vil si at allerede da ble GF114-kjernen satt i produksjon. Gjennomsnittstallet på 400 indikerer at brikken har bestått den strengeste frekvenskontrollen, noe som er naturlig, gitt at GeForce GTX 560 Ti-kjernen må operere ved frekvenser over 800/1600 MHz.


Den siste versjonen av det populære GPU-Z-verktøyet på tidspunktet for skriving av denne anmeldelsen er ennå ikke veldig vennlig med GeForce GTX 560 Ti. Av åpenbare grunner kan den ikke vise parametere som teknisk prosess, brikkeområde, antall transistorer og datoen for den offisielle kunngjøringen, men feltene "DirectX Support" og "Texture Fillrate" forblir også tomme, og bunnlinjen rapporterer feilaktig mangel på PhysX-støtte. Men de viktigste parametrene, som antall ALUer og klokkehastigheter, bestemmes riktig; Differansen på 1 MHz fra den offisielle verdien bør ikke tas i betraktning.

La oss legge til informasjon om at GF114 har 64 teksturprosessorer som er i stand til å filtrere teksturer i FP16-formatet med full hastighet, siden hver TMU har fire filtreringsenheter per teksturadresseringsenhet. Riktignok hadde forgjengeren til det nye produktet, GF104-brikken, de samme egenskapene innen arbeid med teksturer. Som andre NVIDIA-løsninger, i høyoppløselig videodekodingsmodus, faller kjernefrekvensene til 405/810 MHz, og i inaktiv modus faller de til 51/101 MHz, så i slike moduser kan du forvente at GeForce GTX 560 Ti er like effektiv som GeForce GTX 460 .



Referansedesignet til GeForce GTX 560 Ti inkluderer ikke en DisplayPort-kontakt, selv om dette grensesnittet i seg selv støttes av brikken. Konfigurasjonen av kontaktene er den samme som til de eldre brødrene i familien: to DVI-I-porter og en HDMI 1.4a-port. Hele andre etasje av monteringslisten er gitt over til slisser for utblåsing av oppvarmet luft utenfor systemhuset. Antall MIO-grensesnittkontakter er begrenset til én, så det vil ikke være mulig å sette sammen en SLI-konfigurasjon med mer enn to GeForce GTX 560 Ti - dette er privilegiet til eldre modeller av GeForce 500-familien.

Sammenlignet med Radeon HD 6000 ser dette settet med byttefunksjoner blekt ut, men helt ærlig, la oss spørre: hvor mange brukere trenger støtte for 6 skjermer samtidig eller muligheten til å koble skjermer i en "daisy chain" via DisplayPort? De fleste spillere bruker én, sjelden to, skjermer med DVI-grensesnitt, og store diagonale paneler kobles til via HDMI. Fra dette synspunktet kan GeForce GTX 560 Ti virkelig kalles i samsvar med prinsippet om "rimelig tilstrekkelighet". Selve brikken støtter DisplayPort 1.1, og i fremtiden vil en rekke GeForce GTX 560-modeller med en ikke-standard design sannsynligvis være utstyrt med en tilsvarende kontakt.



Dessverre, i utformingen av referansekjølesystemet GeForce GTX 560 Ti, bestemte NVIDIA-utviklingsteamet seg for ikke å gjenta den vellykkede oppdagelsen med dampkammeret, som har vist seg så godt i kjølesystemene til GeForce GTX 580 og 570. I dette tilfellet brukes en mer konservativ design med en rund sentral radiator, som minner om kjøleribbene til Intel-bokskjølere. Ved hjelp av tre varmerør kobles den sentrale delen til to ekstra bueformede radiatorer. Sistnevnte blåses på grunn av det faktum at en konvensjonell aksialvifte blåser ikke bare nedover, men også til sidene. Merk at en del av den oppvarmede luften med dette arrangementet vil bli kastet ut til høyre, inn i det indre av kassen.



Basen på kjølesystemet ser ganske normal ut. Aluminiumsrammen fungerer som en kjøleribbe for minnebrikker og kraftelementer i kraftundersystemet, for hvilke fremspring utstyrt med elastiske termiske puter er gitt på passende steder. Et lag med tykk grå termisk pasta påføres der kobberbasen til hovedkjøleribben kommer i kontakt med GPU-dekselet.

Etter vår mening ser denne utformingen av kjølesystemet merkelig ut, spesielt med tanke på de ekstremt vellykkede kjølerne som er utstyrt med de eldre modellene av GeForce 500-familien. Vi kan ikke forestille oss hva som kan hindre NVIDIA-ingeniører i å bruke et dampkammer i GeForce GTX 560 Ti kjøler, kanskje en høyere kostnad for et slikt system. Du bør imidlertid avstå fra ubegrunnet kritikk og sjekke hvordan det beskrevne designet oppfører seg i praksis.

Strømforbruk, termiske forhold, støy og overklokking

Til tross for de betydelig økte klokkehastighetene til GF114, hevder NVIDIA bare en liten økning i TDP - fra 160 til 170 watt. Basert på det faktum at nivået av varmeavledning direkte avhenger av nivået på strømforbruket, vil det være logisk å anta at nivået på strømforbruket til GeForce GTX 560 Ti, hvis det har økt, er like ubetydelig. Vi unnlot ikke å teste denne antagelsen i praksis ved å gjennomføre en standard syklus med elektriske tester av det nye produktet på et stativ som er godt kjent for våre lesere og har følgende konfigurasjon.

Prosessor Intel Core 2 Quad Q6600 (3 GHz, 1333 MHz FSB x 9, LGA775)
DFI LANParty UT ICFX3200-T2R/G hovedkort (ATI CrossFire Xpress 3200)
Minne PC2-1066 (2x2 GB, 1066 MHz)
Strømforsyning Enermax Liberty ELT620AWT (Nominell effekt 620 watt)
Microsoft Windows 7 Ultimate 64-bit
CyberLink PowerDVD 9 Ultra/"Serenity" BD (1080p VC-1, 20 Mbit)
Crysis stridshode
OCCT Perestroika 3.1.0

Denne plattformen er utstyrt med en spesiell målemodul, beskrevet i anmeldelsen " Datamaskinens strømforbruk: så hvor mange watt trenger du?". Bruken lar deg få de mest komplette dataene om de elektriske egenskapene til moderne grafikkort i forskjellige moduser. Som vanlig ble følgende tester brukt for å lage en belastning på videoadapteren i forskjellige moduser:

CyberLink PowerDVD 9: Fullskjerm, maskinvareakselerasjon aktivert
Crysis Warhead: 1600x1200, FSAA 4x, DirectX 10/Entusiast, "frost"-kort
OCCT Perestroika GPU: 1600x1200, fullskjerm, Shader Complexity 8

For hver modus, med unntak av den ultimate lastsimuleringen i OCCT, ble målinger tatt i 60 sekunder; For å unngå kortfeil på grunn av overbelastning av strømforsyningen, for OCCT: GPU-testen var testtiden begrenset til 10 sekunder. Som et resultat av de utførte målingene ble følgende resultater oppnådd:















Økningen i antall aktive funksjonelle enheter og en betydelig økning i klokkefrekvenser var selvfølgelig ikke forgjeves, og i 3D-modus økte toppstrømforbruket til GeForce GTX 560 Ti til 160 watt, mens det samme tallet for GeForce GTX 460 1GB var på omtrent 140 watt. Dette er imidlertid en akseptabel pris å betale for en så alvorlig forbedring av tekniske egenskaper. Og i "desktop"-modus har effektiviteten til det nye produktet til og med økt. Som vanlig, når videoprosessoren er involvert, reduserer ikke kortet umiddelbart klokkehastighetene, men testoppsettet registrerer et toppresultat, mens gjennomsnittet er cirka 18-25 Watt. Separat skal det bemerkes at når to skjermer med forskjellige oppløsninger kobles til samtidig, går ikke GeForce GTX 560 Ti inn i den andre økonomiske modusen med kjernefrekvenser på 51/101 MHz, men er begrenset til den første, der de er 405/810 MHz.

Det er interessant at i økonomiske moduser faller hovedbelastningen på den nedre kontakten, indikert i diagrammene som "12V 6-pins", men når du bruker all kraften til GPU, blir belastningen utjevnet, og en strøm på omtrent 5,5- 5,9 Ampere strømmer gjennom hver kobling. Med andre ord, ved en spenning på 12 volt overstiger ikke belastningen på strømkontaktene 70 watt, så det er egentlig ikke nødvendig å bruke åttepinners PCIe 2.0 strømkontakter med økt belastningskapasitet i GeForce GTX 560 Ti-designet.

I likhet med de eldre modellene av familien, kan referanseversjonen av GeForce GTX 560 Ti overvåke strømmen som flyter gjennom 12-volts kraftledninger, og hvis unormalt høye verdier oppdages, karakteristisk for tester som OCCT: GPU eller FurMark, den beskytter seg selv mot feil ved å sette GPUen i en redusert ytelsesmodus. Dette systemet er valgfritt og kan ikke brukes i versjoner av GeForce GTX 560 Ti som bruker en annen PCB-design enn referansen. Virkningen av beskyttelsesmekanismen er tydelig synlig i forbruksdiagrammet ovenfor i OCCT:GPU-testen - grafen viser en karakteristisk "kam", men mindre dyp enn i tilfellet med GeForce GTX 580 eller GeForce GTX 570.

Vi mener at bruken av slike beskyttelsesmekanismer er et berettiget skritt fra produsentens side, siden urealistiske belastningsscenarier skapt av tester som FurMark faktisk kan ødelegge grafikkortet, og vi er klar over slike tilfeller. For fans av stresstester kan vi bare anbefale å bruke spesielle alternativer på egen risiko, som for eksempel i GPU-Z; Utviklerne av dette verktøyet vil sikkert implementere en lignende funksjon for GeForce GTX 560 Ti.



Generelt ser den nye GeForce GTX 560 Ti ganske konkurransedyktig ut sammenlignet med sine rivaler når det gjelder strømforbruk i forskjellige moduser. Selvfølgelig er den ikke like økonomisk som Radeon HD 6870, men den lover å være betydelig raskere i spill. Dessuten ser det nye produktet veldig anstendig ut selv sammenlignet med Radeon HD 6950, så GF114-utviklerne kan bare få ros for arbeidet som er gjort. Når det gjelder effektivitet, fortsetter GeForce GTX 560 Ti den gode tradisjonen som ble etablert med utgivelsen av GeForce GTX 580, som består av en betydelig økning i ytelsen med en liten økning i strømforbruket.



For å sjekke temperaturforholdene brukte vi en andre referanse GeForce GTX 560 Ti, som ikke hadde blitt demontert og derfor beholdt det originale termiske grensesnittet. Ved en lufttemperatur i testlaboratorierommet på 25-27 grader Celsius, viste det nye produktet samme termiske ytelse som GeForce GTX 570. Under belastning oversteg ikke GPU-temperaturen 78 grader Celsius. Med tanke på klokkehastighetene til GeForce GTX 560 Ti, er dette en veldig imponerende indikator, som beviser at kjølesystemdesignet som brukes av utviklerne, gjør jobben sin godt.


Heldigvis ble de første bekymringene om økte støynivåer ikke bekreftet. I 2D- og 3D-modus lager kortet nesten samme støy, siden viften i det første tilfellet går på 40 % av maksimal hastighet, og i det andre øker hastigheten ikke over 45 %, til tross for bruk av Crysis Warhead som belastning . Lydnivåmåleren registrerer knapt endringer i støynivået, og selv da kun i en avstand på 5 centimeter fra operativsystemet. På 1 meters avstand er støynivået kun 1 dBA høyere enn referanseverdien, som i våre forhold er 38 dBA. Med slike støyegenskaper er det ikke overraskende at kortet ikke er hørbart mot bakgrunnsstøyen som sendes ut av andre komponenter i det kjørende testsystemet. Det skal sies at vår testplattform ikke er en av de mest stillegående, så under andre forhold oppfører seg kanskje ikke GeForce GTX 560 Ti så lydløst. Men i alle fall har det nye produktet en rolig disposisjon, noe som vil bli spesielt verdsatt av spillere som elsker når lyden av spillet ikke er lagt over fremmed støy.

Som sine eldre brødre i familien, demonstrerte GeForce GTX 560 Ti en utmerket balanse mellom elektriske, akustiske og termiske egenskaper. Nå står han overfor den vanskeligste oppgaven: å vise seg tilstrekkelig under kampforhold.

Testplattformkonfigurasjon og testmetodikk

Testing av GeForce GTX 560 Ti i moderne spill ble utført på en universell testplattform med følgende konfigurasjon:

Prosessor Intel Core i7-975 Extreme Edition (3,33 GHz, 6,4 GT/s QPI)
Kjøler ljå SCKTN-3000 "Katana 3"
Gigabyte GA-EX58-Extreme hovedkort (Intel X58)
Minne Corsair XMS3-12800C9 (3x2 GB, 1333 MHz, 9-9-9-24, 2T)
Harddisk Samsung Spinpoint F3 (1 TB/32 MB, SATA II)
Strømforsyning Ultra X4 850W Modular (Nominell effekt 850 Watt)
Skjerm Dell 3007WFP (30", maksimal oppløsning 2560x1600 ved 60 Hz)
Microsoft Windows 7 Ultimate 64-bit

Følgende versjoner av ATI Catalyst- og NVIDIA GeForce-drivere ble brukt:

ATI Catalyst 11.1a hurtigreparasjon for ATI Radeon HD
NVIDIA GeForce 266.56 for NVIDIA GeForce GTX 560 Ti

Selve driverne ble konfigurert som følger:

ATI Catalyst:

Anti-aliasing: Bruk applikasjonsinnstillinger/4x/Standardfilter
Morfologisk filtrering: Av
Tesselering: Bruk applikasjonsinnstillinger
Teksturfiltreringskvalitet: Høy kvalitet
Aktiver overflateformatoptimering: Av
Vent på vertikal oppdatering: Alltid av
Anti-Aliasing-modus: Adaptiv multi-sample AA

NVIDIA GeForce:

Teksturfiltrering – Kvalitet: Høy kvalitet
Vertikal synkronisering: Tving av
Antialiasing - Transparens: Multisampling
CUDA - GPUer: Alle
Angi PhysX-konfigurasjon: Velg automatisk
Ambient Okklusjon: Av
Andre innstillinger: standard

Testpakken inkluderte følgende spill og applikasjoner:

3D førstepersons skytespill:

Aliens vs. Predator (1.0.0.0, benchmark)
Battlefield: Bad Company 2 (1.0.1.0, Fraps)
Call of Duty: Black Ops (1.04, Fraps)
Crysis Warhead (1.1.1.711, benchmark)
Metro 2033 (Ranger Pack, 1.02, Benchmark)
S.T.A.L.K.E.R.: Call of Pripyat (1.6.02, Fraps)


3D-skytespill med tredjepersonsvisning:

Just Cause 2 (1.0.0.1, Benchmark/Fraps)
Lost Planet 2 (1.1, benchmark)


Rollespill:

Fallout: New Vegas (1.20, Fraps)
Mass Effect 2 (1.01, Fraps)


Simulatorer:

F1 2010 (1.01, Fraps)


Strategispill:

BattleForge (1.2, benchmark)
StarCraft II: Wings of Liberty (1.0.2, Fraps)


Halvsyntetiske og syntetiske tester:

Futuremark 3DMark Vantage (1.0.2.1)
Futuremark 3DMark 11 (1.0.0)
Final Fantasy XIV offisiell benchmark (1.0.0.0, Fraps)
Unigine Heaven Benchmark (2.1)
Tom Clancy's H.A.W.X. 2 Benchmark (1.01, Benchmark/Fraps)

Hvert av spillene inkludert i testprogramvaren ble konfigurert for å gi høyest mulig detaljnivå. Apper som støtter tessellasjon har aktivert denne funksjonen.

Den grunnleggende avvisningen av å manuelt endre noen konfigurasjonsfiler betyr at bare verktøyene som er tilgjengelige i selve spillet for en uinitiert bruker ble brukt til konfigurasjon. Testingen ble utført i oppløsninger på 1600x900, 1920x1080 og 2560x1600. Med mindre annet er angitt, ble standard 16x anisotropisk filtrering supplert med 4x MSAA anti-aliasing. Aktivering av anti-aliasing ble utført enten av spillet selv, eller, i deres fravær, ble det tvunget ved å bruke de riktige innstillingene til ATI Catalyst og NVIDIA GeForce-driverne.

I tillegg til NVIDIA GeForce GTX 560 Ti, deltok følgende grafikkort i testingen:

NVIDIA GeForce GTX 460 1GB
NVIDIA GeForce GTX 570
ATI Radeon HD 6950
ATI Radeon HD 6870

For å skaffe ytelsesdata brukte vi testverktøyene innebygd i spillet med obligatorisk bruk av originale testvideoer, samt, hvis mulig, registrering av data om minimum ytelse. I noen tilfeller ble Fraps 3.2.7-testverktøyet i tillegg brukt for å få informasjon om minimumsytelse. I fravær av de ovennevnte verktøyene, ble det samme verktøyet brukt i manuell modus med et tredobbelt testpass, fastsettelse av minimumsverdiene og deretter gjennomsnittlig sluttresultatet.

Spilltester: Aliens vs. Rovdyret


Det nye produktet starter med å etterlate Radeon HD 6870 i lave oppløsninger, og er også dårligere enn Radeon HD 6950 med bare rundt 5 %. Ved en oppløsning på 1920x1080 øker etterslepet bak Radeon HD 6950 til 14 %, og gjennomsnittsytelsen blir nesten den samme som for Radeon HD 6870. Imidlertid er det en hyggelig nyanse for fans av NVIDIA-produkter - minimumsytelsen av GeForce GTX 560 Ti faller ikke under 24 bilder per sekund, så du kan spille i Full HD-modus ikke verre enn å bruke den dyrere Radeon HD 6950, og til en merkbart lavere kostnad for kjøp av et skjermkort.

Spilltester: Battlefield: Bad Company 2


Allerede i den andre testen konkurrerer GeForce GTX 560 Ti på lik linje med Radeon HD 6950, og ganske vellykket. Det nye produktet oppnår paritet i oppløsningen på 2560x1600, og i lavere oppløsninger overgår det til og med rivalen fra en tyngre "vektkategori". Det som er viktig er at den klarer å opprettholde et komfortabelt ytelsesnivå i alle moduser.

Spilltester: Call of Duty: Black Ops


Det er interessant at med versjonen av AMD Catalyst-drivere som ble brukt i testing, viste ikke Radeon HD 6950 mye høyere ytelse enn Radeon HD 6870, noe som delvis kan skyldes den lavere effektiviteten til Cayman shader-prosessorer med VLIW4-arkitektur. På en eller annen måte kan GeForce GTX 560 Ti enkelt konkurrere med begge rivalene fra AMD-leiren, dårligere enn dem bare i minimumsytelse, og selv det er ikke fatalt - 66 bilder per sekund er nok for selv den mest krevende spilleren.

Spilltester: Crysis Warhead


Og her kommer den første skuffelsen. Dette kan ikke kalles et nederlag, spesielt med tanke på prisforskjellen med Radeon HD 6950, men faktum gjenstår: med en oppløsning på 1920x1080 kan den nye GeForce GTX 560 Ti ikke lenger gi et akseptabelt nivå av minimumsytelse, selv om det er foran Radeon HD 6870 i denne indikatoren. Men i motsetning til sistnevnte ser det nye produktet flott ut i en oppløsning på 1600x900. Her kan bare den dyrere Radeon HD 6950 virkelig konkurrere med den.

Spilltester: Metro 2033



Tilstedeværelsen av åtte tessellasjonsenheter redder ikke GeForce GTX 560 Ti fra nederlag når man sammenligner minimumsytelse, men den gjennomsnittlige ytelsen til det nye produktet er bare litt dårligere enn det demonstrert av Radeon HD 6950, og merkbart bedre enn de viste resultatene i denne testen av Radeon HD 6870. Den sterkeste ledelsen over motstanderen observert ved en oppløsning på 1600x900, men i mer ressurskrevende moduser klarer AMD-løsningen å redusere etterslepet til et minimum. Kanskje skyldes dette et mer effektivt minneundersystem.

Spilltester: S.T.A.L.K.E.R.: Call of Pripyat

Spillet er testet med tessellasjon aktivert.


Teoretisk sett har GeForce GTX 560 Ti en fordel når det kommer til tessellasjon, men i alle fall i denne testen presterer de to tredjegenerasjons tessellasjonsenhetene om bord på Radeon HD 6950 like bra. Men ikke glem prisen: Den er nesten $50 billigere, og NVIDIAs nye løsning konkurrerer enkelt på like vilkår med Radeon HD 6950 med 1600x900 oppløsning og gir et sammenlignbart nivå av subjektiv komfort ved 1920x1080 oppløsning. GeForce GTX 560 Ti betaler for seg selv fullt ut.

Spilltester: Just Cause 2


Forskjellen i ytelse mellom de to generasjonene av Radeon HD 6000 er igjen minimal, og GeForce GTX 560 Ti konkurrerer med begge, og gir komfortabel ytelse ved oppløsninger på opptil 1920x1080 eller 1920x1200 inkludert. Men for å spille på 2560x1600 trenger du en løsning på GeForce GTX 580-nivået, som har en helt annen pris.

Spilltester: Lost Planet 2


Radeon HD 6950 er fullstendig knust av den billigere GeForce GTX 560 Ti. Hvis AMD-løsningen med en oppløsning på 2560x1600 fortsatt prøver å motstå på grunn av reserver i ytelsen til teksturundersystemet og minneundersystemet, kan fordelen med det nye NVIDIA-produktet nå 30-36% i moduser som er mindre kritiske for disse parameterne! Enda viktigere er at GeForce GTX 560 Tis ytelse er sterk nok til å kjøre med 1920x1080 oppløsning, til tross for spillets krevende natur.

Spilltester: Fallout: New Vegas


Det er vanskelig å si noe om ytelsen til GeForce GTX 560 Ti i Fallout: New Vegas. Spillet er for enkelt for noen rimelig kraftige moderne grafikkort. Vi kan bare konstatere et ubetydelig etterslep bak Radeon HD 6950 og en like ubetydelig overlegenhet over Radeon HD 6870 i en oppløsning på 2560x1600.

Spilltester: Mass Effect 2

I denne testen tvinges anti-aliasing i full skjerm ved å bruke teknikken beskrevet i anmeldelsen Mass Effect 2 og moderne skjermkort.


Seieren til det nye produktet er ikke like overbevisende som i Lost Planet 2, men med en oppløsning på 1600x900 dominerer GeForce GTX 560 Ti begge Radeon HD 6000-modellene som deltar i dagens testing. Ved høyere oppløsninger er helten i denne anmeldelsen i hvert fall ikke dårligere enn den dyrere Radeon HD 6950, så AMD kan bare bekymre seg og seriøst tenke på å redusere prisene for løsninger basert på Cayman-kjernen.

Spilltester: F1 2010


Du kan ikke være en vinner på alt, og GeForce GTX 560 Ti bekrefter denne tesen. I denne testen konkurrerer det nye produktet bare med Radeon HD 6870. Men for det første var denne NVIDIA-løsningen opprinnelig rettet mot å konkurrere med Radeon HD 6870, for det andre observeres et merkbart etterslep bare i oppløsningen på 2560x1600, og til slutt , for det tredje, Selv med denne oppløsningen forblir ytelsen ganske komfortabel, selv om 30 bilder per sekund kanskje ikke er nok for krevende fans av racingsimulatorsjangeren.

Spilltester: BattleForge


Tillegget til GeForce 500-familien fortsetter tradisjonen med å levere høy minimumsytelse. Riktignok takler ikke GeForce GTX 560 Ti en oppløsning på 2560x1600 så vel som GeForce GTX 570, men sammenlignet med ytelsen til Radeon HD 6870 eller Radeon HD 6950 og 18 bilder per sekund ser det ut som en ekte åpenbaring, spesielt siden, i henhold til subjektive følelser, kan dette spillet spilles selv på lav minimum ytelse.

Spilltester: StarCraft II: Wings of Liberty


I StarCraft II hadde ikke NVIDIAs nye produkt nok styrke til å takle en oppløsning på 2560x1600, men i gjennomsnittlig ytelse var det fortsatt foran sin direkte rival i Radeon HD 6870. Jeg må si at Radeon HD 6950 i denne modusen har ikke nok stjerner fra himmelen, men det er alt, men nivået av subjektiv komfort som tilbys av den er betydelig høyere. Riktignok til en høy pris. Ved lavere oppløsninger presterte GeForce GTX 560 Ti veldig bra. Hvis skjermen din støtter oppløsninger på opptil 1920 x 1200 inkludert og du elsker StarCraft II, er det ingen vits i å betale for mye for Radeon HD 6950.

Halvsyntetiske og syntetiske tester: Futuremark 3DMark Vantage

For å minimere virkningen av CPU, bruker testing i 3DMark Vantage "Extreme"-profilen, som bruker en oppløsning på 1920x1200, FSAA 4x og anisotropisk filtrering. For å fullføre ytelsesbildet, fanges individuelle testresultater over hele oppløsningsområdet.



Som forventet utkonkurrerte GeForce GTX 560 Ti Radeon HD 6870, men det var 1045 poeng under Radeon HD 6950. For priskategorien som det nye produktet tilhører, er 9519 poeng et veldig godt tall.




I noen tester er det klart at med en oppløsning på 1600x900 er den nye GeForce GTX 560 Ti, hvis den er dårligere enn Radeon HD 6950, bare litt, men med økende oppløsning tar sistnevnte hevn på grunn av kraftigere undersystemer av teksturprosessorer og video hukommelse. Den nye Radeon HD 6870 sviktet aldri.

Halvsyntetiske og syntetiske tester: Futuremark 3DMark 11

I den nye Futuremark benchmark-suiten bruker vi også «Extreme»-profilen, men i motsetning til 3DMark Vantage, bruker den i 3DMark 11 en oppløsning på 1920x1080.



Omtrent det samme bildet som i 3DMark Vantage er observert i 3DMark 11, bortsett fra at selve størrelsesordenen er annerledes i den nye versjonen av 3DMark. GeForce GTX 560 Ti var ikke dårligere enn sin direkte rival, og den er ikke forpliktet til å konkurrere på like vilkår i syntetiske tester med den dyrere Radeon HD 6950.

Halvsyntetiske og syntetiske tester: Final Fantasy XIV offisiell benchmark

Testen støtter kun oppløsninger på 1280x720 og 1920x1080.



Resultatet av Radeon HD 6950 med en oppløsning på 1280x720 er uventet lavt. Dette kan skyldes både på den nye arkitekturen til shader-prosessorer og feil i drivere. GeForce GTX 560 Ti yter godt i begge oppløsningene, og demonstrerer ytelse på nivået til Radeon HD 6950.

Halvsyntetiske og syntetiske tester: Tom Clancy's H.A.W.X. 2 Preview Benchmark

Denne testen bruker aktivt tessellering for å gjengi jordoverflaten. Antall polygoner i en ramme kan nå en og en halv million.


Nok en test hvor Fermi-arkitekturen føles hjemme. Bare de eldre brødrene i familien kan konkurrere med GeForce GTX 560 Ti, men ikke Radeon HD 6950 eller til og med Radeon HD 6970. Sannsynligvis er det bare Radeon HD 6990 som kan snu situasjonen, men hvis dette skjer, vil seieren være virkelig pyrrhus, fordi forskjellen i prisene mellom den og GeForce GTX 560 Ti er skummel å tenke på.

Halvsyntetiske og syntetiske tester: Unigine Heaven benchmark

Testen bruker "normal" tessellasjonsmodus.


Ytelse på Radeon HD 6950-nivå er et utmerket resultat for GeForce GTX 560 Ti, spesielt med tanke på sistnevntes priskategori, men vi forventet fortsatt mer fra GF114, bevæpnet med åtte PolyMorph-motorer, i denne tessellasjonstunge testen.

Konklusjon

Den nye NVIDIA GeForce GTX 560 Ti skuffer ikke: den kan kalles et verdig tillegg til GeForce 500-familien. Dessuten beskriver tittelen "masseødeleggelsesvåpen" etter vår mening det nye produktet ganske godt. Og det er ikke overraskende - til tross for at den anbefalte prisen på GeForce GTX 560 Ti bare er $249, er den i stand til å konkurrere på like vilkår ikke bare med Radeon HD 6870, som den opprinnelig var rettet mot, men også med de mer kraftig og kostbar Radeon HD 6950!

I hovedsak gjorde den nye GeForce GTX 560 Ti det samme med GeForce GTX 470 som GeForce GTX 570 tidligere gjorde med GeForce GTX 480. Hva som vil skje med GeForce GTX 460 1GB er fortsatt umulig å si sikkert. Det er mulig at den vil bli erstattet av en ny løsning basert på GF114 med en avkortet konfigurasjon og uten prefikset "Ti" i navnet, og GeForce GTX 460 768MB vil bli erstattet av GeForce GTS 550 basert på GF116-kjernen .

Tatt i betraktning spørsmålet om det nye produktets ytelse i detalj, er det umulig å si entydig at GeForce GTX 560 Ti er foran Radeon HD 6950 i alle tester: Likevel var Cayman-kjernen opprinnelig ment for løsninger av høyere klasse. Imidlertid er resultatene som er oppnådd veldig, veldig imponerende:

Spesielt i en oppløsning på 1600x900 klarte det nye produktet å slå en motstander fra en tyngre vektkategori i ti av atten tester, og den gjennomsnittlige fordelen over Radeon HD 6870 var nesten 20%. Og selv om kort av denne klassen vanligvis kjøpes for bruk med høyere oppløsninger, er dette en veldig god start.

Oppløsningen på 1920x1080 er den mest populære i dag på grunn av den utbredte triumfen til Full HD-formatet. Her er GeForce GTX 560 Ti vanskeligere å kjempe med Radeon HD 6950, siden sistnevnte er utstyrt med raskere minne og har 88 teksturprosessorer. Det nye produktet gir seg imidlertid ikke uten kamp, ​​og det klarer å utligne poengsummen eller ta ledelsen i åtte spilletester, og taper seriøst bare på fire: i Alien vs. Predator, S.T.A.L.K.E.R.: Call of Pripyat, Mass Effect 2 Og F1 2010. Den endelige listen over kamper med Radeon HD 6870 ville bare ha bestått av seire og uavgjort, hvis ikke F1 2010. I gjennomsnitt er GeForce GTX 560 Ti 15 % foran sin direkte rival, og maksimal overlegenhet kan nå svært imponerende 60 %!

Ved en oppløsning på 2560x1600 brukes vanligvis ikke kort på GeForce GTX 560 Ti- eller Radeon HD 6870-nivået, som koster mindre enn $250. Dette er allerede domenet til løsninger, som koster fra $300. Det er ganske naturlig at her taper GeForce GTX 560 Ti mot Radeon HD 6950 i de fleste tester, men den beholder sin overlegenhet over Radeon HD 6870, selv om den i gjennomsnitt faller til 12-13%.

Oppsummert kan vi si at NVIDIAs nye masseløsning viste seg å være veldig, veldig vellykket. Med sine hastighetsegenskaper og pris, som bare er 10 dollar høyere enn den offisielle prisen på Radeon HD 6870, gir den ikke sistnevnte en eneste sjanse. Det er ikke overraskende at grafikkdivisjonen til Advanced Micro Devices er alvorlig bekymret for et så aggressivt trekk fra NVIDIAs side, og som svar planlegger å redusere prisen på Radeon HD 6870, samt introdusere en ny til markedet. , billigere versjon av Radeon HD 6950, utstyrt med 1 GB lokalt videominne. Det er nesten umulig å bekjempe GeForce GTX 560 Ti på noen annen måte: den overgår definitivt Radeon HD 6950 2GB i pris, men er ikke alltid dårligere enn den i ytelse i ekte spill.

I dag kan GeForce GTX 560 Ti betraktes som den beste spillløsningen under $250. Den betaler for prisen fullt ut, og det finnes foreløpig ikke noe bedre valg for de som ikke ønsker å investere i løsninger av GeForce GTX 570 eller Radeon HD 6970-klassen. Tiden vil vise hvor konkurransedyktig den billigere versjonen av Radeon HD 6950 vil være.

GeForce GTX 560: fordeler og ulemper

Fordeler:

Beste ytelse i sin klasse
I en rekke tester konkurrerer den med Radeon HD 6950 2GB
Høy ytelse når du utfører tessellering
Bredt utvalg av FSAA-moduser
Minimal innvirkning av FSAA på ytelse
Full maskinvarestøtte for HD-videodekoding
Høykvalitets etterbehandling og skalering av HD-video
Støtter eksklusive NVIDIA PhysX- og NVIDIA 3D Vision-teknologier
Bredt utvalg av GPGPU-applikasjoner utviklet for NVIDIA CUDA
Lavt støynivå
Høyeffektivt kjølesystem

Feil:

Ingen seriøse funnet

Serien av feil som hjemsøkte NVIDIA gjennom nesten hele 2010, har tilsynelatende endelig blitt avbrutt. En dyp redesign av GF100-grafikkjernen gjorde det mulig for NVIDIA å lansere et par ganske kraftige akseleratorer på markedet, takket være hvilke brikkeprodusenten var i stand til å gjenvinne tittelen som absolutt mester i klassen med enkeltbrikkeløsninger på seniornivå. Publikum, interessert i situasjonen på skjermkortmarkedet, forventet en lynrask og knusende respons fra den "røde giganten" - AMD, men det var ikke noe fullstendig svar. Arkitekturendringer, introduksjonen av nye teknologier og en økning i klokkefrekvenser hjalp ikke AMD med å forberede et produkt som er i stand til å beseire GeForce GTX 580. Radeon HD 6970-akseleratoren, som er seniorrepresentanten i rekken av enkeltprosessor-skjermkort fra AMD, tåler kun GeForce GTX 570. En sterk posisjon i det øvre segmentmarkedet betyr imidlertid på ingen måte en fullstendig seier for NVIDIA. Vi husker at flertallet av kjøpere velger den gyldne middelvei eller til og med budsjettløsninger, så NVIDIA har noe å jobbe med, akkurat som AMD. Og slikt arbeid er absolutt i gang. For eksempel, mot slutten av fjoråret, introduserte AMD sine Radeon HD 6850/6870-akseleratorer, som, etter resultatene fra testene våre, viste svært gode ytelsesindikatorer i sin klasse. Vel, i dag er det på tide for NVIDIA å gjøre en responsbevegelse, så på arenaen er GeForce GTX 560 Ti-akseleratoren.

Man kan ikke unngå å huske tidene til GeForce 2/3 skjermkort, fordi det var da NVIDIA først begynte å bruke Ti postfix, som betyr Titanium, i navnene på produktene sine. Det gamle-nye uttrykket gir ikke bare eufoni til navnet, det bør assosieres av en potensiell kjøper med påliteligheten og den høye ytelsen til produktet. Så, hva har NVIDIA forberedt denne gangen? La oss se på funksjonene til det nye produktet mer detaljert.

Hjertet til den nye GeForce GTX 560 Ti-akseleratoren er GF114-videoprosessoren, som faktisk er en betydelig forenklet modifikasjon av den eldre GPUen til Fermi-familien. Dessuten, i motsetning til GeForce GTX 460, som blir erstattet av GTX 560 Ti, er GF114-brikken et derivat av GF110, og ikke GF100, som GTX 460. For å sammenligne konfigurasjonene av funksjonelle blokker av moderne NVIDIA GPUer, i tillegg til å gjøre deg kjent med egenskapene til referanseversjonene av skjermkort Basert på dem presenterer vi en sammenlignende tabell for deg:

GTX 460 GTX 470 GTX 480 GTX 560 Ti GTX 570 GTX 580
GPU prosessteknologi, nm 40 40 40 40 40 40
Grafikkbehandlingsklynger, stk. 2 4 4 2 4 4
Antall streaming multiprosessorer 8 14 15 8 15 16
Antall CUDA-kjerner 336 448 480 384 480 512
Antall teksturblokker 64 56 60 64 60 64
Antall ROP-blokker 32 40 48 32 40 48
GPU-frekvens, MHz 675 607 700 822 732 772
CUDA kjernefrekvens, MHz 1350 1215 1401 1644 1464 1544
Effektiv videominnefrekvens, MHz 3600 3348 3696 4008 3800 4008
Videominnetype GDDR-5 GDDR-5 GDDR-5 GDDR-5 GDDR-5 GDDR-5
Videominnekapasitet, MB 1024 1280 1536 1024 1280 1536
Minnebussbredde, bits 256 320 384 256 320 384
Minnebåndbredde, GB/s 115.2 133.9 177.4 128.3 152 192.4
DirectX-støtte 11 11 11 11 11 11
Maksimal TDP, W 160 215 250 170 219 244
Anbefalt strømforsyningsenhet, W 450 550 600 500 550 600
GPU-temperaturgrense, °C 104 105 105 100 97 97
Anslått kostnad i Moskva-butikker, gni. 6000 7800 12000 9999 12100 17500

GF104 GPU-arkitektur

Så, GeForce GTX 560 Ti GPU inneholder to GPC-klynger (Graphics Processing Clusters), som igjen består av 8 streaming-multiprosessorer (Streaming Multiprocessors eller SM), 4 for hver GPC. SM-konfigurasjonen er lik den som brukes i GeForce GTX 460. Totalt inneholder GF114-kjernen 384 CUDA-kjerner (48 per SM), fire ekspedisjonsenheter, 8 teksturenheter og en spesiell funksjonalitetsenhet (SF Unit) for hver streaming multiprosessor . GeForce GTX 560 Ti-minnebussbredden er 256 biter. I likhet med sin GF104-baserte forgjenger, støtter den nye GTX 560 Ti Dolby True HD og DTS-HD Master Audio-utgang via HDMI. Faktisk er den nye GF114 ikke noe mer enn en merkbart akselerert GF104 med en annen aktivert streaming multiprosessor. Drift ved en så høy frekvens ble muliggjort takket være en seriøs "transistor"-oppgradering av grafikkjernen, lik det NVIDIA-ingeniørene gjorde i tilfellet med GF110. En annen forskjell mellom de nye akseleratorene er den høyere minnefrekvensen sammenlignet med GTX 460, som naturligvis har en positiv effekt på minnebåndbredden.

Den relative enkelheten til GF114-brikken, samt modifikasjonene som NVIDIA gjorde for å øke frekvenspotensialet, vil absolutt appellere ikke bare til entusiaster, men også til de som ønsker et energieffektivt produkt.

Etter NVIDIAs presentasjon å dømme er den nye akseleratoren ikke bare raskere enn GeForce GTX 460, men har også en bedre ytelse per watt-forhold, inkludert sammenlignet med enkelte konkurrentløsninger. Selvfølgelig må vi fortsatt sjekke dette, men en ting er klart nå: utseendet til overklokkede produkter med en modifisert GPU-strømforsyning og minnesystem er ikke langt unna, heldigvis er egenskapene til de nye skjermkortene som bidrar til dette.

Listen over støttede teknologier har ikke endret seg sammenlignet med andre moderne NVIDIA-løsninger. Det nye produktet støtter NVIDIA proprietære teknologier: CUDA, PhysX, Surround, 3DVision og andre.

Foruten teknisk informasjon er kostnad en viktig faktor. I følge NVIDIA er den anbefalte utsalgsprisen for GeForce GTX 560 Ti-akseleratorer 9 999 rubler. Hvis vi antar at innenlandske selgere vil holde kostnadene for skjermkort i denne serien innenfor de angitte grensene, bør følgende betraktes som konkurrenter for GTX 560 Ti:

  • GeForce GTX 470 (detaljhandel koster omtrent 8000 rubler)
  • Radeon HD 6870 (detaljhandel koster omtrent 8000 rubler)
  • Radeon HD 5870 (detaljhandel koster omtrent 9 500-10 000 rubler)
  • Radeon HD 6950 (detaljhandel koster omtrent 10 500 rubler)

Testing vil vise hvordan maktbalansen vil være, og vi går videre til å bli kjent med referanseeksemplet GeForce GTX 560 Ti.

Utformingen av kjølesystemet (CO) til GeForce GTX 560 Ti kan kalles typisk for den nye generasjonen av NVIDIA-grafikkakseleratorer. Den svarte glansen til CO-huset gir soliditet til akseleratorens utseende. Lengden på GeForce GTX 560 Ti referanseprøven er i underkant av 23 cm, noe som betyr at det ikke skal være noen problemer med å plassere akseleratoren i kompakte tilfeller.

For å drive GeForce GTX 560 Ti, kreves det to sekspinners PCI-Express-strømkontakter.

På endepanelet, i tillegg til hullene som varm luft kommer ut av kroppen, er det to Dual Link DVI-I-kontakter, samt en Mini-HDMI-port.

Demontering av kjølesystemet er ikke vanskelig. Kjøleren kommer i kontakt med kraftsystemelementene og videominnet gjennom spesielle termiske puter, og varmen fra grafikkprosessoren overføres til kobberbasen til CO gjennom et tynt lag med termisk pasta.

La oss demontere kjøleren. Under kabinettet ligger et kjølesystem som består av en metallplate, hvorpå varme fjernes fra videominnet og kraftsystemelementene, og en struktur som er ansvarlig for avkjøling av GPUen, bestående av en kobberbase loddet til flere radiatorer. Varme fra basen bæres av tre varmerør med en diameter på 6 mm, og de fordeler den jevnt over overflaten av radiatorene plassert på sidene av den sentrale.

I noen tilfeller, når du oppgraderer et videosystem, lar brukere kjøpe separat kjøpte kjølere for senere å installere dem på et nytt skjermkort. Hvis du skal gjøre dette, vil du sannsynligvis finne informasjon om avstanden mellom monteringshullene rundt GPUen nyttig. For enkelhets skyld har vi nummerert hullene rundt GF114 GPU.

  • Avstanden mellom sentrene til hull 1 og 3 er 6,0 cm
  • Avstanden mellom sentrene til hull 3 og 6 er 5,0 cm
  • Avstanden mellom sentrene til hull 6 og 1 er 7,9 cm

Strømforsyningssystemet til GeForce GTX 560 Ti-akseleratoren har følgende krets:

Fire faser er dedikert til GPU og en fase er allokert til minnet, som på GeForce GTX 460. Kontrollerne er merket på PCB som U501 for GPU og U5 for minne. Mest sannsynlig er dette ON Semiconductor NCP5388 (eller NCP5395) for GPU og Anpec Electronics APW7165 for minne.

Minnebrikker er produsert av Samsung. Brikkemerkingen er K4G10325FE-HC04, den nominelle frekvensen er 5 GHz (effektiv frekvens). Til tross for en så høy nominell frekvens, opererer GeForce GTX 560 Ti-minnet med en lavere frekvens - 4 GHz.

Dette avslutter vår studie av designfunksjonene til GeForce GTX 560 Ti-akseleratoren og går videre til praktiske tester. Før du går videre til testresultatene, vennligst se gjennom listen over testpakker samt konfigurasjonen av testbenken.

Med alle mennesker som er mer eller mindre seriøst interessert i maskinvare, skjer den samme historien konsekvent. En gang i året dukker en venn/bekjent/bekjent opp og ber om hjelp til valg av komponenter og montering av ny datamaskin.

Hos meg, på grunn av mitt yrke, skjer dette mye oftere; jeg kjenner allerede standardtypene for slike "bestillere" på egen hånd. Faktisk er det to av dem: "en billig skrivemaskin" og "å leke med leker." Hvis alt er klart med førstnevnte (det er nok å anbefale den enkleste systemenheten fra enhver elektronikkbutikk), så er de som vil spille moderne spill mye mer kresne og kresne. De sliter alltid med ønsket om å spare penger og sette sammen en kraftigere "maskin", så det er nødvendig å velge de beste komponentene når det gjelder forhold mellom pris og kvalitet.

Det mest smertefulle problemet er valget av skjermkort, fordi det komfortable FPS-nivået i spill i stor grad avhenger av ytelsen til grafikksystemet. Det er tydelig at det ideelle alternativet er et nåværende generasjons topp-end AMD/NVIDIA-skjermkort. Men flaggskipet er dyrt og lider av et høyt nivå av strømforbruk, som i tillegg øker prisen på systemenheten på grunn av en kraftig strømforsyning. Et annet poeng er at moderne superkraftige akseleratorer, som finnes på toppen av modellseriene, virkelig er etterspurt i de tre til fem mest «tunge» spillene, og selv da i høye oppløsninger og med tvungen kantutjevnelse.

Det ideelle alternativet for en så krevende, men sparsommelig spiller ville være det tredje eller fjerde eldste skjermkortet i serien. Disse akseleratorene kalles også "folkelig" på grunn av deres utbredte bruk. Dessuten snakker vi oftest ikke om billige "grunnleggende" akseleratorer, men snarere om den "gyldne" midten - kort fra prisklassen $ 180-250. Du trenger ikke se langt etter eksempler: For et par generasjoner siden anbefalte jeg den billigere GeForce GT/GTS 8800, deretter Radeon HD 4850, deretter GeForce GTS 250 eller Radeon HD 5770, og så videre.

Generelt er oppskriften her enkel: for ikke å gjøre det Veldig dyrt og alle spill ble spilt med innstillinger nær maksimum. Samtidig, for at kortet skal bli mer populært, er det flere obligatoriske kvaliteter: ikke for høyt strømforbruk, gode overklokkingsmuligheter og et vellykket "referanse" kjølesystem.

Begge ledende produsenter av grafikkort har lenge vært mer oppmerksomme på dette segmentet, som konvensjonelt kalles "Middle-High". Men denne gangen utfoldet kampen for kjøpers lommebøker seg med fornyet kraft, AMD presenterte for første gang en ny generasjon akseleratorer, ikke med "topp", men med slike "øvre mellomnivå"-kort - Radeon HD 6870/6850. NVIDIA fant også noe å svare på; utgivelsen av den nye GeForce GTX 560 Ti-akseleratoren ble arrangert nesten mer pompøst enn starten på salget av "topp" GTX 580/570.

Selskapets ingeniører prøvde å lage et skjermkort "programmert for suksess" i henhold til prinsippene jeg beskrev ovenfor. Det er ikke for ingenting at det nye kartet i den offisielle pressemeldingen omtales som "sweet spot" (et engelsk formspråk som grovt kan oversettes til "gylden middelvei" eller "selve tingen"). Det menneskelige symbolet på den nye akseleratoren er Hunter, meet:

NVIDIA har lenge drevet med disse "komiske" bildene av cyborger, som symboliserer nye videoakseleratorer. Hvis karakteren for GTX 580 var et tungt pansret robotangrepsfly, så er karakteren her mer mager, men med en heftig pistol - en slags "liten-ja-dristig" i kjøttet.

Et annet interessant faktum: i den offisielle presentasjonen er flere sider viet til å sammenligne det nye produktet med... nei, ikke med konkurrenter fra AMD, og ​​ikke engang med akseleratorer fra forrige generasjon, men med den gamle GeForce GT 8800, som kl. en gang var plassert på nøyaktig samme måte, og jeg fant mange kjøpere. En annen undertekst - "hei, sparsommelig eier av 8800-serien som har ventet i alle disse årene - nå er det på tide med en oppgradering."

Og hvilken nostalgi Ti-suffikset i navnet vekker... Jeg husker at det en gang betegnet tilhørighet til den kraftige Titanium-serien, men har aldri vært brukt siden GeForce 4000, og dette er 2003! Dette er en retur til røttene, åtte år senere. Hvis dette fortsetter, bør kort i GeForce 600-generasjonen få forkortelsene FX og PCX, og så, se, kommer det til Riva TNT3.

I et forsøk på å gjøre skjermkortet enda mer attraktivt for kjøperen, viet NVIDIA-spesialister en side til å beskrive de enestående overklokkingsegenskapene til det nye produktet, noe som ikke er veldig typisk for dette selskapet.

Så ingeniørene prøvde å "programmere" GeForce GTX 560 Ti for suksess, og falt definitivt inn i en populær nisje. Men var det mulig å blande denne cocktailen av pris, ytelse og andre forbrukeregenskaper i riktig proporsjon? I dag skal jeg prøve å svare på dette spørsmålet. Først må du gjøre deg kjent med de "harde tallene" - data om arkitekturen og den rene ytelsen til det nye produktet.

Arkitektur

For større klarhet kompilerte jeg en spesiell plate med en kort beskrivelse av arkitekturen til syv skjermkort. Fire av dem tilhører forrige generasjon GeForce 400, de tre andre tilhører den moderne GeForce 500 (inkludert GTX 560 Ti).

Skjermkortmodell GeForce GTX 470GeForce GTX 480GeForce GTX 560 TiGeForce GTX 570GeForce GTX 580
GPUGF104GF100GF100GF114GF110GF110
Teknologisk prosess, nm 40 40 40 40 40 40
Antall transistorer, millioner stykker ~1950 ~3000 ~3000 ~1950 ~3000 ~3000
Krystallareal, mm 2 367 529 529 367 520 520
Antall grafikkbehandlingsklynger 2 4 4 2 4 4
Antall streaming multiprosessorer 7 14 15 8 15 16
Antall skalarprosessorer 336 448 480 384 480 512
Antall rasteriseringsblokker 24/32 40 48 32 40 48
Antall teksturer påført per pass 56 56 60 64 60 64
Cache L1 volum, KB 112 224 240 128 240 256
Cache L2 volum, KB 384/512 640 768 512 768 768
Videominne bussbredde, bits 192/256 320 384 256 320 384
Type minne som brukesGDDR5GDDR5GDDR5GDDR5GDDR5GDDR5

Denne sammenligningen er interessant fordi du klarere kan se "trinnene" i modellutvalget til de to siste generasjonene.

Det skal bemerkes her at i 400-serien var det også et mellomkort GeForce GTX 465, som var en "cut-off" av GTX 470. Dette kortet var ikke spesielt populært, og ble husket bare for muligheten til å "låse opp ” noen kopier til en fullverdig 470 ved å flashe BIOS. Som et resultat, i den "gamle" NVIDIA-modellserien var det et ekstra trinn som skilte flaggskipakseleratorene basert på GF100 GPU fra rimeligere skjermkort med GF104-prosessoren.

Til dags dato er det ikke engang et hint om at NVIDIA kommer til å gi ut GTX 565-skjermkortet, så utvalget ser enklere ut: GTX 580-570-560. Følgelig bør gapet mellom akseleratorer basert på topp-GPU GF110 og low-end-kort med GF114 være litt mindre.

Jeg legger også merke til at GeForce GTX 460-modellen finnes i to modifikasjoner - med 768 og 1024 MB videominne. I dette tilfellet er dette viktig, siden i tillegg til den reduserte GDDR5-kapasiteten, har low-end-kortet færre rasteriseringsenheter og en smalere 192-bits buss. Dermed er det under betegnelsen GTX 460 faktisk to brett, hvis ytelse kan variere med 10-20% avhengig av forholdene. Det er ingen "lett" versjon tilgjengelig for GTX 560 Ti ennå.

Det er allment kjent at NVIDIAs nye flaggskip GPU, GF110, er en redesignet versjon av forrige generasjon GF100. Det samme kan sies om GF114 sammenlignet med den gamle GF104. Generelt forble utformingen av prosessorelementene uendret; nye kjerneblokker ble tatt fra reservene som opprinnelig ble inkludert i designet. Det er rapportert at GF114 skal ha et lavere nivå av varmegenerering, siden den er produsert ved hjelp av en godt testet teknisk prosess, og det er gjort mindre "optimeringer" i designet. Tidligere ble det samme sagt om GF110.

Mer spesifikt. Hvis vi sammenligner GeForce GTX 560 Ti og GeForce GTX 460 1024 MB (som det nærmeste skjermkortet av forrige generasjon i klassen), bør vi merke oss en økning i antall strømprosessorer fra 336 til 384 (en økning på ~14,2 %). Dette betyr at selskapets ingeniører endelig har aktivert den siste (åttende) grafikk-klyngen i GF104/114-kjernen, og introduserer en fullverdig versjon av denne GPUen. Er det ikke sant at situasjonen minner mye om "oppgraderingen" fra GTX 480 til GTX 580? I så fall var også den siste kjerneklyngen (sekstende i rekken) involvert, som tidligere «sov», men ble sørget for av designet i siste generasjon.

Tillegget av en ekstra klynge sørget for en økning i antall teksturblokker fra 56 til 64 stykker (økningen er fortsatt den samme 14,2%). I denne parameteren er det nye kortet på nivå med flaggskipet GTX 580 og overgår slike skjermkort som GTX 470, GTX 480 og til og med GTX 570 (som a priori er dyrere og tilhører samme generasjon). Men rasteroperasjonsenheter (ROPs) er ikke assosiert med individuelle klynger, men med minnekontrollere som er felles for hele kjernen (henholdsvis 8 stykker for hver av 64-bits kontrollerene), antallet (32 stykker) har ikke økt.

Hvis vi bare teller strømprosessorer (en utakknemlig oppgave, men NVIDIA selv liker å gjøre dette), så var stigen for de tre eldre skjermkortene i siste generasjon 480 -> 448 -> 336 (forhold 1 -> 0,93 -> 0,7 ), og i den nåværende 512 -> 480 -> 384 (forhold 1 -> 0,94 -> 0,75). Det vil si at pariteten har blitt opprettholdt mellom de to eldre kortene (GTX x80 og GTX x70), og den "sekstiende" har innhentet dem litt og representerer nå "tre fjerdedeler" av flaggskipet, noe som er veldig bra med tanke på en slik forskjell i kostnad!

Men slike "papir" sammenligninger av arkitekturer er ingenting uten å ta hensyn til driftsfrekvensene, kostnadene og andre parametere til ekte skjermkort. For å tydeliggjøre bildet foreslår jeg at du gjør deg kjent med følgende tabell.

Navn på skjermkortGeForce GTX 460 (768/1000 MB)GeForce GTX 470GeForce GTX 480GeForce GTX 560 TiGeForce GTX 570GeForce GTX 580
utgivelsesdatojuli, 12
2010
26. mars 201026. mars 201025. januar 20117. desember 20109. november 2010
GPUGF104GF100GF100GF114GF110GF110
Kjerneklokkefrekvens, MHz 675 607 700 822 732 772
Shader domene klokkefrekvens, MHz 1350 1215 1401 1644 1464 1544
GrafikkminnetypeGDDR5GDDR5GDDR5GDDR5GDDR5GDDR5
Videominnevolum, MB 768/1024 1280 1536 1024 1280 1536
Minnebussbredde, bits 192/256 320 384 256 320 384
Ekte/effektiv grafikkminnefrekvens MHz 900/3600 837/3348 924/3696 1002/4008 950/3800 1002/4008
Minnebåndbredde, GB/s 86,4/115,2 134 177,4 128,3 152 192,4
Scenefyll, milliarder piksler / 16,2/21,6 24,3 33,6 26,3 29,28 37,0
Scenefyll, milliard tex / 37,8 34,0 42,0 52,5 43,9 49,4
Ytelse FP32, Gflops 907,3 1088,6 1344,9 1259,5 1405,4 1581
Ytelse FP64, Gflops 113,4 136,1 168,1 157,4 175,7 197,6
TDP, W 150/160 215 250 170 219 244
Anbefalt pris på utgivelsestidspunktet, USD* 199/229 349 499 249* 349 499

*foreløpige data

Men dette er mer interessant. Sammenlignet med GeForce GTX 460, opererer det nye produktet som studeres med betydelig høyere frekvenser. Dermed ble GPU-frekvensen økt fra 675 til 822 MHz (økningen er 147 MHz eller 21,7%). I kombinasjon med det økte antallet kjerneutførelsesenheter ser denne økningen enda mer betydelig ut; sammen kan alt dette gi den nye akseleratoren en ytelsesfordel på 25-30 %. Dette faktum indikeres også av data om "matematikk" (FP32, FP64) og scenefyllingshastighet.

Forresten, standardfrekvensene til det nye skjermkortet tilsvarer omtrent verdiene som oppnås ved overklokking av GeForce GTX 460. Som bekreftelse kan du sitere på GTX 460, et nettsted kompilert av forumbesøkende basert på mange meldinger om overklokking av disse skjermkortene:

...frekvenser i området 800-850/1600-1700/4000-4200 er optimale, ytterligere overklokking krever som regel en endring i CO, samt en stor økning i spenningen.

Men ifølge produsenten skal det nye produktet akselerere veldig bra. Det ser ut til at selv den overklokkede GTX 460 ikke vil være i stand til å konkurrere med GTX 560, som er i stand til å komme seg videre.

"Papir" ytelsesindikatorer gjenspeiler svært unøyaktig den virkelige maktbalansen. Men du kan fortsatt bestemme noe fra dem. For eksempel, når det gjelder datakraft og scenefyllingshastighet, utkonkurrerer GeForce GTX 560 Ti GeForce GTX 470. Det er alle forutsetninger for dette, det nye kortet er dårligere enn 470 i antall strømprosessorer (med 16,7 %) og rasteriseringsenheter (med 25 %) , men den opererer med mye høyere frekvenser (+ 35,4 %) og har 64 "teksturelementer" mot 56 for konkurrenten (+ 14,2 %). Slike data lar oss håpe på seier eller i det minste paritet i kampen selv med en så formidabel motstander. Hvis du tror på tallene, kan skjermkortet som studeres komme ganske nær GeForce GTX 480 eller GTX 570, spesielt etter en god overklokke.

Et viktig poeng i denne forbindelse er hastigheten på utveksling med videominne. Hva er bruken av en høyytelses høyfrekvent GPU hvis den er begrenset av en smal båndbredde? Ja, GeForce GTX 560 Ti og GeForce GTX 460 1024 MB er utstyrt med kun en 256-bits buss, men i dag ser dette ikke lenger ut som en slik ulempe: husk AMDs flaggskip-skjermkort. Årsaken til dette er GDDR5-minne, hvis driftsfrekvenser tillater anstendig båndbredde. GeForce GTX 560 Ti viser en overføringshastighet på 128,3 GB/s med en effektiv minnefrekvens på 4008 MHz. Dette er 11,3 % mer enn GeForce GTX 460 1024 MB, og svært nær GeForce GTX 470. De resterende deltakerne i sammenligningen med brede 320- og 384-bits busser ligger langt foran. Vi får bare håpe på overklokking, men grunnverdien ser heller ikke lav ut.

Vi har sortert ut teorien, alt som gjenstår er å vurdere de viktige "praktiske" spørsmålene om energiforbruk og pris.

Det nye skjermkortet viste seg å være litt mer strømkrevende enn forrige GTX 460. Økningen er liten, 170 W mot 150/160, og dette er med en betydelig økning i frekvensen på GPU og videominne. Åpenbart spilte de samme mystiske "optimaliseringene" av den tekniske prosessen en rolle, som ifølge NVIDIA førte til en reduksjon i strømforbruket til GF114 sammenlignet med GF104. Det er også interessant å merke seg at GeForce GTX 470, som på papiret er dårligere enn GTX 560 Ti når det gjelder ytelse, bruker 45 W mer.

Det er også viktig at det relativt lave forbruket vil gjøre det lettere å kombinere et par slike kort i SLI, og nøye seg med strømforsyninger med akseptabel strøm. Men GTX 460 er en virkelig hit for SLI-fans; et slikt system, til en lavere pris, overgår ofte selv de kraftigste enkeltskjermkortene; etterfølgeren til denne konfigurasjonen basert på et par 560-er kan bli en enda mer populær kombinasjon. Den eneste begrensningen her er prisen.

Men det er et problem med dette. Den nye akseleratoren viste seg å være $20 dyrere enn GTX 460 1024 MB, og så mye som $50 dyrere enn den yngre GTX 460 768 MB. Og dette tar kun hensyn til salgsprisen på utgivelsestidspunktet! Nå har GTX 460 av begge modifikasjonene klart å falle betraktelig i pris, og prisen på dette kortet vil falle enda mer etter utgivelsen av det nye produktet. Det vil igjen bli veldig dyrt i starten. Når jeg kjenner realitetene til russisk detaljhandel, vil jeg ikke ta mye feil hvis jeg gir et tall på rundt 10 000 rubler for første gang. En slik prislapp kan skremme bort en god del av kjøperne og oppheve alle fordelene med den nye akseleratoren, fordi den ikke lenger faller inn i "middelklassen". Heldigvis vil situasjonen ganske enkelt endre seg til det bedre om en måned eller to.

La meg oppsummere avsnittet. Det nye produktet, designet for å erstatte GeForce GTX 460, viste seg å være litt mer fråtsende og dyrt. På den annen side er dette rettferdig, for i følge mine beregninger er det nye kortet litt nærmere flaggskipene i sin generasjon enn forgjengeren. Takket være økte GPU- og videominnefrekvenser er akseleratoren betydelig overlegen GTX 460 og kan konkurrere med GTX 470. Den utilstrekkelige båndbredden til 256-bits bussen er vellykket kompensert ved å øke frekvensen til GDDR5 videominne.

Og nå er det på tide å bli kjent med denne "papirdragen" med egne øyne.

Design av skjermkort

Så det nye skjermkortet ligger foran deg. Dens tilhørighet til GeForce 500-familien er bevist av enkel grafikk i form av skrå striper på kabinettet, som samme forfatter så på GeForce GTX 580 og GTX 570.

Skjermkortet som studeres er mer kompakt enn sine eldre søstre basert på GF110 GPU. Lengden på akseleratoren er nøyaktig 9 tommer eller 227,7 mm i det mer kjente metriske systemet; modeller basert på GF 110 GPU er lengre - 10,5 tommer eller 267 mm. Høyden på de fleste GeForce-skjermkort i full størrelse er den samme og er 111 mm. Sammenligner man den nye akseleratoren med GeForce GTX 460, er det lett å legge merke til at 560 er lengre. For å være presis er forskjellen nesten 18 mm.

Dermed forblir GeForce GTX 560 Ti en stor akselerator, selv om det ikke skal være noen problemer med plassering i standard tilfeller.

Negativt punkt – kobler til ekstra strømledninger "fra baksiden":

Dette er et spørsmål om personlig preferanse, men jeg synes det er bedre å koble ledningene "fra toppen", siden i dette tilfellet er skjermkortet litt lettere å fjerne fra dekselet. I tillegg spares det plass bak gasspedalen, hvor det ofte er plassert en kurv med harddisker, hvorfra det i tillegg strekker seg egne ledninger. På den annen side er tilkobling bakfra mer fordelaktig fordi ledningene ikke stikker ut. Dette vil appellere til brukere som liker å "gjemme" ledninger perfekt og optimalisere luftstrømmen i kabinettet.

Forresten, to seks-pinners ekstra strømkontakter brukes for å gi ekstra strøm til skjermkortet. Det deklarerte nivået på energiforbruket, som jeg skrev ovenfor, er 170 V. Samtidig anbefaler produsenten å bruke en strømforsyning med en effekt på minst 500 W i forbindelse med GTX 560 Ti, som allerede er svært lite for en spilldatamaskin i disse dager.

Bakpanelet på skjermkortet har to DVI- og en mini-HDMI-kontakt. Dette settet er standard for eldre GeForces; et identisk bakpanel brukes på alle GeForce GTX-er fra de to siste generasjonene.

Hovedforskjellen mellom GeForce GTX 560 Ti og eldre skjermkort, som er lett å legge merke til ved ekstern inspeksjon, er utformingen. Denne akseleratoren bruker en vanlig ni-blads vifte, mens GTX 570/580 er utstyrt med en sentrifugal (ofte kalt en "turbin"). Nok en gang bemerker jeg at designet med en sentrifugalvifte, etter min mening, er mer avansert på grunn av "blåsing" av oppvarmet luft utenfor kabinettet og optimal passasje av luftstrøm langs overflaten av brettet.

I prinsippet er det aktuelle skjermkortet helt innelukket i et hus, så luftstrømmen bør også rettes mot gitteret på bakpanelet og blåses ut av kabinettet. Imidlertid er sidekantene på kabinettet utstyrt med spor, og det er også et "vindu" i den fremre delen av skjermkortet nær de ekstra strømkontaktene. En enkel håndflatetest viste at kjølesystemet blåste luft i alle retninger, med svært liten strømning gjennom gitteret.

For å øke effektiviteten til viften er plasthuset i midten litt bøyd; således, i en av posisjonene stikker bladene mer over overflaten, noe som gjør at de kan fange opp litt mer luft. God oppmerksomhet på detaljer.

Jeg skal se på kjølesystemet på en mer lik måte. Demontering kan utføres i forskjellige rekkefølger, men først skilte jeg plasthuset til CO for bedre å undersøke monteringen av systemet.

Et interessant design som ser ut som en slags sprø steampunk-helikopter. Men sett til side sammenligninger, er det mye viktigere at systemet er basert på tre varmerør med en diameter på 6 mm. Ett av rørene går inn i en vifteformet radiator nær bakpanelet på skjermkortet, de to andre går inn i en lignende radiator som ligger "bak" viften. En ekstra rund radiator er plassert rett under impelleren og kobles til basen. Designet minner mye om MSIs proprietære design – den såkalte Cyclone, bare kraftig redusert i størrelse. I en av mine gamle, gamle artikler var det dette bildet:

Forresten, et lignende system med to "vifter" rundt viften ble også brukt på referansen GeForce GTX 460, forskjellen er i antall varmerør - tidligere var det bare to. Systemet har fått et løft på grunn av økt TDP på ​​skjermkortet, og dette gir håp om vellykket overklokking.

Et skjermkort er et av hovedelementene når du setter sammen en spilldatamaskin. Store produsenter slipper ofte nye modeller i ulike priskategorier. Men dette betyr ikke at tidligere versjoner av skjermkort mister sin relevans. Utgitt i 2011, kan Nvidia Geforce GTX 560 Ti fortsatt være et godt valg for en budsjettdatamaskin i dag.

For å få et fullstendig bilde av nøyaktig hva skjermkortet er, må du se nærmere på egenskapene til GTX 560 Ti:

  • GPUen er GF114 med en 40nm prosessteknologi.
  • Kjerneklokkefrekvensen er 822 MHz.
  • Antall installerte transistorer er 1950 millioner enheter.
  • Antall streaming multiprosessorer – 8.
  • Antall rasteriseringsblokker er 32.
  • Teksturblokker – 64.
  • Videominnet er på 1024 MB GDDR5 og har en båndbredde på 128 GB/s.
  • Effektiv frekvens – 4008 MHz.
  • Minnebuss – 256 biter.

Disse egenskapene til Nvidia Geforce GTX 560 Ti vil være nok til å kjøre moderne spill på lave og middels innstillinger. Denne videoakseleratoren vil også gjøre en utmerket jobb med å behandle bilder og videoer i "tunge" programmer.

Gjennomgang av skjermkort

Prosessoren er ansvarlig for å slippe løs kraften til skjermkortet. For GTX 560 Ti-modellen er brikker fra Intel et utmerket alternativ. En videoakselerator sammen med en Intel core i3-prosessor eller høyere vil fungere på 100 % av funksjonene i moderne spill og programmer.


Strømforbruket til skjermkortet er 170 W. Av dette følger det at det optimale valget av strømforsyning vil være alternativer med en effekt på 300 W og høyere. Denne kraften vil være nok selv når du arbeider med en stor mengde RAM og en kraftig prosessor.

Når det gjelder oppvarming av videoakseleratoren, er driftstemperaturen til Nvidia GTX 560 Ti-skjermkortet 80-85 grader. I sjeldne tilfeller kan det nå 100 grader. Hvis denne indikatoren øker, bør du seriøst tenke på å bytte ut den termiske pastaen fra fabrikken med en ny.

Ytelsesforbedring

Hvis standard grafikkortkraft ikke virker nok for deg, bør du være oppmerksom på å overklokke GTX 560 Ti. Det vil øke produktiviteten.

For å overklokke trenger du MSI Afterburner. Etter å ha lansert det, kan du observere grensesnittet med følgende indikatorer:

  1. Kjernespenning - ansvarlig for kjernespenning.
  2. Strømgrense – grense for strømforbruk.
  3. Kjerneklokke – GPU-kjernefrekvens.
  4. Minneklokke – GPU-minnefrekvens.
  5. Viftehastighet – kjøligere hastighet.

Av alle punktene må vi øke to indikatorer: Core Clock og Memory Clock. Vi øker GPU-kjernefrekvensen til 900 MHz. Vi hever minnefrekvensen til 2100 MHz.

Disse handlingene må gjøres gradvis. For hvert trinn øker du indikatorene med 20-30 MHz.

Etter at overklokkingen av Nvidia Geforce GTX 560 Ti-skjermkortet er fullført, må du utføre en stresstest ved å bruke Funmark-verktøyet. Det vil tillate deg å identifisere driftsproblemer, hvis noen. Hvis det oppdages feil, må indikatorene økt i MSI Afterburner reduseres.

Det endelige resultatet av overklokking kan sees ved hjelp av GPU-Z-programmet. Den lar deg overvåke alle indikatorene til videoakseleratoren.

Spilltesting

GTX 560 Ti ble utgitt i 2011. Til tross for dette er kraften nok til å starte og spille moderne prosjekter komfortabelt.

Skjermkortet ble testet i de mest krevende spillene til dags dato. Under testene ble følgende indikatorer oppnådd:

Grand Theft Auto 5. Når du kjører GTA V på høye innstillinger, var antall FPS i spillet 15-20 bilder, og det dukket opp frysninger i enkelte øyeblikk. For å øke FPS ble grafikkinnstillingene senket til middels. Minimum antall rammer har økt til 30-35.

The Witcher 3. For den mest komfortable spillopplevelsen må du kjøre The Witcher med minimale grafiske innstillinger. Gjennomsnittlig antall rammer er 25-30. På steder med et stort antall objekter er dette tallet redusert til 20 rammer.

Battlefield 1. Da kampanjen ble lansert på middels innstillinger, var FPS rundt 30 bilder per sekund. Når du byttet til online-kamper, falt dette tallet til 24. Dette tallet er ganske nok for et komfortabelt spill på middels innstillinger i FullHD-format.

Dishonored 2. Til tross for ikke den beste optimaliseringen i spillet, er gjennomsnittlig antall bilder under tester 25. Svært sjelden, under intense actionscener, oppstår fall på opptil 20 bilder og små, noen ganger umerkelige, fryser vises.

Assassin's Creed: Origins. Dessverre, for å spille AC: Origins komfortabelt, trenger du et kraftigere skjermkort. Egenskapene til GTX 560 Ti er ikke nok til å øke FPS til minst akseptable 25 bilder selv ved lave innstillinger.

Watch Dogs 2. Situasjonen er lik med dette prosjektet. Optimalisering av spillet er ikke den beste siden. Som et resultat vil det å kjøre et spill på videoakseleratorer med 1 GB minne resultere i lav ytelse. Minimum antall FPS ved lave innstillinger er 15 bilder.

Basert på testene som er utført, kan det ses at GTX 560 Ti kan spille de fleste moderne prosjekter med lave og middels grafikkinnstillinger.

Sammenligning av forskjellige produsenter

GTX 560 Ti produseres av 5 forskjellige selskaper. For å velge den optimale, må du vurdere videoakseleratormodellene mer detaljert.

ProdusentGigabyteAsusPalitZotacMSI
GPUGF114GF114GF114GF114GF114
Teknisk prosess40 nm40 nm40 nm40 nm40 nm
Antall CUDA-kjerner384 384 384 384 384
Antall transistorer (millioner, stk)1950 1950 1950 1950 1950
Krystallareal (mm2)367 367 367 367 367
Antall streaming multiprosessorer8 8 8 8 8
Antall skalarprosessorer384 384 384 384 384
Shader Domain klokkehastighet (MHz)1664 1664 1664 1664 1664
GPU-frekvens (MHz)900 830 900 950 750
Prosessortemperaturgrense (°C)100 100 100 100 100
DirectX11 11 11 11 11
Videominnekapasitet (MB)1024 1024 1024 1024 1024
VideominnetypeGDDR5GDDR5GDDR5GDDR5GDDR5
Bussbredde (bits)256 256 256 256 256
Effektiv minnefrekvens (MB)4008 4008 4008 4008 4008
Båndbredde (GB/s)128.3 128.3 128.3 128.3 128.3
GTX 560 Ti pris6500 rubler.6200 gni.6400 gni.6490 gni.6350 gni.

De viktigste forskjellene mellom produsenter er prosessorens klokkehastighet. Minimumshastigheten for et skjermkort fra MSI er 750 MHz. Maksimal frekvens – 950 MHz – tilhører modellen fra Zotac. Når det gjelder prisspredningen, er den minimal og praktisk talt ikke avhengig av produsenten.

Hvor du kan hente drivere

For å få maksimal ytelse, må du laste ned de nyeste Nvidia Geforce GTX 560 Ti-driverne fra den offisielle nettsiden. Produksjonsselskapet prøver å gi ut nye versjoner av drivere så ofte som mulig. De er rettet mot å forbedre enhetens ytelse i moderne spill.

For ikke å gå glipp av utgivelsen av nye driverversjoner kan du laste ned programmet Geforce Experience. Med dens hjelp mottar brukere varsler om behovet for å installere oppdateringer.