karty nvidia geforce gtx 780 ti.

Po wypuszczeniu na rynek karty graficznej GeForce GTX TITAN (999 USD) w lutym 2013 r. i uzupełnieniu jej o tańszy model GeForce GTX 780 (649 USD) w maju, NVIDIA mogła spokojnie spocząć na laurach do końca października, zbierając całą śmietankę uprawa na rynku entuzjastów overclockerów i najbogatszych entuzjastów gier. Teraz nikt nie jest w stanie powiedzieć, jak długo z punktu widzenia NVIDII trwałaby ta idylla, ale to właśnie zapowiedź AMD Radeon R9 290X skłoniła firmę z Santa Clara, po pierwsze, do poważnego obniżenia zalecanych cen GeForce'a GTX 780/GTX 770, a po drugie, w końcu wypuść nowy flagowiec - kartę graficzną NVIDIA GeForce GTX 780 Ti.

Teraz możesz bezpiecznie zapomnieć o TITANIE, a fani NVIDIA mogą pilnie pozbyć się swojego GeForce GTX 780, ponieważ nowa wersja Ti nie pozostawia im ani jednej szansy we wszystkich kluczowych cechach jednocześnie. NVIDIA na pewno nie wypuści niczego lepszego/szybszego/tańszego w oparciu o architekturę Kepler i technologię procesową 28 nm, więc mamy wszelkie powody, aby nazwać GeForce GTX 780 Ti prawdziwą koroną architektury Kepler, jej apogeum i ekstrawagancją. Porozmawiajmy jednak o wszystkim w porządku.

1. Recenzja karty graficznej NVIDIA GeForce GTX 780 Ti

dane techniczne i zalecany koszt

Parametry techniczne karty graficznej GeForce GTX 780 Ti pokazano w tabeli w porównaniu z referencyjnymi wersjami GeForce GTX TITAN, GeForce GTX 780 i AMD Radeon R9 290X:



Jak widać z tabeli charakterystyk, kluczową różnicą między nową kartą graficzną jest procesor graficzny. GeForce GTX 780 Ti ma pełnoprawną architekturę GK110 „Kepler”, zawierającą wszystkie 15 wieloprocesorów przesyłania strumieniowego (SMX), takich jak profesjonalne akceleratory Tesla K40, 2880 zunifikowanych procesorów cieniujących i 240 jednostek teksturujących. To o 25% więcej niż w przypadku zwykłego GeForce GTX 780 i o 7,1% więcej niż w przypadku TITANA. Ponadto nieznacznie wzrosły częstotliwości procesora graficznego, które obecnie wynoszą 876/928 MHz. Jednak wzrost częstotliwości pamięci wideo jest znacznie bardziej imponujący i wynosi prawie 1000 efektywnych megaherców (7000 MHz w porównaniu z 6008 MHz dla TITAN lub 780).



Ponadto karta GeForce GTX 780 Ti obsługuje najnowszą technologię „Power Balancing”, która polega na organizowaniu najbardziej zrównoważonego zasilania karty graficznej poprzez automatyczną dystrybucję mocy z różnych źródeł (zewnętrzne/PCI-E) i powinna pomóc zwiększyć potencjał przetaktowywania . Później NVIDIA obiecuje wprowadzić tę technologię do kart graficznych GeForce GTX TITAN z GTX 780 (najwyraźniej z nowymi wersjami GPU). I wreszcie, znana już funkcja GPU Boost w wersji 2.0, według firmy NVIDIA, sprawia, że ​​nowa karta graficzna jest wyjątkowa pod względem osiągania maksymalnych częstotliwości/wydajności przy dużych obciążeniach 3D.

Wśród aktualizacji oprogramowania zwracamy uwagę na obsługę GeForce GTX 780 Ti dla nowej technologii ShadowPlay. Wykorzystując sprzętową obsługę procesorów graficznych Kepler dla kodera H.264 NVENC, technologia ta umożliwia przechwytywanie materiału filmowego z gier. Przy minimalnym wpływie na wydajność (niecałe 10% – zdaniem NVIDIA), ShadowPlay umożliwia nagrywanie filmów z częstotliwością 60 klatek na sekundę, ale na razie tylko w rozdzielczości 1920x1080 (1080p). Prawdopodobnie w przyszłości możliwości przechwytywania wideo zostaną rozszerzone. Oprócz ShadowPlay podkreślamy także nową technologię sprzętową i programową do synchronizacji pionowej G-SYNC. Obie innowacje NVIDIA planujemy zwrócić szczególną uwagę w jednym z naszych przyszłych artykułów.

Projekt i funkcje PCB

Jedyne zewnętrzne różnice pomiędzy nową kartą GeForce GTX 780 Ti a GTX 780 i GTX TITAN to napis na przedniej obudowie układu chłodzenia, ciemniejszy radiator pod szkłem oraz brak układów pamięci z tyłu płytki drukowanej:




Na górze obudowy chłodnicy podświetlone są symbole „GEFORCE GTX”, co z pewnością zadowoli estetów. Wymiary karty graficznej są standardowe dla tej linii, 267 x 100 x 39 mm i waży 922 gramy.

Karta GeForce GTX 780 Ti jest wyposażona w cztery wyjścia wideo: DVI-I i DVI-D (oba Dual-Link), HDMI w wersji 1.4a i DisplayPort w wersji 1.2:


Z tyłu karty graficznej widać otwarty radiator i śruby mocujące obudowę układu chłodzenia:


Ogólnie wszystko wygląda tak samo jak w GeForce GTX 780 czy GTX TITAN, łącznie z dodatkowymi złączami zasilania i złączami dla trybów SLI:


Warto zauważyć, że pomimo zwiększonej liczby wieloprocesorów SMX, zwiększonych częstotliwości procesora graficznego i pamięci wideo, NVIDIA dla nowego GeForce GTX 780 Ti zapewnia ten sam maksymalny poziom rozpraszania ciepła co GTX 780 czy GTX TITAN, równy 250 watów. Zrobiono to zapewne ze względów marketingowych, a może nowa wersja GPU B1 rzeczywiście okazała się bardziej ekonomiczna?

Płytka drukowana GeForce GTX 780 Ti pod względem konstrukcji i rozmieszczenia elementów przypomina płyty GeForce GTX TITAN/780:



Jednak część zasilająca ma wyraźnie osiem faz zasilania procesora graficznego przy użyciu tranzystorów mocy DrMOS zamiast sześciu w GTX TITAN/780:


Jednocześnie sterownik sterujący nie uległ zmianie – jest to sprawdzony NCP4206 firmy ON Semiconductor:


Matryca GPU o powierzchni 561 mm2. wydany na Tajwanie w 34 tygodniu 2013 (połowa sierpnia) i co najważniejsze nawiązuje do zupełnie nowej wersji B1:


Oznaczenie – GK110-425-B1 (pamiętajcie, że kryształy TITAN oznaczone są jako GK-110-400-A1). Częstotliwości procesora graficznego GeForce GTX 780 Ti w trybie 3D wynoszą 876/928 MHz przy napięciu 1,175 V. Po przejściu do trybu 2D częstotliwość spada do 324 MHz, a napięcie spada do 0,875 V. Jednak jak pokazuje praktyka , napięcia mogą się różnić w zależności od każdego GK110. O charakterystyce procesora graficznego mówiliśmy w poprzednim podrozdziale artykułu.

Dodajmy, że jakość ASIC naszego GPU okazała się na poziomie 77,8%:


Podobnie jak w przypadku GeForce GTX 780, na przedniej stronie płytki drukowanej GeForce GTX 780 Ti znajduje się 12 układów pamięci GDDR5 w opakowaniu FCBGA o łącznej pojemności 3 GB. Chipy zostały wypuszczone przez firmę SK Hynix (pamiętaj, że wszystkie TITAN i GTX 780 to firma Samsung) i są oznaczone jako H5GQ2H24AFR-R2C:


Na chwilę obecną są to najszybsze na rynku produkowane chipy firmy Hynix, zdolne do pracy z efektywną częstotliwością 7000 MHz przy napięciu 1,5 V, na których pracuje pamięć GeForce GTX 780 Ti. Przy 384-bitowej magistrali pamięci częstotliwość ta przekłada się na teoretyczną przepustowość na poziomie 336 GB/s, czyli nawet wyższą niż Radeon R9 290X z 512-bitową magistralą i pamięcią 5000 MHz (320 GB/s).

Najnowsza wersja narzędzia GPU-Z dostępna w momencie pisania tego artykułu zna już charakterystykę GeForce GTX 780 Ti:



wydajność układu chłodzenia

Układ chłodzenia GeForce GTX 780 Ti nie przeszedł żadnych zmian konstrukcyjnych. To ta sama chłodnica TITAN/GTX 780 z komorą parowania u podstawy i aluminiowym radiatorem, metalowym podłożem oraz wentylatorem promieniowym z adaptacyjną regulacją prędkości obrotowej:



Jednak jest jeszcze jedna zmiana, nawet jeśli nie konstrukcyjna - radiator GeForce GTX 780 Ti jest niklowany, co jest dobrze widoczne zarówno przez przezroczyste szkło na górze, jak i przez koniec karty graficznej, gdzie jest podgrzewany powietrze jest wyrzucane na zewnątrz obudowy jednostki systemowej:


Sądząc po danych monitoringu, prędkość wentylatora można regulować w zakresie od 1000 do 4250 obr./min.

Aby sprawdzić warunki temperaturowe kart graficznych jako obciążenia, wykorzystaliśmy pięć cykli testowych gry Aliens vs. Predator (2010) z maksymalną jakością grafiki w rozdzielczości 2560x1440 pikseli z 16-krotnym filtrowaniem anizotropowym i MSAA4x:



Do monitorowania temperatur i innych parametrów wykorzystano program MSI Afterburner w wersji 3.0.0 beta 16 oraz narzędzie GPU-Z w wersji 0.7.4. Wszystkie testy przeprowadzono w zamkniętej obudowie jednostki systemowej, której konfigurację można zobaczyć w dalszej części artykułu, w temperaturze pokojowej wynoszącej 25 stopni Celsjusza.

Przyjrzyjmy się więc możliwościom chłodnicy GeForce GTX 780 Ti w trybie automatycznym:



Tryb automatyczny


Rezultatem było 86 stopni Celsjusza maksymalnej temperatury przy maksymalnej prędkości wentylatora 3090 obr./min. Przypomnijmy, że GeForce GTX TITAN, wyposażony w dokładnie ten sam układ chłodzenia, nagrzał się do 87 stopni Celsjusza przy maksymalnej prędkości wentylatora 3040 obr/min, a GeForce GTX 780 - do 82 stopni Celsjusza przy 2350 obr./min. Tak więc nowy GeForce GTX 780 Ti stał się cieplejszy i w rezultacie głośniejszy niż GTX 780. Ponadto należy zwrócić uwagę na fakt, że częstotliwość pracy procesora graficznego GeForce GTX 780 Ti podczas testów była stale równa 1020 MHz zamiast podanego, tryb boost 928 MHz. Dodajmy, że Power Limit w trakcie testów został zwiększony do 106%.

Po ręcznym ustawieniu maksymalnej prędkości wentylatora układu chłodzenia GeForce GTX 780 Ti, szczytowa temperatura procesora graficznego spadła do 71 stopni Celsjusza:



Maksymalna prędkość


To prawda, że ​​\u200b\u200bprędkość 4250 obr./min, przy której działa lodówka, jest zbyt głośna dla domowej karty graficznej, choćby do gier.

potencjał overclockingu

Czy wiesz, co jest najważniejsze w GeForce GTX 780 Ti? Rdzeń Keplera nie jest pełnoprawny pod względem liczby multiprocesorów i bloków strumieniowych, nie jest to pamięć wysokiej częstotliwości o rekordowej przepustowości ani nawet niklowany radiator układu chłodzenia, ale rewizja rdzenia - B1. Bo jeśli ktoś uważa, że ​​z procesora graficznego GK110-425-B1 w GeForce GTX 780 Ti wyciśnięto już „cały sok”, to jest to złudzenie, a z punktu widzenia overclockingu złudzenie to niemal kryminalista.

Faktem jest, że jak się okazało, nawet przy skrajnie ograniczonych możliwościach zwiększenia Power Limitu (jedynie 106%), zupełnym braku możliwości podniesienia napięcia i zastosowaniu raczej przeciętnego pod względem wydajności standardowego układu chłodzenia, grafika procesor był w stanie działać stabilnie przy rosnącej częstotliwości od razu do 240 MHz! I to, pamiętajcie, mówimy o częstotliwości podstawowej. Dla tego samego GeForce GTX TITAN byłaby to rekordowa wartość „w powietrzu”, a dla wybranych GTX 780, najbardziej udane egzemplarze z oryginalnymi chłodnicami są w stanie tak imponujące podkręcanie. Oto natychmiast +240 MHz, a nawet +760 MHz dla pamięci wideo:


Częstotliwości karty graficznej po podkręceniu wynosiły 1116/1168/7760 MHz:


Tak naprawdę, jeśli wierzyć danym z monitoringu, przy dużym obciążeniu częstotliwość GPU sięgała 1260 (!) MHz, choć najczęściej było to 1246 MHz:



Przykładowo, po podkręceniu karty MSI GeForce GTX 780 Lightning, dosłownie nafaszerowanej różnymi autorskimi technologiami, udało nam się osiągnąć częstotliwość 1227 MHz, a to mniej niż aktualny wynik referencyjnego GeForce GTX 780 Ti. Możemy się tylko domyślać, jakie nominalne częstotliwości będzie miała seryjna karta GeForce GTX 780 Ti z wysokowydajnymi oryginalnymi chłodnicami i jakie będzie ich podkręcanie. Dodajmy do naszych wyników, że aby je osiągnąć zmuszeni byliśmy ręcznie ustawić prędkość wentylatora na 85% czyli 3530 obr/min, co oczywiście jest głośne, ale inaczej standardowy układ chłodzenia po prostu nie dałby sobie rady z chłodzeniem dużego i gorącego procesora i częstotliwość spadła.

Zużycie energii

Zużycie energii systemu z różnymi kartami graficznymi zmierzono za pomocą wielofunkcyjnego panelu Zalman ZM-MFC3, który pokazuje zużycie energii przez system „z gniazdka” jako całości (bez monitora). Pomiar przeprowadzono w trybie 2D, podczas normalnej pracy w programie Microsoft Word lub surfowaniu po Internecie, a także w trybie 3D. W tym drugim przypadku ładunek powstał przy użyciu czterech kolejnych cykli sceny wprowadzającej poziomu „Bagno” z gry Crysis 3 w rozdzielczości 2560x1440 pikseli przy maksymalnych ustawieniach jakości grafiki, ale bez użycia antyaliasingu MSAA.

Aby porównać poziom zużycia energii przez kartę NVIDIA GeForce GTX 780 Ti, uwzględniliśmy w testach systemy z kartami graficznymi NVIDIA GeForce GTX TITAN przy częstotliwościach nominalnych i podkręconych, referencyjne karty NVIDIA GeForce GTX 690, EVGA GeForce GTX 780 Superclocked ACX przy obniżonych częstotliwościach do poziomu referencyjnego GeForce GTX 780, a także AMD Radeon HD 7990 i kombinacji CrossFireX dwóch MSI Radeon R9 280X. Oto co się stało:



Zużycie energii przez kartę NVIDIA GeForce GTX 780 Ti dość oczekiwanie wzrosło w porównaniu do jej poprzedników, ale nie można tego powiedzieć o wiele. Na przykład system z kartą GeForce GTX 780 Ti zużywa tylko 29 watów więcej niż GTX 780 i 10 watów więcej niż GTX TITAN. Co więcej, nawet podkręcony GeForce GTX 780 Ti w dość szybkiej konfiguracji bez problemu zmieści się do 600 W, a taka moc zasilacza, jak wiemy, nie jest dziś niczym niezwykłym. Na tym tle znacznie bardziej imponujący jest poziom zużycia energii w systemach z dwuprocesorowymi kartami graficznymi NVIDIA GeForce GTX 690, a w szczególności AMD Radeon HD 7990. Cóż, dzisiejszym rekordzistą pod względem zużycia energii jest tandem CrossFireX dwóch MSI Radeon R9 280X, który będzie wymagał wysokiej jakości zasilacza o mocy co najmniej 750 watów.

Uzupełnijmy recenzję karty graficznej linkiem do BIOS-u i przejdźmy do metodologii testowania konfiguracją testową.

2. Konfiguracja testów, narzędzia i metodyka testowania

Testy wydajności karty graficznej zostały przeprowadzone w następującej konfiguracji systemu:

Płyta główna: Intel Siler DX79SR (Intel X79 Express, LGA 2011, BIOS 0590 z 17.07.2013);
PROCESOR: Intel Core i7-3970X Extreme Edition 3,5/4,0 GHz(Sandy Bridge-E, C2, 1,1 V, 6x256 KB L2, 15 MB L3);
Układ chłodzenia procesora: Phanteks PH-TC14PE (2xCorsair AF140, 900 obr./min);
Interfejs termiczny: ARCTIC MX-4;
Karty wideo:

NVIDIA GeForce GTX TITAN 6 GB 837/876/6008 MHz i 972/1011/7288 MHz;
NVIDIA GeForce GTX 690 2x2 GB 915/1020/6008 MHz;
Supertaktowana karta EVGA GeForce GTX 780 ACX 3 GB (03G-P4-2784-KR) 863/916/6008 MHz;
AMD Radeon HD 7990 2x3 GB 1050/6000 MHz;
CrossFireX MSI Radeon R9 280X do gier 2x3 GB 1050/6000 MHz;

BARAN: DDR3 4x8 GB G.SKILL TridentX F3-2133C9Q-32GTX(2133 MHz, 9-11-11-31, 1,6 V);
Dysk systemowy: SSD 256 GB Crucial m4 (SATA-III, CT256M4SSD2, BIOS v0009);
Dysk na programy i gry: Western Digital VelociRaptor (SATA-II, 300 GB, 10000 obr./min, 16 MB, NCQ) w pudełku Scythe Quiet Drive 3,5”;
Dysk archiwalny: Samsung Ecogreen F4 HD204UI (SATA-II, 2 TB, 5400 obr./min, 32 MB, NCQ);
Obudowa: Antec Twelve Hundred (ściana przednia - trzy Noiseblocker NB-Multiframe serii S MF12-S2 przy 1020 obr./min; z powrotem – dwa Noiseblocker NB-BlackSilentPRO PL-1 przy 1020 obr./min; u góry – standardowy wentylator 200 mm przy 400 obr/min);
Panel sterowniczo-monitorujący: Zalman ZM-MFC3;
Zasilanie: Corsair AX1200i (1200 W), wentylator 120 mm;
Monitor: 27" Samsung S27A850D (DVI-I, 2560x1440, 60 Hz).

Oczywiście na początek porównamy nowy produkt z najdroższą jednoprocesorową kartą graficzną NVIDIA – GeForce GTX TITAN, która została przetestowana przy nominalnych częstotliwościach i podkręcona:




Jeszcze groźniejszym rywalem GeForce GTX 780 Ti jest dwuprocesorowa karta GeForce GTX 690, która mimo że wypuszczona na rynek ponad półtora roku temu, nadal jest jedną z najszybszych kart graficznych naszych czasów. A ponieważ do testów uwzględniliśmy dwuprocesorową kartę graficzną NVIDIA, nie można zignorować AMD - dziś prezentuje ją AMD Radeon HD 7990:




Należy pamiętać, że o ile GeForce GTX 690 ma częstotliwości nominalne, to Radeon HD 7990 ma je nieco podniesione (rdzeń +50 MHz). Zrobiono to nie w jakimkolwiek samolubnym celu, ale w celu porównania w następnym artykule tej karty graficznej z wydajnością pary nowych MSI Radeon R9 280X Gaming w trybie CrossFireX, których częstotliwość GPU wynosi dokładnie 1050 MHz. Mamy nadzieję, że wybaczycie nam tę swobodę w dzisiejszym artykule.

Aby porównać GeForce GTX 780 Ti ze zwykłym GeForce GTX 780, w testach wykorzystano kartę graficzną EVGA GeForce GTX 780 Superclocked ACX, której częstotliwości procesora graficznego zostały dostosowane do referencji dla GeForce GTX 780. Z kolei kombinacja CrossFireX z dwóch kart MSI Radeon R9 280X Gaming pracujących w częstotliwościach 1050/6000 MHz:




Takie porównanie na dość dużą skalę planujemy dzisiaj. Niestety, nowe karty AMD Radeon R9 290X/R9 290 nie zostaną uwzględnione w tych testach, ponieważ firma nigdy nie wysyłała tych kart graficznych do testów. Wszelkie pytania lub gniewne komentarze dotyczące tej sprawy prosimy kierować bezpośrednio do AMD.

Jak zwykle, aby zmniejszyć zależność wydajności karty graficznej od szybkości platformy, sześciordzeniowy procesor 32 nm z mnożnikiem 48, częstotliwością odniesienia 100 MHz i aktywowaną funkcją Load-Line Calibration został podkręcony do 4,8 GHz, podczas gdy napięcie w BIOSie płyty głównej zostało zwiększone do 1,38 IN:



Technologia Hyper-Threading jest aktywowana. Jednocześnie 32 GB pamięci RAM pracowało z częstotliwością 2,133 GHz z taktowaniem 9-11-11-20_CR1 przy napięciu 1,6125 V.

Testy, które rozpoczęły się 2 listopada 2013 roku, przeprowadzono pod systemem operacyjnym Microsoft Windows 7 Ultimate x64 SP1 ze wszystkimi aktualizacjami krytycznymi na określoną datę i z zainstalowaniem następujących sterowników:

Sterowniki chipsetu płyty głównej Intel Chipset Drivers – 9.4.4.1006 WHQL z dnia 21.09.2013;
Biblioteki DirectX End-User Runtimes, data wydania: 30 listopada 2010;
sterowniki kart graficznych dla procesorów graficznych NVIDIA – GeForce 331.70 Beta z dnia 11.02.2013 dla GTX 780 Ti i GeForce 331.65 WHQL z dnia 23.10.2013 dla wszystkich pozostałych kart graficznych NVIDIA;
Sterowniki kart graficznych dla procesorów graficznych AMD – AMD Catalyst 13.11 BETA8 (13.250.18.0) z dnia 29 października 2013 r.;

Wydajność kart graficznych testowano w dwóch rozdzielczościach: 1920x1080 i 2560x1440 pikseli. Do testów wykorzystano dwa tryby jakości grafiki: „Quality + AF16x” – domyślnie jakość tekstur w sterownikach z włączoną filtracją anizotropową na poziomie 16x oraz „Quality + AF16x + MSAA 4x (8x)” z filtrowaniem anizotropowym na poziomie 16x i pełnym -włączono antyaliasing ekranu 4x lub 8x, w przypadkach, gdy średnia liczba klatek na sekundę pozostawała wystarczająco wysoka, aby zapewnić komfortową rozgrywkę. Filtrowanie anizotropowe i pełnoekranowe wygładzanie krawędzi zostało włączone bezpośrednio w ustawieniach gry. Jeżeli te ustawienia nie były dostępne w grach, wówczas parametry zmieniano w panelach sterowania sterowników Catalyst i GeForce. Synchronizacja pionowa również została tam na siłę wyłączona. Poza powyższym nie wprowadzono żadnych dodatkowych zmian w ustawieniach sterownika.

Karty graficzne zostały przetestowane w dwóch testach graficznych i czternastu grach, zaktualizowanych do najnowszych wersji na dzień przygotowania materiału. Nowością na naszej liście testowej jest Batman: Arkham Origins:

3DMark (2013)(DirectX 9/11) – wersja 1.0, testy w scenach „Cloud Gate”, „Fire Strike” i „Fire Strike Extreme”;
Ławka Unigine Valley(DirectX 11) – wersja 1.0, maksymalne ustawienia jakości, AF16x i/lub MSAA 4x, rozdzielczość 1920x1080;
(DirectX 11) – wersja 1.1.0, wbudowany test (Battle of Sekigahara) przy maksymalnych ustawieniach jakości grafiki i używany w jednym z trybów MSAA 8x;
Battlefield 3(DirectX 11) – wersja 1.4, wszystkie ustawienia jakości grafiki ustawione na „Ultra”, podwójne sekwencyjne odtwarzanie scenariusza z początku misji „Na polowaniu” trwające 110 sekund;
Test porównawczy Sniper Elite V2(DirectX 11) – wersja 1.05, używana Narzędzie testowe Adrenaline Sniper Elite V2 v1.0.0.2 BETA maksymalne ustawienia jakości grafiki („Ultra”), zaawansowane cienie: WYSOKIE, okluzja otoczenia: wł., Stereo 3D: wył., supersampling: wył., przebieg testowy z podwójną sekwencją;
Śpiące psy(DirectX 11) – wersja 1.5, używana Narzędzie do porównywania adrenaliny w wersji 1.0.2.1, maksymalne ustawienia jakości grafiki dla wszystkich punktów, zainstalowany pakiet tekstur Hi-Res, wyłączony ogranicznik FPS i V-Sync, podwójny test sekwencyjny z całkowitym antyaliasingiem na poziomie „Normalnym” i na poziomie „Ekstremalnym”;
Hitman rozgrzeszenie(DirectX 11) – wersja 1.0.447.0, wbudowany test z ustawieniami jakości grafiki na „Ultra”, włączoną teselacją, FXAA i globalnym oświetleniem.
Crysis 3(DirectX 11) – wersja 1.2.0.1000, wszystkie ustawienia jakości grafiki na maksymalne, stopień rozmycia – średni, odblaski włączone, tryby z antyaliasingiem FXAA i MSAA4x, podwójne sekwencyjne przejście scenariuszowej sceny z początku misji „Bagno” trwające 110 sekund;
Tomb Raider (2013)(DirectX 11) – wersja 1.1.743.0, używane narzędzie Adrenaline Action Benchmark Tool, ustawienia jakości na poziomie „Ultra”, wyłączona V-Sync, tryby z antyaliasingiem FXAA i 2xSSAA, włączona technologia TressFX, wbudowane podwójne sekwencyjne przejście testu gra;
BioShock Infinite(DirectX 11) – wersja 1.1.21.65455, użyto Adrenaline Action Benchmark Tool z ustawieniami jakości „Ultra” i „Ultra+DOF”, podwójne uruchomienie testu wbudowanego w grę;
Metro: Ostatnie światło(DirectX 11) – wersja 1.0.0.15, wykorzystano wbudowany test, ustawienia jakości grafiki i teselacji na poziomie „Very High”, włączona technologia Advanced PhysX, testy z i bez antyaliasingu SSAA, podwójne przejście sekwencyjne „ Scena D6”.
SIATKA 2(DirectX 11) – wersja 1.0.85.8679, wykorzystano test wbudowany w grę, ustawienia jakości grafiki na maksymalny poziom we wszystkich pozycjach, testy z antyaliasingiem MSAA8x i bez, osiem samochodów na torze w Chicago;
Beta Company of Heroes 2(DirectX 11) – wersja 3.0.0.10894, podwójne sekwencyjne uruchomienie testu wbudowanego w grę z maksymalną jakością grafiki i ustawieniami efektów fizycznych;
Total War: Rzym II(DirectX 11) – wersja 1.0.0.4, ustawienia jakości na poziomie „Extreme”, wyłączona V-Sync, włączone antyaliasing SSAA, wbudowane w grę podwójne sekwencyjne przejście testu;
ArmA III(DirectX 11) – wersja 1.04.111745, wykorzystano test ArmA3Mark, ustawienia jakości na poziomie „Ultra”, wyłączona V-Sync, podwójny przebieg testu sekwencyjnego;
Batman Arkham początki(DirectX 11) – wersja 1.0.4, ustawienia jakości na poziomie „Ultra”, V-Sync wyłączona, wszystkie efekty włączone, wszystkie funkcje „DX11 Enhanced” włączone, Hardware Accelerated PhysX = High, podwójne przejście sekwencyjne testu wbudowane w gra.

Jeśli w grach zaimplementowano możliwość rejestrowania minimalnej liczby klatek na sekundę, znalazło to również odzwierciedlenie na diagramach. Każde badanie przeprowadzono dwukrotnie, za wynik końcowy przyjmowano najlepszą z dwóch uzyskanych wartości, ale tylko wtedy, gdy różnica między nimi nie przekraczała 1%. Jeżeli odchyłki przebiegów badawczych przekraczały 1%, badanie powtarzano co najmniej jeszcze raz, aby uzyskać wiarygodny wynik.

3. Wyniki testów wydajności

Na diagramach karty graficzne na procesorach graficznych generacji AMD zaznaczono tradycyjnym kolorem czerwonym, na procesorach graficznych NVIDIA – zielonym, a nowa karta GeForce GTX 780 Ti oznaczono kolorem ciemnym turkusem. Zobaczmy, co się stało i przeanalizujmy wyniki.

3DMark (2013)


Przy nominalnych częstotliwościach karta GeForce GTX 780 Ti z łatwością przewyższa nie tylko swojego poprzednika GeForce GTX 780, ale także droższego GeForce GTX TITAN we wszystkich bez wyjątku scenach testowych 3DMark (2013). Dwuprocesorowy GeForce GTX 690 wyprzedza nieco, ale jego wynik z łatwością przewyższa GeForce GTX 780 Ti w overclockingu. Liderami w tym teście są dwuprocesorowy AMD Radeon HD 7990 i kombinacja CrossFireX dwóch nowych Radeonów R9 280X firmy MSI.

Ławka Unigine Valley

Zupełnie inaczej wygląda sytuacja na scenie Unigine Valley:



„Czerwone” nie wyglądają tu tak pewnie, jak w 3DMark, choć wygrywają w trybie wykorzystującym antyaliasing (AMD często radziło sobie lepiej niż NVIDIA w radzeniu sobie z technikami poprawy jakości obrazu). Jednak to, co robi największe wrażenie, to przewaga GeForce GTX 780 Ti nad GTX 780, która wynosi 16% w trybie jasnej grafiki i 11% z MSAA8x. Ponadto GTX 780 Ti pozostawia w tyle GTX TITAN, ale moc dwuprocesorowa GeForce GTX 690 jest trudna dla nowego produktu jedynie przy znacznym wzroście częstotliwości. NVIDIA wypuściła doskonałą kartę graficzną półtora roku temu, prawda?

Total War: SHOGUN 2 – Upadek samurajów


Pierwszy test gier potwierdził uzyskane wcześniej wyniki w półsyntetycznych benchmarkach. W nominalnym trybie pracy karta GeForce GTX 780 Ti jest o 12-14% szybsza niż GeForce GTX 780 i 3-4% szybsza niż GeForce GTX TITAN. Zwiększenie częstotliwości karty graficznej podczas podkręcania pozwala jej przyspieszyć o 14-19% i zbliżyć się bardzo do GeForce GTX 690, który jest niezwykle skuteczny w tej grze. Niestety, tego samego nie można powiedzieć o AMD Radeonie HD 7990, który zaskakująco ustępuje nawet parze MSI Radeon R9 280X w trybie CrossFireX. Nawiasem mówiąc, ostatnia grupa to lider w Total War: SHOGUN 2 – Fall of the Samurai.

Battlefield 3

Battlefield 3 nie jest poważnym obciążeniem dla nowoczesnych kart graficznych z najwyższej półki, ale jego wyniki pozwalają nam porównać wydajność kart graficznych:


Tutaj GeForce GTX 780 Ti wygląda jeszcze bardziej przekonująco zarówno na tle GeForce GTX 780 (+16~19%), jak i na poziomie GeForce GTX TITAN (+7~10%). Skalowalność wydajności nowego produktu po podkręceniu jest po prostu znakomita – wzrost wahał się od 12 do 19% w zależności od trybu jakości. Jednak nawet pomimo imponującego podkręcania, zarówno dwuprocesorowe karty graficzne, jak i tandem CrossFireX pozostały nieco przed nami, z wyjątkiem trybów wysokiej jakości wykorzystujących antyaliasing.

Test porównawczy Sniper Elite V2

Nie mniej pewnie karta GeForce GTX 780 Ti pokonuje swoje siostry w teście Sniper Elite V2:


GeForce GTX 780 pozostaje w tyle za nim o 18-20%, a GeForce GTX TITAN jest niestety gorszy o 7-10%. Zwiększenie częstotliwości przynosi GeForce GTX 780 Ti dodatkowe 17-20%, co pozwala nowemu produktowi osiągnąć ten sam poziom wydajności, co dwuprocesorowy GeForce GTX 690. Oczywiście ten ostatni jest również podkręcony. Konkurenci z AMD nie śpią, demonstrując w tej grze bardzo wysoki poziom wydajności.

Śpiące psy

Wyniki Sleeping Dogs, podobnie jak Battlefield 3, najlepiej oceniać w trybach wykorzystujących antyaliasing lub przynajmniej w rozdzielczości 2560x1440 pikseli:


Karty graficzne oparte na procesorach graficznych AMD są tutaj tradycyjnie mocne, ale to nie przeszkodziło bohaterce dzisiejszego artykułu w pokazaniu całej swojej mocy. Tym samym GeForce GTX 780 pozostaje w tyle za nim aż o 21%, a GeForce GTX TITAN – aż o 6%. Nowy produkt nie jest w stanie pobić wyników dwuprocesorowego GeForce GTX 690 nawet przy imponującym podkręcaniu procesora graficznego i pamięci wideo.

Hitman rozgrzeszenie

W grze Hitman: Absolution pozycja kart graficznych AMD jest również dość silna, więc produkty NVIDIA walczą tylko ze sobą:


Najwyraźniej ze względu na duże uzależnienie tej gry od procesora w trybach bez antyaliasingu i niezbyt odpowiedni dla NVIDII silnik, wyniki GeForce GTX 780 Ti nie wyglądają tak imponująco w porównaniu z GeForce GTX 780 i GeForce GTX TITAN. Na przykład pierwszą kartę graficzną można przebić maksymalnie o 10%, a drugą tylko o 6%. GeForce GTX 690 jest najszybszy od NVIDIA, ale w przeciwieństwie do poprzednich testów, jego wynik jest łatwo pobijany przez GeForce GTX 780 przy wyższych częstotliwościach.

Crysis 3

Niedługo minie rok od premiery Crysis 3, ale ta gra nadal stanowi jedno z najtrudniejszych zadań dla współczesnych kart graficznych, w tym tych najdroższych:


Jest zatem miejsce, w którym nowy GeForce GTX 780 Ti może się „odwrócić”. GeForce GTX 780, którego cena gwałtownie spadła w ostatnich tygodniach, pozostaje w tyle za nowo wprowadzonym flagowcem o 13-15%, a dotychczas potężny i dostępny tylko dla bardzo zamożnych jednostek GeForce GTX TITAN jest wolniejszy o 3-7%. Tylko właściciele dwuprocesorowej karty GeForce GTX 690 mogą spać spokojnie – ich karta graficzna od dawna jest niezawodnie najszybsza wśród procesorów graficznych NVIDIA. Nawiasem mówiąc, nawet imponujące podkręcanie karty GeForce GTX 780 Ti pomogło jej przewyższyć nominalną kartę GeForce GTX 690 tylko w jednym z trzech trybów testowych Crysis 3. Nie sposób nie zauważyć pewnej wydajności Radeona HD 7990, a o skuteczności CrossFireX na parze MSI Radeon R9 280X porozmawiamy w następnym artykule.

Tomb Raider (2013)

Wydajność GeForce GTX 780 Ti w Tomb Raider nie można określić inaczej niż fenomenalnie:


Zwykły GeForce GTX 780 pozostaje w tyle za GeForce GTX 780 Ti o 19-22%, GeForce GTX TITAN o 8-10%, a nawet dwuprocesorowy GeForce GTX 690 zachwyca się podkręconym GTX 780 Ti, choć tylko na poziomie częstotliwości nominalne. Ale ci, którzy zdecydowanie nie zachwycają się nowym produktem, to karty graficzne AMD: Radeon HD 7990 jest o 20 procent lub więcej szybszy niż GeForce GTX 780 Ti, a CrossFireX nie wygląda gorzej.

BioShock Infinite

Niska minimalna liczba klatek na sekundę jest typowa dla wszystkich kart graficznych w dzisiejszych testach BioShock Infinite:


Jeśli chodzi o średnie wyniki FPS, obraz jest dość typowy dla dzisiejszych testów. W nominalnym trybie pracy karta GeForce GTX 780 Ti jest o 15–18% szybsza niż GeForce GTX 780, 7–9% szybsza niż GeForce GTX TITAN i 13–18% wolniejsza niż dwuprocesorowa karta GeForce GTX 690. Podkręcenie GeForce GTX 780 Ti pozwala mu zbliżyć się do GeForce GTX 690, ale wciąż go nie wyprzedzić. AMD Radeon HD 7990 radzi sobie dobrze, prawie na poziomie GeForce GTX 690, ale pojawiają się pytania dotyczące kombinacji CrossFireX, ponieważ zgodnie z logiką nie powinna przegrać z Radeonem HD 7990 w BioShock Infinite.

Metro: Ostatnie światło

Wyniki testów są wyświetlane przy włączonej technologii „Advanced PhysX”:


Najwyraźniej wydajność technologii wieloprocesorowych w grze Metro: Last Light nadal pozostawia wiele do życzenia, ponieważ wyniki GeForce GTX 690 nie wyglądają tak imponująco jak we wszystkich poprzednich grach, a Radeon HD 7990 z CrossFireX z pary MSI Radeon R9 280X nie zrobił na nas żadnego wrażenia. W konfrontacji jednoprocesorowych kart graficznych, GeForce GTX 780 Ti odnosi wyraźne zwycięstwo, wyprzedzając GeForce GTX 780 o 17-23%, GeForce GTX TITAN o 8-14% i jeszcze bardziej imponuje swoim podkręconym wydajność.

SIATKA 2

Nie mniej pewnie w grze GRID 2 karta GeForce GTX 780 Ti pokonuje swoich konkurentów:


Tak więc GeForce GTX 780 pozostaje w tyle o 15-16%, „Titan” jest wolniejszy o 6-10%, a nawet „twardy orzech” GeForce GTX 690 okazał się mocniejszy od podkręconego GeForce GTX 780 Ti. Tego samego nie można jednak powiedzieć o Radeonie HD 7990 - wyniki tej karty graficznej w GRID 2 są nieosiągalne dla wszystkich pozostałych uczestników testu, w tym udanie podkręconego GeForce GTX 780 Ti.

Kompania Bohaterów 2

Nie mniej pewnie Radeon radzi sobie w grze Company of Heroes 2:


To prawda, jest tu jedno istotne „ale”. Faktem jest, że aby uzyskać tak wysoki FPS dla Company of Heroes 2 w sterownikach Catalyst, musieliśmy aktywować tryb „AFR”, co choć zwiększało wydajność Radeona HD 7990 i kombinacji CrossFireX, doprowadziło do trwałe migotanie tekstur podczas całego testu. Zatem to zwycięstwo AMD można nazwać „pirrusowym”. Jeśli chodzi o wyniki GeForce GTX 780 Ti w porównaniu do pozostałych uczestników testu, wszystko tutaj jest jak zwykle świetne: +17-18% w stosunku do GeForce GTX 780, +4-5% w stosunku do GeForce GTX TITAN i niewielka strata do GeForce GTX 690, co można łatwo skompensować poprzez podkręcenie procesora graficznego i pamięci wideo GeForce GTX 780 Ti.

Total War: Rzym II


Total War: Rome II powstał przy wsparciu AMD, zatem nie dziwią nas wysokie wyniki kart graficznych na jego procesorach graficznych. Z kolei nowy GeForce GTX 780 Ti z łatwością pokonał GeForce GTX 780 (+15-21%) i nieco zdenerwował właścicieli tysiącdolarowego GeForce GTX TITAN, wyprzedzając tę ​​kartę graficzną o 6-8% w rozdzielczości 1920x1080 pikseli i mniej o 3-5% w rozdzielczości 2560x1440 pikseli. Sądząc po tych wynikach, Total War: Rome II była jedyną grą w testach, w której zabrakło 3 GB pamięci wideo na karcie GeForce GTX 780 Ti. Cóż, nie mogliśmy zmusić dwuprocesorowej karty GeForce GTX 690 do pracy z pełną wydajnością w Total War: Rome II.

ArmA III

Wydajność kart graficznych w grze ArmA III okazała się ograniczona szybkością platformy, ale nadal można wyciągnąć pewne wnioski na podstawie trybu zużywającego najwięcej zasobów:


GeForce GTX 780 Ti jest liderem testu nawet w nominalnym trybie pracy. Dopiero dwuprocesorowy Radeon HD 7990 był w stanie przebić wynik, jaki pokazał nowy produkt, ale tylko o 1 klatkę na sekundę.

Batman Arkham początki

Po raz pierwszy testujemy Batman: Arkham Origins, więc oto ustawienia graficzne wykorzystane w całości podczas testu:



Jak widać, linia Hardware Accelerated PhysX jest aktywowana na poziomie „Wysokim”, który nie jest obsługiwany przez karty graficzne na procesorach graficznych AMD, więc nie ma ich na schemacie. Dla porównania dodajemy, że w trybie Hardware Accelerated PhysX = Normal, rozdzielczości 2560x1440 pikseli i przy użyciu antyaliasingu MSAA8x, karta graficzna Radeon HD 7990 osiąga 76 średnich i 25 minimalnych klatek na sekundę.

Wyniki kart graficznych NVIDIA pokazano poniżej:


Najwyraźniej technologia SLI w Batman: Arkham Origins wymaga optymalizacji, dlatego wyniki GeForce GTX 690 nie są tak przekonujące jak w poprzednich testach i są niewiele wyższe od nominalnego GeForce GTX 780 Ti. Ten ostatni z kolei jest szybszy od GeForce GTX 780 o 11-15% i GeForce GTX TITAN o 5-9%. Po raz kolejny zauważamy doskonałą skalowalność GeForce GTX 780 Ti po podkręceniu - zwiększenie częstotliwości karty graficznej z 876/928/7000 MHz do 1116/1168/7760 MHz prowadzi do wzrostu wydajności w Batman: Arkham Origins o 17- 19%.

Tradycyjnie uzupełnimy diagramy podsumowujące i przejdziemy do diagramów podsumowujących.

4. Wykresy przestawne

Przede wszystkim oceńmy, jak bardzo nowy GeForce GTX 780 Ti wyprzedza już starego GeForce GTX 780. Wyniki podano przy nominalnych częstotliwościach obu kart graficznych, a wskaźniki GeForce GTX 780 przyjęto jako punkt wyjścia:



Odnotowujemy stały wzrost wydajności, za wyjątkiem gier i trybów, w których występuje duża zależność od szybkości platformy. Przewaga GeForce GTX 780 Ti jest najwyraźniej widoczna w Metro: Last Light, Tomb Raider, Total War: Rome II i Sniper Elite V2 i średnio dla wszystkich testów wynosi 13,4-15,2% w rozdzielczości 1920x1080 pikseli i 15,1 -16,5% w rozdzielczości 2560x1440 pikseli. Jednocześnie przypominamy, że biorąc pod uwagę ostatnio skorygowane ceny GeForce GTX 780, koszt GTX 780 Ti (699 USD) jest o 200 USD, czyli o 40% wyższy niż zalecana cena GeForce GTX 780 (499 USD). .

Poniższa para wykresów podsumowujących powie nam, jaka jest różnica pomiędzy GeForce GTX 780 Ti i GeForce GTX TITAN przy nominalnych częstotliwościach:



Za wyjątkiem wyników w rozdzielczości 2560x1440 pikseli w grze Total War: Rome II, nowy produkt wszędzie wyprzedza swoją droższą siostrę i średnia przewaga GeForce GTX 780 Ti wynosi 5,9-7,1% w rozdzielczości 1920x1080 i 5,8-6,7% w rozdzielczości 2560x1440. Wyraźnie widać różnicę 300 dolarów na korzyść GeForce GTX 780 Ti i tak już krótka era GeForce GTX TITAN dla graczy dobiega końca.

W przeciwieństwie do GeForce GTX TITAN, stary dwuprocesorowy GeForce GTX 690 nadal ma prawo do życia na rynku, ponieważ w sumie GeForce GTX 780 Ti jest wciąż szybszy:



Jedynie w grze Total War: Rome II technologia SLI okazała się nieskuteczna, ale problem ten zapewne wkrótce zostanie naprawiony wraz z nowymi sterownikami GeForce i aktualizacjami samej gry.

Nie szybszy niż GeForce GTX 780 Ti i dwuprocesorowy AMD Radeon HD 7990:



Wyjątkiem jest Metro: Last Light, gdzie CrossFireX nie jest wystarczająco skuteczny, a aktywowany „Advanced PhysX” nie radzi sobie z kartami graficznymi na procesorach graficznych AMD. Średnio we wszystkich testach, nie biorąc pod uwagę migoczącego Company of Heroes 2, GeForce GTX 780 Ti jest wolniejszy od Radeona HD 7990 o 8,9-11,7% przy rozdzielczości 1920x1080 pikseli i o 12,1-13,4% przy rozdzielczości o rozdzielczości 2560 x 1440 pikseli.

Osobno chciałbym zwrócić uwagę na doskonałą skalowalność wydajności GeForce GTX 780 Ti po podkręceniu, na co zwróciliśmy uwagę podczas analizy wyników. Przypomnijmy, że referencyjną kartę graficzną udało nam się podkręcić z 876/7000 MHz na 1116/7760 MHz (+27,4/10,9%), a oto wzrost wydajności, do którego doprowadziło takie podkręcanie:



Maksymalny efekt podkręcania osiągnięto w trybach gry wymagających dużych zasobów Hitman: Absolution i Crysis 3 i ogólnie dla wszystkich testów gier wynosił +12,4 ~ 15,0% w trybach bez wygładzania i +15,2 ~ 17,5% z jego aktywacją. Dodajmy, że przy takim podkręceniu GeForce GTX 780 Ti nie jest straszny ani dla NVIDIA GeForce GTX 690, ani dla AMD Radeon HD 7990 (oczywiście przy ich nominalnych częstotliwościach).

5. Testowanie w aplikacjach CUDA i OpenCL

Dzisiaj oprócz tradycyjnych testów w aplikacjach graficznych i grach, dodatkowo zbadaliśmy wydajność nowej wersji GK110 i GeForce GTX 780 Ti w programach obliczeniowych i programach kodujących wykorzystujących algorytmy CUDA i OpenCL. Oczywiście w testach biorą udział tylko karty graficzne oparte na procesorach graficznych NVIDIA.

Na pierwszym miejscu ponownie znalazł się test SmoothVideo Project (SVP) – SVPMark 3.0.3a. Jako wynik przyjęliśmy liczbę punktów uzyskanych w syntetycznym teście GPU:



Jak widać różnica w wydajności pomiędzy kartami graficznymi jest znikoma, a GeForce GTX 780 nominalnie przoduje.

Następnie zmierzyliśmy prędkość kodowania wideo HD przy użyciu programu Freemake Video Converter w wersji 4.1.0. Do kodowania wykorzystaliśmy wideo FullHD o rozmiarze 1,77 GB (krótka kreskówka Disneya „Kot w butach: Trzy małe chochliki”, którą przekonwertowaliśmy do formatu dla iPada 3. Wynik był plikiem o wielkości około 441 MB rozmiar.Im krótszy czas wskazany na wykresie w sekundach, tym lepszy wynik:



Tutaj także najszybsza jest dwuprocesorowa karta GeForce GTX 690, przetwarzająca wideo w zaledwie 79 sekund. Drugie miejsce zajęła jednak podkręcona karta GeForce GTX 780 Ti, która w nominalnym trybie pracy jej wydajność jest dokładnie taka sama, jak podkręcona karta GeForce GTX TITAN. Jak można było się spodziewać, najwolniej poradził sobie z zadaniem GeForce GTX 780. Swoją drogą sześciordzeniowy procesor Intel Core i7-3970X Extreme Edition taktowany zegarem 4,8 GHz radzi sobie z tym zadaniem w zaledwie 144 sekundy, więc CUDA na pewno się przyda tutaj, jest.

Kolejnym testem w tej sekcji był DirectCompute Benchmark w wersji 0.45b. Na diagramach pokazujemy wyniki DirectCompute i OpenCL:



W nominalnym trybie pracy GeForce GTX 780 Ti nie wykazuje niczego specjalnego w benchmarku DirectCompute, ale po podkręceniu, dzięki doskonałej skalowalności, prowadzi w teście DirectCompute, wyprzedzając podkręcony GeForce GTX TITAN i pewnie zajmuje drugie miejsce miejsce w teście OpenCL, gdzie dwuprocesorowy GeForce GTX nie ma sobie równych 690.

Następny w kolejce jest test LuxMark:



W przeciwieństwie do trzech poprzednich testów, dwuprocesorowy GeForce GTX 690 nie wygląda wcale pewnie w Luxmarku, chociaż ten test w pełni obsługuje takie karty graficzne. Wiadomo, że rdzeń GK104, na którym oparty jest GeForce GTX 690, nie ma sobie równych pod względem mocy obliczeniowej z GK110. Wszystkie serie GeForce 7 okazały się szybsze od GeForce GTX 690, a najlepsze wyniki wykazała bohaterka dzisiejszych testów – GeForce GTX 780 Ti.

Najnowszy test architektury Compute Unified Device Architecture (CUDA) to program renderujący oparty na technologii Arion 2 i wykorzystujący algorytmy, których obliczenia są znacznie przyspieszane przez procesory graficzne NVIDIA. W testach zastosowaliśmy dwie metody renderowania: sprzętową, gdy wykorzystywane są wyłącznie zasoby karty graficznej, oraz hybrydową, gdy wykorzystywana jest zarówno karta graficzna, jak i centralny procesor. Spójrzmy na wyniki:



Wyniki w obu testowych trybach pracy mają ten sam schemat: GeForce GTX 780 Ti w trybie nominalnym jest tak samo szybki, jak dwuprocesorowy GeForce GTX 690 i podkręcony GeForce GTX TITAN. Jeśli podkręcisz samą kartę GeForce GTX 780 Ti, wówczas w tym teście nie będzie ona miała żadnych konkurentów. Dodajmy jeszcze raz, że w trybie renderowania „Software” sześciordzeniowy procesor Intel Core i7-3970X Extreme Edition taktowany zegarem 4,8 GHz zdobywa w teście Ariona zaledwie 832 punkty. Oznacza to, że podkręcony GeForce GTX 780 Ti jest czterokrotnie szybszy od takiego procesora.

Wniosek

NVIDIA GeForce GTX 780 Ti, bez zastrzeżeń i lirycznych dygresji, jest najszybszą jednoprocesorową kartą graficzną 3D. Pod względem wydajności jego przewaga nad zwykłym GeForce GTX 780 wynosi 13~17%, a nad GeForce GTX TITAN - 6~7%. Dziś tylko dwuprocesorowe karty graficzne NVIDIA GeForce GTX 690 i AMD Radeon HD 7990 mogą z nim konkurować pod względem wydajności, ale ustępują również po podkręceniu. Logiczne jest, że nowy produkt okazał się nie tylko cieplejszy, ale i głośniejszy, co jednak już wkrótce zostanie łatwo rozwiązane przez pojawienie się modeli produkcyjnych z oryginalnymi i wysoce wydajnymi układami chłodzenia. Jednocześnie nieznacznie wzrósł poziom poboru mocy, choć w tej klasie ±20 watów nie można i nie należy brać pod uwagę. Ale nowa wersja B1 procesora graficznego GK110 zrobiła na nas dzisiaj wrażenie bardzo wysokim poziomem potencjału podkręcania, a sama karta graficzna zrobiła na nas wrażenie doskonałą skalowalnością wydajności w wyniku podkręcania. Zalecana cena GeForce GTX 780 Ti jest zauważalnie wyższa od ceny GeForce GTX 780 (biorąc pod uwagę niedawną obniżkę), ale niższa od ceny GeForce GTX TITAN, więc wśród tej trójki kart graficznych w naszym zdaniem wybór jest oczywisty. Nie mamy pewności co do TITANA, ale wśród GeForce GTX 780 można spodziewać się procesorów graficznych w wersji B1, a co za tym idzie, jeszcze atrakcyjniejszych produktów dla overclockerów. Czas pokaże.

Dziękujemy rosyjskiemu przedstawicielstwu firmy NVIDIA
i osobiście Irina Shekhovtsova
dla karty graficznej dostarczonej do testów
.


W zasadzie zmiana etykiet starych SKU nie jest czymś wstydliwym, o ile ceny stale spadają. Na przykład osławione Radeony R9 280X i GeForce GTX 770 kosztują teraz dobre 200-250 dolarów mniej niż ich poprzednicy. Problem w tym, że naprawdę nowe i bardziej wydajne układy graficzne, które są przeznaczone dla opuszczonej niszy cenowej w segmencie High-End, również musiały zostać wypuszczone na rynek, nie czekając na ukochany dzień, kiedy TSMC uruchomi proces fotolitografii z szybkością 20 nm .

Zarówno dla AMD, jak i NVIDIA wyzwaniem było upchnięcie procesorów graficznych, które zgodnie z prawem Moore'a muszą zawierać dwa razy więcej tranzystorów niż chipy wypuszczone dwa lata wcześniej, na te same okrągłe kolorowe płytki produkowane przy 28 nm. GeForce GTX TITAN na długo oczekiwanym chipie GK110 dał przedsmak przyszłości tylko tym, którzy byli gotowi zapłacić za niego okrągły tysiąc dolarów, a nawet GeForce GTX 780, będący „lekką” wersją GTX TITAN , początkowo nie mieścił się w standardowej cenie 499–549 dolarów za najwyższej klasy oddzielne karty wideo i ustanowił nową poprzeczkę na poziomie 650 dolarów (obecnie jednak wynosi 499 dolarów).

W wyniku powrotu trzech z piętnastu dużych elementów architektury Keplera – wieloprocesorów strumieniowych – do GeForce GTX 780 Ti, nowy flagowiec charakteryzuje się o 20% większą wydajnością w zakresie wykonywania instrukcji shaderów i teksturowania.

Co równie ważne, NVIDIA wniosła do GTX 780 Ti ekskluzywne osiągnięcie GeForce GTX 770 - obsługę pamięci wideo o częstotliwości 7 GHz, co zwiększa przepustowość o 14%.

Zatem GTX 780 Ti jest pod każdym względem lepszy nie tylko od GTX 780, ale także od GTX TITAN. Jedyną przewagą TITANA w porównaniu do nowego produktu (oprócz 6 GB pamięci) są odblokowane rdzenie CUDA o podwójnej precyzji (FP64), których liczba w porównaniu do rdzeni FP32 w GK110 wynosi od 1 do 3. Dzięki temu TITAN może potencjalnie wykonywać obliczenia o podwójnej precyzji w aplikacjach obliczeniowych z szybkością 1/3 FP32, a GeForce GTX 780 Ti jest ograniczony do fatalnej 1/24.

GTX770GeForce GTX 780GeForce GTX TITANGeForce GTX 780 TiGeForce GTX 690
Główne składniki
GPU GK104 GK110 GK110 GK110 GK104
Liczba tranzystorów 3540 milionów 7,1 miliarda 7,1 miliarda 7,1 miliarda 2x3540 milionów
Proces techniczny, nm 28 28 28 28 28
Częstotliwość zegara GPU, MHz: zegar podstawowy/zegar boost 1046/1085 863/900 836/876 875/928 915/1019
Procesory strumieniowe 1536 2304 2688 2880 2x1536
Bloki tekstur 128 192 224 240 2x128
ROP 32 48 48 48 2x32
Pamięć wideo: typ, objętość, MB GDDR5, 2048 GDDR5, 3072 GDDR5, 6144 GDDR5, 3072 GDDR5, 2x2048
Częstotliwość zegara pamięci: rzeczywista (efektywna), MHz 1753 (7010) 1502 (6008) 1502 (6008) 1750 (7000) 1502 (6008)
Szerokość magistrali pamięci, bity 256 384 384 384 2x256
Interfejs PCI-Express 3.0 x16
Wyjście obrazu
Interfejsy 1 x DL-DVI-I,
1 x DL DVI-D,
1x HDMI 1.4a,
1x DisplayPort 1.2
2 x DL-DVI-I,
1 x DL DVI-D,
1x MiniDisplayPort 1.2
Maks. pozwolenie VGA: 2048x1536,
DVI: 2560x1600,
HDMI: 4096x2160,
DP: 4096 x 2160
Maks. pobór mocy, W 230 250 250 250 300
Średnia cena detaliczna, rub. Brak danych Brak danych Brak danych Brak danych Brak danych

Cóż, teraz porównajmy nowy produkt z jego głównym rywalem – Radeonem R9 290X. Przyjmijmy jako wstępne dane, że karta graficzna AMD pracuje z częstotliwością GPU 1000 MHz, a GTX 780 Ti ze średnim zegarem Boost Clock (928 MHz). Są to realistyczne warunki, ponieważ przy dobrym chłodzeniu jest całkiem możliwe, że Radeon R9 290X utrzyma taktowanie 1 GHz bez throttlingu, a zegar Boost Clock procesorów graficznych NVIDIA dość wiernie odzwierciedla średnią częstotliwość, z jaką GPU pracuje pod obciążeniem.

  • W tym przypadku teoretyczna wydajność macierzy shaderów GTX 780 Ti jest niewielka, ale wciąż niższa niż u jej przeciwnika: 5345 w porównaniu do 5632 FGLOPS (około 5%).
  • Ale w procesorze GTX 780 Ti jest znacznie więcej jednostek teksturowania – 240 w porównaniu do 176. Oznacza to, że filtrowanie tekstur – ponownie dostosowane do różnych częstotliwości – jest o 21% szybsze na GK110 niż na AMD.
  • Hawaje mają wciąż o jedną czwartą więcej ROP - 64 w porównaniu z 48, co z pewnością nie będzie sprzyjać karcie graficznej NVIDIA w testach wysokiej rozdzielczości: konfiguracje z wieloma monitorami, wyświetlacze 4K. Nawet przy 2560x1440 efekt powinien być w pewnym stopniu widoczny.
  • NVIDIA i AMD zwiększyły przepustowość pamięci wideo na różne sposoby: 512-bitowa magistrala i częstotliwość taktowania 5 GHz dla Radeona R9 290X lub 384 bity i 7 GHz dla GeForce GTX 780 Ti. Jeśli chodzi o uzyskaną przepustowość, dane są w przybliżeniu takie same – z marginesem około 5% na korzyść GTX 780 Ti (odpowiednio 336 i 320 GB/s).
  • Pod względem przetwarzania geometrii z boku, GeForce GTX 780 Ti znacznie przewyższa swojego przeciwnika. Ponieważ każdy z 15 wieloprocesorów strumieniowych (SMX) w chipie ma własną jednostkę Polymorph Engine, zdolną do wytwarzania jednego wielokąta na dwa cykle zegara, całkowita wydajność całego rdzenia GK110 wynosi 7,5 prymitywów geometrycznych na zegar. Radeon R9 290X ma tylko cztery.
  • Karty AMD Radeon R9 290 i R9 290X mogą wykonywać obliczenia FP64 z szybkością 1/8 szybkości FP32. Jak wspomniano powyżej, karta GeForce GTX 780 Ti jest celowo ograniczona do 1/24.

Konkluzja jest taka, że ​​przewagą w pełni funkcjonalnego procesora graficznego GK110 nad AMD Hawaii jest a) znacznie większa prędkość pobierania tekstur (dzięki 240 jednostkom filtrującym), co wraz z wydajnością shaderów pozostaje głównym wąskim gardłem procesorów graficznych we współczesnych grach; b) przetwarzanie geometrii, co jest ważne np. w scenach obciążonych teselacją. Siła Radeona R9 290X tkwi w liczbie ROP (wysokie rozdzielczości i antyaliasing przy użyciu metody SSAA, która znów jest w modzie), a wydajność shaderów, według przybliżonych szacunków, nie jest gorsza od wydajności przeciwnika . Oznacza to, że pomimo faktu, że GK110 zawiera o miliard więcej tranzystorów niż Hawaje, pobicie dzieci w benchmarkach i tak nie nastąpi.

Pozostaje tylko jedna kwestia, którą pominęliśmy w naszych recenzjach Radeonów R9 290 i R9 290X – ilość pamięci wideo. AMD wyposaża swoje flagowce w 4 GB bufora ramki, natomiast GeForce GTX 780 Ti zadowala się 3 GB. Za wcześnie mówić, że to za mało, ale np. dla Battlefielda 4 3 GB to już rekomendacja.

⇡ Ceny

Tak czy inaczej, cena ustalona przez NVIDIA dla GeForce GTX 780 Ti sugeruje, że producent jest całkowicie przekonany o bezwarunkowej wyższości swojego pomysłu nad konkurentem z AMD. Wypuszczając podstawową kartę GeForce GTX 780 za 640 USD, NVIDIA wkroczyła już w przestrzeń powyżej zwykłej bariery 549 USD dla najwyższej klasy kart do gier, ale GTX 780 Ti posuwa się jeszcze dalej. Zalecana cena detaliczna na rynku amerykańskim wynosi 699 dolarów, czyli o 150 dolarów więcej niż Radeona R9 290X. Dla Rosji zalecana cena to 24 990 rubli. Jednak jakiekolwiek orientacyjne porównanie cen według cenników w rosyjskich sklepach internetowych będzie możliwe dopiero po napłynięciu na nasz rynek dużych dostaw obu nowości. Przykładowo w momencie pisania tego tekstu w Moskwie była tylko jedna oferta na Radeona R9 290X i już wtedy była to prawie 25 tys. Na razie więc, dla prostoty i niezawodności, będziemy nadal myśleć w cenach amerykańskich.

⇡ G-SYNC

Zwróćmy trochę uwagi na najnowszą inicjatywę NVIDII, która nie jest bezpośrednio związana z nową flagową kartą wideo, ale jest ciekawa sama w sobie. Wiadomo, że zielona firma podjęła ostatnio krucjatę w imię gładkich obrazów. To właśnie NVIDIA przedstawiła metodologię FCAT, która ujawniła notoryczne problemy AMD CrossFire z równomiernością czasu treningu. Wcześniej dla wszystkich kart graficznych opartych na architekturze Keplera prezentowano ciekawe rozwiązanie - Adaptive V-Sync, które po prostu włącza synchronizację pionową, jeśli liczba klatek na sekundę w buforze karty graficznej wynosi co najmniej 60, i wyłącza ją, jeśli liczba klatek na sekundę spada poniżej. G-SYNC to kolejne autorskie podejście do synchronizacji pionowej, które tym razem wymaga w pewnych momentach przerobienia protokołu komunikacyjnego pomiędzy GPU a monitorem.

Ale najpierw nakreślmy problem, który ma rozwiązać synchronizacja pionowa jako taka, i dlaczego większość graczy jest przyzwyczajona do ignorowania tego lub uważania go za nieuniknioną wadę grafiki komputerowej - rozrywanie ekranu.

Dzieje się tak, gdy monitor odczytuje obraz z bufora ramki, w tym samym czasie procesor graficzny kończy renderowanie kolejnej klatki i bufory (właściwie są dwa) zostają zamienione miejscami. W rezultacie ta część linii na ekranie, którą monitor zaczął „rysować” po zmianie buforów, należy już do innej klatki. Stąd luka, która logicznie rzecz biorąc może być wielokrotna, jeśli różnica między liczbą klatek na sekundę a częstotliwością odświeżania ekranu jest wystarczająco duża.

Istota synchronizacji pionowej polega na tym, że zmiana buforów jest zabroniona, dopóki monitor nie zakończy cyklu aktualizacji obrazu. W rezultacie podczas wyświetlania zawartości jednego bufora (zwanego buforem przednim) do drugiego bufora (bufora tylnego) można zapisać tylko jedną kolejną ramkę. Jednocześnie w systemie bez V-Sync, pod warunkiem, że GPU ma dużą rezerwę wydajności, bufory można zamieniać kilka razy, co doprowadzi do notorycznej luki, ale opóźnienie wejściowe będzie mniejsze. Jest to jednak mniejszy z dwóch kosztów synchronizacji pionowej, który jest więcej niż równoważony przez drugi efekt.

Monitor żąda ramki z pamięci karty graficznej z regularną częstotliwością (powiedzmy 60 Hz). Wyobraźmy sobie idealną sytuację, w której GPU również renderuje klatki z szybkością 60 FPS. Następnie każda z narysowanych klatek jest raz pokazywana na monitorze. Gdy jednak jedna klatka spóźni się choć trochę na kolejny cykl odświeżania monitora, użytkownik widzi poprzednią klatkę dwukrotnie, co jest odbierane jako mikrohamowanie (i jednocześnie opóźnienie wejścia). W prawdziwych grach, gdy liczba klatek na sekundę się waha, zdarzenie to występuje znacznie częściej, a długotrwały spadek poniżej 60 FPS powoduje, że rzeczywista liczba klatek na sekundę na ekranie wynosi 30 FPS, następny krok to 15 FPS. Z tego powodu większość graczy gardzi V-Sync, znosząc paskudne łzawienie.

G-SYNC to rozwiązanie całkowicie radykalne – wymuszenie na monitorze odświeżania ekranu w losowych odstępach czasu poprzez modyfikację protokołu DisplayPort. Następnie, jeśli następna klatka nie jest jeszcze gotowa, ale renderowanie wkrótce się zakończy, monitor może opóźnić cykl aktualizacji w określonych granicach, zamiast powielać poprzednią klatkę.

Aby obsługiwać G-SYNC, należy zainstalować w monitorze specjalny moduł, który przenosi na płytkę określony układ logiczny oraz trzy układy DRAM o łącznej pojemności 768 MB. Na razie tylko jeden model posiada slot na taki moduł – ASUS VG248QE, a sprzedaż samej płyty NVIDIA rozpocznie jeszcze w tym roku. Po Świętach Bożego Narodzenia dostępne będą warianty ASUS VG248QE z preinstalowanym modułem oraz szereg monitorów innych producentów, które natywnie obsługują G-SYNC.

Gra cieni

Krótko przed premierą karty GeForce GTX 780 Ti kolejna z ekskluzywnych technologii firmy NVIDIA weszła w fazę beta, za pomocą której firma stara się wyróżnić swoje produkty na tle konkurencyjnych ofert. ShadowPlay wykorzystuje rodzinę Kepler z wbudowanym w GPU koderem H.264 (NVENC) do przechwytywania materiału z gier. ShadowPlay ma dwie funkcje - po pierwsze, nagrywa wideo na żądanie, tak jak dzieje się to za pomocą FRAPS lub innych rozwiązań czysto programowych. Po drugie, ShadowPlay może po prostu stale przechwytywać w tle i przechowywać w pamięci ostatnie 20 minut rozgrywki, które są zapisywane w kontenerze plików MP4 po naciśnięciu klawisza skrótu.

Dostęp do ustawień ShadowPlay można uzyskać za pośrednictwem narzędzia GeForce Experience, które jest już częścią pakietu sterowników dla kart graficznych NVIDIA. Menu zawiera ustawienie jakości, które określa szybkość transmisji przyszłego wideo. Dostępne w wersjach 16, 23 lub 52 Mb/s. Wideo nagrywane jest obecnie tylko w jednej rozdzielczości – 1080p – i z częstotliwością 60 klatek na sekundę. Niezależnie od tego, w jakiej rozdzielczości aktualnie działa gra, produkt końcowy będzie skalowany do tych parametrów. Mamy nadzieję, że finalna wersja ShadowPlay będzie miała do wyboru rozdzielczość co najmniej niższą niż 1080p, a nawet lepszą – aż do 2560x1600 bez skalowania. Ale na razie tak jest.

Cały sens ShadowPlay polega na tym, że jednoczesne uruchomienie narzędzia z grą ma niewielki wpływ na wydajność gry. Częściowo wynika to ze sprzętowego kodera H.264, ale jest też inny powód: sprzęt Keplera zapewnia możliwość bezpośredniego odczytu zawartości bufora ramki, czego NVIDIA potrzebowała przede wszystkim do strumieniowego przesyłania gier na platformie chmurowej GeForce GRID, ale jako wynik go znalazł i teraz jest to całkowicie lokalna aplikacja. Nie można jednak powiedzieć, że ciągłe nagrywanie wideo w tle do bufora przy włączonej funkcji ShadowPlay jest całkowicie darmowe.

W trzech grach z naszego klipu testowego, podczas przechwytywania obrazów z maksymalną przepływnością, liczba klatek na sekundę spada o 7-8% w stosunku do pierwotnego poziomu. A jednak to drobnostki w porównaniu z tym, co dzieje się podczas nagrywania rozgrywki metodami czysto programowymi, nie mówiąc już o błyskawicznym zużyciu przestrzeni ROM, gdy produkt jest zapisywany w „surowym” formacie. Ogólnie rzecz biorąc, użycie do tego celu kodera, jaki mają dziś wszystkie oddzielne procesory graficzne, wydaje się tak oczywistym i prostym pomysłem, że można się zastanawiać, dlaczego pozory ShadowPlay nie pojawiły się znacznie wcześniej.

⇡ Projekt

Układ chłodzenia GeForce GTX 780 Ti w ogólnym ujęciu nie różni się od tych konstrukcji, które są instalowane na podstawowych wersjach GTX 780 i GTX TITAN. Brak zmian w tym przypadku jest w pełni uzasadniony, gdyż chłodnica ta jest praktycznie standardowym przykładem „turbiny” (lub dmuchawy) – wysoce wydajnej, a przy tym cichej. Cóż, oprócz praktycznych zalet, ciężka karta graficzna w całkowicie metalowej obudowie jest po prostu przyjemna w trzymaniu w dłoniach.

Na końcu obudowy, gdzie umieszczono złącza SLI, wycięte jest logo GeForce GTX, podświetlone na jasnozielony kolor.

Jednak pod jednym względem chłodnica GeForce GTX 780 Ti różni się od poprzednich realizacji: widoczny przez plastikowe okienko radiator GPU pomalowano na czarno, przez co urządzenie wygląda bardziej surowo.

Swoją drogą, ten radiator jest bardziej kompaktowy w porównaniu do tego, co widzieliśmy ostatnio w Radeonie R9 290/290X, ale ma też komorę parowania u podstawy. Radiator dla układów pamięci i tranzystorów MOSFET układu zasilania to masywna metalowa rama wykonana z odlewanego aluminium.

Specyfikacje karty odpowiadają układom pamięci SK Hynix oznaczonym jako H5GQ2H24AFR-R2C, które zapewniają standardową efektywną częstotliwość 7 GHz. Chipy skupione są tylko na przedniej powierzchni płytki PCB, natomiast z tyłu płytki, w lustrzanych pozycjach, zaznaczone są podkładki pod drugi układ chipów.

Na pierwszy rzut oka sama płytka drukowana jest dokładnie taka sama, jak w GeForce GTX TITAN i GTX 780, ale nadal są tu pewne różnice. NVIDIA część elementów układu zasilania zastąpiła innymi analogami – zapewne nie bez powodu. Ogólnie rzecz biorąc, karta wideo jest nadal obsługiwana zgodnie ze schematem 6+2+1 (liczba faz dla procesora graficznego, układów pamięci i PLL). Napięcie na procesorze kontrolowane jest przez ten sam kontroler ON Semiconductor NCP 4206 PWM.

NVIDIA ogłosiła także nową funkcję układu zasilania GTX 780 Ti, niewidoczną podczas oględzin płytki - balansowanie prądu na trzech źródłach, którymi są sześcio- i ośmiopinowe dodatkowe złącza zasilania wraz ze slotem PCI-Express. Zadaniem dodatkowej automatyki jest to, aby podczas podkręcania nie doszło do sytuacji, w której jedna z szyn zasilających zostanie maksymalnie obciążona, podczas gdy dwie pozostałe „odpoczywają”.

  • Część 2 - Znajomość praktyczna
  • Część 3 – Wyniki testu gry (wydajność)

W tej części przestudiujemy kartę graficzną, a także zapoznamy się z wynikami testów syntetycznych. Nasze laboratorium przetestowało kartę referencyjną Nvidia.

Opłata

  • Procesor graficzny: GeForce Titan (GK110)
  • Interfejs: PCI Expressx16
  • Częstotliwość robocza procesora graficznego (ROP): 875-1020 MHz (nominalnie - 875-1020 MHz)
  • Częstotliwość pracy pamięci (fizyczna (efektywna)): 1750 (7000) MHz (nominalna - 1750 (7000) MHz)
  • Szerokość magistrali pamięci: 384-bitowy
  • Liczba jednostek obliczeniowych w częstotliwości pracy GPU/bloku: 15/875-1020 MHz (nominalnie - 15/875-1020 MHz)
  • Liczba operacji (ALU) w bloku: 192
  • Całkowita liczba operacji (ALU): 2880
  • Liczba jednostek teksturujących: 240 (BLF/TLF/ANIS)
  • Liczba jednostek rasteryzacji (ROP): 48
  • Wymiary: 270×100×37 mm (karta zajmuje 2 sloty w jednostce systemowej)
  • Kolor PCB: czarny
  • Pobór mocy (szczytowy 3D/2D/uśpienie): 264/86/70 W
  • Gniazda wyjściowe: 1×DVI (Dual-Link/HDMI), 1×DVI (Single-Link/VGA), 1×HDMI 1.4a, 1×DisplayPort 1.2
  • Obsługa wielu procesorów: SLI (sprzęt)

Nvidia Geforce GTX 780 Ti 3072 MB 384-bit GDDR5 PCI-E

Karta posiada 3072 MB pamięci GDDR5 SDRAM umieszczonej w 12 chipach na przedniej stronie płytki drukowanej.

Karta wymaga dodatkowego zasilania w postaci dwóch złączy: 8- i 6-pin.

O układzie chłodzenia.

Nvidia Geforce GTX 780 Ti 3072 MB 384-bit GDDR5 PCI-E

Układ chłodzenia jest całkowicie identyczny z referencyjną chłodnicą GTX Titan. Chłodnica ma tradycyjną zamkniętą konstrukcję z cylindrycznym wentylatorem na końcu. Grzejnik dociskany do rdzenia opiera się na komorze parowniczej, wewnątrz której znajduje się specjalna, łatwo odparowująca ciecz. Dolna płyta komory dociskana jest do rdzenia, ciepło przekazywane jest do cieczy, która odparowuje i przenosi ciepło do górnej płyty (która posiada żebra chłodzące), gdzie skraplają się pary itp. Rozmawialiśmy już nie raz o tym schemacie nowoczesnego chłodzenia najwyższej klasy akceleratorów.

Wentylator przepuszcza powietrze przez w/w chłodnicę i posiada specjalny kształt wirnika, który zapewnia obniżony poziom hałasu. Trzeba powiedzieć, że przy maksymalnym obciążeniu hałas jest nadal nieco zauważalny, ponieważ maksymalna prędkość przekracza 2200 obr / min.

Układy pamięci chłodzone są centralnym radiatorem (chłodnica posiada specjalną płytkę, która dociska układy pamięci i tranzystory modułu mocy).

Przeprowadziliśmy badanie temperatury przy użyciu nowej wersji 4.2.1 narzędzia EVGA PrecisionX (autor A. Nikolaychuk AKA Unwinder) i uzyskaliśmy następujące wyniki.

Po 6 godzinach pracy karty przy maksymalnym obciążeniu w grach, maksymalna temperatura rdzenia wyniosła 84 stopnie, czyli więcej niż normalnie w przypadku tak potężnego akceleratora.

Sprzęt. Karta referencyjna dotarła do nas w opakowaniu OEM, więc nie ma zestawu.

Instalacja i sterowniki

Konfiguracja stanowiska testowego:

  • Komputery oparte na procesorze Intel Core i7-3960X (Socket 2011):
    • 2 procesory Intel Core i7-3960X (ot/c 4 GHz);
    • Z ekstremalnie wydajną chłodnicą procesora Hydro Series T H100i;
    • Z rozwiązaniem termicznym Intel RTS2011LC;
    • Płyta główna Asus Sabertooth X79 oparta na chipsecie Intel X79;
    • Płyta główna MSI X79A-GD45(8D) oparta na chipsecie Intel X79;
    • RAM 16 GB DDR3 Corsair Vengeance CMZ16GX3M4A1600C9 1600 MHz;
    • dysk twardy Seagate Barracuda 7200.14 3 TB SATA2;
    • dysk twardy WD Caviar Blue WD10EZEX 1 TB SATA2;
    • 2 dyski SSD Corsair Neutron SSD CSSD-N120GB3-BK;
    • 2 zasilacze Corsair CMPSU-1200AXEU (1200 W);
    • Obudowa typu Full Tower firmy Corsair Obsidian 800D.
  • system operacyjny Windows 7 64-bitowy; DirectX 11;
  • monitor Dell UltraSharp U3011 (30″);
  • monitor Asus ProArt PA249Q (24″);
  • Wersja sterowników AMD Catalyst 13.11beta8; Wersja Nvidia 331.70 (dla GTX 780 Ti) / 331/58 (dla innych GeForce)

VSync jest wyłączony.

Testy syntetyczne

Używane przez nas pakiety testów syntetycznych można pobrać tutaj:

  • D3D RightMark Beta 4 (1050) z opisem na stronie 3d.rightmark.org.
  • D3D RightMark Pixel Shading 2 i D3D RightMark Pixel Shading 3— testy shaderów pikseli w wersjach 2.0 i 3.0, link.
  • PrawoMark3D 2.0 z krótkim opisem: dla Vista bez SP1, dla Vista z SP1.

Do syntetycznych testów DirectX 11 wykorzystaliśmy przykłady z SDK Microsoftu i AMD, a także programu demonstracyjnego Nvidii. Najpierw są HDRToneMappingCS11.exe i NBodyGravityCS11.exe z pakietu DirectX SDK (luty 2010). Wzięliśmy także aplikacje od obu producentów układów wideo: Nvidia i AMD. Przykłady DetailTessellation11 i PNTriangles11 zostały zaczerpnięte z pakietu ATI Radeon SDK (znajdują się także w pakiecie DirectX SDK). Dodatkowo wykorzystano program demonstracyjny firmy Nvidia Realistic Water Terrain, znany również jako Island11.

Testy syntetyczne przeprowadzono na następujących kartach graficznych:

  • GeForce GTX 780 Ti GTX780Ti)
  • GeForce GTX Titan o standardowych parametrach (dalej GTX Titan)
  • GeForce GTX 780 o standardowych parametrach (dalej GTX780)
  • Radeona R9 290X o standardowych parametrach w trybie „Uber Mode” (dalej R9 290X)
  • RadeonaHD7990 o standardowych parametrach (dalej HD7990)

Aby przeanalizować wyniki nowej, wysokiej klasy karty graficznej Geforce GTX 780 Ti, wybrano te rozwiązania z następujących powodów. Geforce GTX Titan to ekskluzywny model oparty na tym samym chipie GK110, posiadający dużą ilość pamięci wideo i sprzedawany po znacznie wyższej cenie. Titan to wcześniej potężne jednoukładowe rozwiązanie Nvidii i ciekawie będzie zobaczyć, o ile szybszy okaże się nowy produkt. Porównanie z GeForce GTX 780 będzie interesujące, ponieważ jest to tańsza karta graficzna firmy, oparta na tym samym chipie, ale z o jedną czwartą mniej aktywnych jednostek wykonawczych.

Do naszego porównania wybrano dwie karty graficzne konkurencyjnej firmy AMD, oparte na różnych procesorach graficznych i nawet różnej ich liczbie. W momencie wypuszczenia nowego produktu Nvidii, Radeon R9 290X jest jego najbliższym konkurentem cenowym, a jednocześnie najbardziej produktywną kartą graficzną AMD. Radeon HD 7990 ma dwa układy wideo Tahiti jednocześnie i nie jest konkurentem GTX 780 Ti, ale będziemy ciekawi, jak prędkość tak potężnego rozwiązania dwuukładowego wypada w porównaniu z najlepszym rozwiązaniem jednoukładowym firmy Nvidia.

Direct3D 9: Testy Pixel Shaderów

Testom teksturowania i współczynnika wypełnienia z pakietu 3DMark Vantage przyjrzymy się nieco później, a pierwsza grupa shaderów pikseli, z których korzystamy, obejmuje różne wersje programów pikselowych o stosunkowo niskiej złożoności: 1.1, 1.4 i 2.0, spotykane tylko w starych grach , bardzo proste dla nowoczesnych chipów wideo.

Nowoczesne procesory graficzne bez problemu radzą sobie z najprostszymi testami, prędkość wydajnych rozwiązań w nich zawsze oscyluje w różnych granicach, co szczególnie dotyczy GeForce. Testy te nie są w stanie pokazać możliwości nowoczesnych chipów wideo i są interesujące tylko z punktu widzenia przestarzałych aplikacji do gier. Wydajność nowoczesnych kart graficznych jest często ograniczona szybkością teksturowania lub szybkością wypełniania, a karty graficzne Nvidia już dawno przestały być optymalizowane pod takie zadania, co wyraźnie pokazują wyniki dzisiejszego porównania.

Spójrz, wszystkie płyty Geforce różnią się nieco szybkością od siebie, różnica między GTX 780 Ti a Titanem wynosi tylko 1-4%, przy znacznie wyższej teoretycznej. Wypuszczony dzisiaj w tym porównaniu nowy model karty graficznej, choć okazuje się najlepszy wśród kart Nvidii, wyraźnie ustępuje swojemu głównemu konkurentowi, czyli Radeonowi R9 290X, który zawsze zauważalnie wyprzedza. Spójrzmy na wyniki bardziej złożonych programów pośrednich pikseli:

Test Cooka-Torrance'a jest bardziej intensywny obliczeniowo, a jego prędkość zależy bardziej od liczby jednostek ALU i ich częstotliwości, ale także od szybkości TMU. Test ten historycznie lepiej sprawdza się w przypadku rozwiązań graficznych AMD, choć nowe, topowe płyty GeForce oparte na architekturze Kepler również wykazują dobre wyniki, co widać po ogólnie dobrych wynikach nowego GeForce GTX 780 Ti.

Najmocniejsza płyta z rodziny GeForce GTX 700 okazała się o 5-6% szybsza od ekskluzywnego GTX Titan, co też jest mniejszą od teoretycznej różnicy i można ją wytłumaczyć jedynie naciskiem na wydajność jednostek ROP. Nowy produkt Nvidii nieznacznie przewyższa swojego głównego konkurenta w jednym z testów – w teście wodnym, gdzie ważniejsza jest szybkość teksturowania, nie mówię o wydajności matematycznej, w której płyty AMD mają pewną przewagę. Dlatego w drugim teście wyniki GeForce GTX 780 Ti są nieco słabsze od Radeona R9 290X. Średnio w tych testach występuje wyraźna równość.

Direct3D 9: test modułu cieniującego piksele Pixel Shaders 2.0

Te testy modułu cieniującego pikseli DirectX 9 są bardziej złożone niż poprzednie, są zbliżone do tego, co widzimy teraz w grach wieloplatformowych i są podzielone na dwie kategorie. Zacznijmy od prostszej wersji shaderów 2.0:

  • Mapowanie paralaksy- metoda mapowania tekstur znana z większości współczesnych gier, opisana szczegółowo w artykule „”.
  • Zamarznięte szkło- złożona tekstura proceduralna zamrożonego szkła o kontrolowanych parametrach.

Istnieją dwa warianty tych shaderów: te skupiające się na obliczeniach matematycznych i te preferujące próbkowanie wartości z tekstur. Rozważmy opcje intensywne matematycznie, które są bardziej obiecujące z punktu widzenia przyszłych zastosowań:

Są to testy uniwersalne, w których wydajność zależy zarówno od szybkości jednostek ALU, jak i szybkości teksturowania; ważny jest w nich także ogólny balans chipa i wydajność wykonywania programów komputerowych. Nasze wcześniejsze badania pokazują, że w tych konkretnych zadaniach architektura GCN firmy AMD jest znacznie lepsza niż architektura graficzna Nvidia Kepler i tak też było tym razem.

W teście Frozen Glass prędkość jest bardziej uzależniona od wydajności matematycznej, a w przypadku wszystkich płyt Geforce zawsze pojawia się jakaś przeszkoda, przez którą płyty Nvidii tracą prawie dwukrotnie więcej do niemal lepszego jednoukładowego Radeona. Model GeForce GTX 780 Ti jest tylko o 1% szybszy od GTX Titan, co tylko potwierdza dziwny nacisk na wydajność wszystkich GeForce.

Jednak w drugim teście „Parallax Mapping” nowa karta graficzna Geforce GTX 780 Ti wykazała wydajność o 15% wyższą niż GTX Titan, co jest już bardzo bliskie teorii. Jeśli chodzi o porównanie z konkurentem, porównanie nowego produktu z konkurencyjnym modelem Radeonem HD R9 290X nie wypada najróżniej – płyta AMD jest w tym teście szybsza o prawie jedną trzecią. Rozważmy te same testy w modyfikacji z preferencją próbek tekstur zamiast obliczeń matematycznych:

W tych warunkach pozycja kart graficznych produkowanych przez Nvidię nieco się poprawiła, gdyż tradycyjnie radzą sobie one lepiej z próbkami tekstur niż z obliczeniami matematycznymi. Ale Radeon R9 290X wciąż znacznie wyprzedza dzisiejszą nowość, szczególnie w teście Frozen Glass, gdzie różnica pozostaje nieprzyzwoita. Nowy produkt jest o 4-12% szybszy od GTX Titana, co jest mniej więcej zgodne z teorią. Jeśli chodzi o porównanie z R9 290X, GTX 780 Ti jest blisko niego jedynie w teście Parallax Mapping i nawet wtedy różnica przekracza 20%.

Były to jednak zadania od dawna przestarzałe, z naciskiem na teksturowanie, czego prawie nigdy nie widać w grach. Następnie przyjrzymy się wynikom dwóch kolejnych testów modułu cieniującego piksele, ale tym razem wersji 3.0, najbardziej złożonego z naszych testów modułu cieniującego piksele dla Direct3D 9. Są one bardziej orientacyjne z punktu widzenia współczesnych gier na PC, w tym wielu multi -platformowe. Testy różnią się tym, że mocno obciążają zarówno moduły ALU, jak i moduły tekstur; oba programy cieniujące są złożone i długie oraz zawierają dużą liczbę gałęzi:

  • Strome mapowanie paralaksy- znacznie bardziej „ciężki” rodzaj techniki mapowania paralaksy, opisany także w artykule „Nowoczesna terminologia grafiki 3D”.
  • Futro— proceduralny moduł cieniujący renderujący futro.

Testy te nie są już ograniczone samą wydajnością próbek tekstur czy szybkością wypełnienia, a szybkość w nich zależy przede wszystkim od efektywności wykonania złożonego kodu shadera. W najtrudniejszych testach DX9 z pierwszej wersji pakietu RightMark karty graficzne Nvidia były nieco mocniejsze w poprzednich latach, ale architektura GCN pomogła kartom graficznym AMD objąć prowadzenie przynajmniej w złożonym teście mapowania paralaksy, szczególnie po dokładnym dopracowaniu dostrajanie sterowników Catalyst.

Topowa nowość Nvidii wykazuje w tych zadaniach bardzo dobre wyniki, przewyższając najlepsze swoje poprzedniki oparte na tym samym chipie GK110 o 11%, co jest bliskie teoretycznym wartościom różnicy w wydajności matematycznej. Jeśli chodzi o porównanie z najpotężniejszą kartą graficzną z najwyższej półki, opartą na chipie Hawaii od konkurencji, GTX 780 Ti pozostaje w tyle jedynie w teście mapowania paralaksy. Ale w teście Fur nowy Radeon R9 290X nadal przegrał z Geforce GTX 780 Ti, choć nie aż tak bardzo. Generalnie sytuacja w tych testach jest niejednoznaczna.

Direct3D 10: Testy modułu cieniującego pikseli PS 4.0 (teksturowanie, pętle)

Druga wersja RightMark3D zawierała dwa znane już testy PS 3.0 dla Direct3D 9, które zostały przepisane dla DirectX 10, a także dwa kolejne nowe testy. Pierwsza para dodała możliwość włączenia self-shadowing i supersamplingu shaderów, co dodatkowo zwiększa obciążenie układów wideo.

Testy te mierzą wydajność shaderów pikseli działających w cyklach z dużą liczbą próbek tekstur (w najcięższym trybie do kilkuset próbek na piksel) i stosunkowo małym obciążeniem ALU. Innymi słowy, mierzą prędkość próbek tekstur i wydajność gałęzi w module cieniującym piksele.

Pierwszym testem shaderów pikseli będzie Fur. Przy najniższych ustawieniach wykorzystuje od 15 do 30 próbek tekstur z mapy wysokości i dwie próbki z tekstury głównej. Tryb szczegółowości efektu - „Wysoki” zwiększa liczbę próbek do 40–80, włączenie supersamplingu „Shader” - do 60–120 próbek, a tryb „Wysoki” wraz z SSAA charakteryzuje się maksymalną „ciężkością” - od 160 do 320 próbek z mapy wysokości.

Sprawdźmy najpierw tryby bez włączonego supersamplingu, są one stosunkowo proste, a stosunek wyników w trybach „Low” i „High” powinien być w przybliżeniu taki sam.

Wydajność w tym teście zależy od liczby i wydajności TMU, a także wydajności wykonywania złożonych programów. A w wersji bez supersamplingu efektywny współczynnik wypełnienia i przepustowość pamięci również mają dodatkowy wpływ na wydajność. Wyniki na poziomie szczegółowości „Wysoki” są nawet półtora razy niższe niż na poziomie „Niskim”.

W zadaniach proceduralnej wizualizacji futra z dużą liczbą próbek tekstur, w ciągu kilku generacji architektur graficznych, AMD zmniejszyło różnicę w stosunku do płyt Nvidia, a wraz z wypuszczeniem chipów wideo opartych na architekturze GCN całkowicie przejąło przodują, a obecnie w tych porównaniach liderem są karty Radeon, co świadczy o wysokiej efektywności ich realizacji tych programów.

Nowy topowy GeForce GTX 780 Ti wyprzedza ekskluzywny model GTX Titan o 11-12%, bijąc na głowę inne rozwiązania Nvidii, co jest zgodne z teorią. Biorąc jednak pod uwagę fakt, że w tym teście nawet płyty AMD poprzedniej generacji są szybsze od nowej serii GeForce GTX 780, nie ma sensu rozważać porównania R9 290X i GTX 780 Ti – model AMD też to pokazuje wysoki wynik, nie mówiąc już o karcie dwuchipowej poprzedniej generacji, która tutaj stała się najszybsza.

Spójrzmy na wynik tego samego testu, ale z włączonym supersamplingiem shaderów, co zwiększa pracę czterokrotnie: być może w tej sytuacji coś się zmieni, a przepustowość pamięci wraz z szybkością wypełniania będzie miała mniejszy wpływ:

Sytuacja jest podobna do tej, którą widzieliśmy na poprzednim diagramie, ale karty graficzne Nvidii są nawet nieco gorsze od swoich rywali z AMD. Nowy GeForce GTX 780 Ti okazuje się szybszy od modelu GTX Titan aż o 11%, co jest bliskie teoretycznej różnicy w wydajności matematycznej. Niestety przegrana z bezpośrednim konkurentem w postaci Radeona R9 290X jest bardzo imponująca. Po raz kolejny potwierdzono, że chipy AMD, które preferują obliczenia per piksel, wyraźnie mają przewagę w takich obliczeniach.

Następny test DX10 mierzy wydajność złożonych shaderów pikseli z pętlami z dużą liczbą próbek tekstur i nazywa się Steep Parallax Mapping. Przy niskich ustawieniach wykorzystuje od 10 do 50 próbek tekstur z mapy wysokości i trzy próbki z głównych tekstur. Włączenie trybu ciężkiego z własnym cieniowaniem podwaja liczbę próbek, a supersampling czterokrotnie. Najbardziej złożony tryb testowy z supersamplingiem i self-shadowingiem wybiera od 80 do 400 wartości tekstur, czyli osiem razy więcej niż tryb prosty. Sprawdźmy najpierw proste opcje bez supersamplingu:

Drugi test modułu cieniującego Direct3D 10 pikseli jest bardziej interesujący z praktycznego punktu widzenia, ponieważ rodzaje mapowania paralaksy są szeroko stosowane w grach, a zaawansowane opcje, takie jak strome mapowanie paralaksy, są od dawna stosowane w wielu projektach, na przykład w gry z serii Crysis i Lost Planet. Ponadto w naszym teście oprócz supersamplingu można włączyć samocieniowanie, które w przybliżeniu podwaja obciążenie układu wideo - ten tryb nazywa się „Wysoki”.

Schemat jest w zasadzie podobny do poprzedniego, również bez włączonego SSAA i tym razem GeForce GTX 780 Ti wyprzedza GTX Titan aż o 16-18%, czyli nawet więcej niż teoretyczna różnica w szybkości ALU. Najprawdopodobniej prędkość tutaj zależy również od przepustowości pamięci wideo. Ponieważ jednak karty graficzne Nvidii w tym teście zawsze radzą sobie gorzej od konkurencyjnych rozwiązań AMD, model GeForce GTX 780 Ti w zaktualizowanej wersji testu D3D10 bez supersamplingu ponownie wykazuje gorszy wynik niż Radeon R9 290X, nie mówiąc już o dual-- chip HD 7990. Zobaczmy jaką różnicę zrobi włączenie supersamplingu:

Wszystko znów jest mniej więcej takie samo jak w „Furze” – gdy włączone jest supersampling i self-shadowing, zadanie staje się jeszcze trudniejsze; włączenie dwóch opcji razem zwiększa obciążenie kart prawie ośmiokrotnie, powodując poważny spadek wydajności. Różnica w szybkości działania testowanych kart graficznych zmieniła się tylko nieznacznie, a włączenie supersamplingu ma mniejszy wpływ niż w poprzednim przypadku.

Po raz kolejny widzimy, że rozwiązania graficzne Radeon działają wydajniej w naszych testach modułu cieniującego piksele D3D10 w porównaniu z konkurencyjnymi układami GeForce, a starsza, najwyższej klasy płyta główna z chipem Hawaii przewyższa ogłoszoną dzisiaj kartę GeForce GTX 780 Ti, uzyskując ogromną przewagę. W porównaniu do innych płyt głównych Nvidii, nowy produkt wykazuje lepszą wydajność, przewyższając GTX Titan o 10-11%, czyli mniej więcej tyle, ile teoretycznie powinno być. Wyraźnie widać, że GTX 780 pozostaje jeszcze dalej w tyle. Zobaczmy, co się stanie w przypadku problemów czysto obliczeniowych.

Direct3D 10: Testy modułu cieniującego pikseli PS 4.0 (obliczenia)

Następne kilka testów modułu cieniującego piksele obejmuje minimalną liczbę pobrań tekstur, aby zmniejszyć wpływ jednostek TMU na wydajność. Wykorzystują dużą liczbę operacji arytmetycznych i dokładnie mierzą wydajność matematyczną układów wideo, szybkość wykonywania instrukcji arytmetycznych w module cieniującym piksele.

Pierwszym testem z matematyki jest Mineral. Jest to złożony test teksturowania proceduralnego, w którym wykorzystuje się tylko dwie próbki danych tekstury i 65 instrukcji sin i cos.

Wyniki ograniczających testów matematycznych zwykle tylko w przybliżeniu odpowiadają różnicy częstotliwości i liczby jednostek obliczeniowych, wpływ na nie ma różna efektywność ich wykorzystania w konkretnych rozwiązaniach, istotna jest także optymalizacja sterowników. W przypadku testu Mineral nowy model GeForce GTX 780 Ti wyprzedza GTX Titana zaledwie o 8%, czyli wyraźnie mniej niż teoretyczna różnica w wydajności matematycznej pomiędzy nimi. Pewnie jakieś ograniczenie na to wpływa, bo nie da się tego wytłumaczyć różnicą w charakterystyce.

Jak już wiemy, architektury AMD zawsze miały w takich testach znaczną przewagę nad konkurencyjnymi rozwiązaniami Nvidii, jednak dzięki architekturze Kepler kalifornijskiej firmie udało się zwiększyć liczbę procesorów strumieniowych, a także szczytową wydajność matematyczną modeli GeForce, zaczynając od GTX 680 znacznie wzrosła. Widzimy to po wynikach naszego pierwszego testu matematycznego, gdzie najlepsza karta graficzna GeForce, choć wciąż ustępująca płycie opartej na chipie Hawaii, wyprzedza swojego konkurenta GTX 780 Ti zaledwie o 9%. Sądząc jednak po cenach, przodem powinna być karta graficzna Nvidii, więc jest jeszcze trochę do zrobienia.

Przyjrzyjmy się drugiemu testowi obliczeń modułu cieniującego, który nazywa się Ogień. Jest cięższy jak na ALU i jest tylko jedno pobieranie tekstur, a liczba instrukcji sin i cos została podwojona, do 130. Zobaczmy, co się zmieniło wraz ze wzrostem obciążenia:

Ale w drugim teście matematycznym widzimy zupełnie inne wyniki z kart graficznych względem siebie. Różnica pomiędzy GTX Titanem a dzisiejszą nowością w tym teście była jeszcze bardziej teoretyczna – 19%. To bardziej przypomina prawdziwą różnicę w wynikach matematycznych.

Niestety, nawet przy tak mocnym wyniku, nowa, jednoukładowa, topowa seria Nvidia Geforce GTX 700 nie jest w stanie poradzić sobie z konkurentem ze strony AMD, który ma też niższą cenę. GeForce GTX 780 Ti nie może konkurować z najnowszą płytą AMD, która w drugim teście matematycznym okazuje się o 12% szybsza. Jedyną dobrą rzeczą jest to, że GTX 780 Ti jest wyraźnie szybszy niż GTX 780 i Titan.

Direct3D 10: testy modułu cieniującego geometrii

Pakiet RightMark3D 2.0 zawiera dwa testy szybkości modułu cieniującego geometrii, pierwsza opcja nazywa się „Galaxy” i jest to technika podobna do „sprite’ów punktowych” z poprzednich wersji Direct3D. Animuje system cząstek na GPU, shader geometrii z każdego punktu tworzy cztery wierzchołki, które tworzą cząstkę. Podobne algorytmy powinny być szeroko stosowane w przyszłych grach DirectX 10.

Zmiana balansu w testach shaderów geometrii nie ma wpływu na końcowy wynik renderowania, końcowy obraz jest zawsze dokładnie taki sam, zmieniają się jedynie metody przetwarzania sceny. Parametr „GS Load” określa, w jakim shaderze wykonywane są obliczenia – wierzchołek czy geometria. Liczba obliczeń jest zawsze taka sama.

Przyjrzyjmy się pierwszej wersji testu Galaxy, z obliczeniami w Vertex Shader, dla trzech poziomów złożoności geometrycznej:

Stosunek prędkości dla różnej złożoności geometrycznej scen jest w przybliżeniu taki sam dla wszystkich rozwiązań, wydajność odpowiada liczbie punktów, z każdym krokiem spadek FPS jest prawie dwukrotny. To zadanie nie jest bardzo trudne w przypadku nowoczesnych kart graficznych, a wydajność jest ograniczona szybkością przetwarzania geometrii, a czasem także przepustowością pamięci.

Istnieje pewna różnica między wynikami kart graficznych opartych na chipach Nvidia i AMD, ze względu na różnice w geometrycznych rurociągach chipów tych firm. O ile w poprzednich testach z shaderami pikseli płyty AMD były zauważalnie wydajniejsze i szybsze, to testy geometrii pokazują, że płyty Nvidii są bardziej produktywne w takich zadaniach, nawet pomimo wzrostu liczby bloków geometrycznych na Hawajach.

Ale różnica między AMD i Nvidią nie jest już tak duża jak kiedyś. Rozwiązania Nvidii dotyczące wydajności geometrycznej zawsze radziły sobie lepiej i dlatego są szybsze. Dzisiejszy nowy GeForce GTX 780 Ti okazuje się w przybliżeniu dorównywać wydajnością wcześniejszemu rozwiązaniu w postaci GTX Titan, co wskazuje na testowanie wydajności geometrycznego potoku. Zobaczmy jak zmieni się sytuacja gdy część obliczeń przeniesiemy do shadera geometrii:

Wraz ze zmianą obciążenia w tym teście liczby nieznacznie się poprawiły zarówno w przypadku płyt AMD, jak i Nvidia. Karty graficzne w tym teście shaderów geometrii słabo reagują na zmiany parametru obciążenia GS, który odpowiada za przeniesienie części obliczeń do shadera geometrii, więc wszystkie wnioski pozostają takie same. Nowy model Geforce GTX 780 Ti w dalszym ciągu wykazuje wydajność na poziomie innych płyt opartych na chipie GK110. A konkurencyjny Radeon R9 290X wciąż pozostaje w tyle, więc we wnioskach nic się nie zmienia.

„Hyperlight” to drugi test shaderów geometrii, demonstrujący zastosowanie kilku technik jednocześnie: instancjonowanie, wyjście strumieniowe, obciążenie bufora. Wykorzystuje dynamiczne tworzenie geometrii przy użyciu renderowania z dwoma buforami, a także nową funkcję Direct3D 10 - wyjście strumieniowe. Pierwszy shader generuje kierunek promieni, prędkość i kierunek ich wzrostu, dane te umieszczane są w buforze, który drugi shader wykorzystuje do rysowania. Dla każdego punktu promienia buduje się 14 wierzchołków koła, co daje łącznie do miliona punktów wyjściowych.

Nowy typ programów cieniujących służy do generowania „promieni”, a przy parametrze „GS Load” ustawionym na „Heavy” również do ich rysowania. Innymi słowy, w trybie „Zrównoważony” shadery geometrii są używane tylko do tworzenia i „wzrastania” promieni, wyjście odbywa się za pomocą „instancji”, a w trybie „Ciężki” shader geometrii jest również zaangażowany w wyjście .

Niestety „Hyperlight” po prostu nie działa na wszystkich nowoczesnych kartach graficznych AMD, w tym na najwyższej klasy Radeonie R9 290X. W pewnym momencie kolejna aktualizacja sterownika spowodowała, że ​​ten test po prostu nie działał na płytach tej firmy. Dlatego najciekawszy test geometrii naszego pakietu, który zakłada duże obciążenie shaderów geometrii, nie może nic powiedzieć o porównaniu płyt AMD i Nvidia.

Ale możemy przynajmniej zobaczyć, co się zmieniło w przypadku rozwiązań Nvidii. Względne wyniki rozwiązań w różnych trybach odpowiadają w przybliżeniu zmianie obciążenia: we wszystkich przypadkach wydajność dobrze się skaluje i jest bliska parametrów teoretycznych, zgodnie z którymi każdy kolejny poziom „Liczby wielokątów” powinien być nieco mniejszy niż dwukrotnie wolniejszy.

Szybkość renderowania w tym teście jest ograniczona głównie wydajnością geometrii, ale w przypadku zrównoważonego ładowania shaderów geometrii wszystkie wyniki są zbliżone. Geforce GTX 780 Ti pokazało prędkość o 6-8% wyższą niż poziom Titan, co sugeruje, że sprawa wyraźnie nie dotyczy tylko wydajności geometrycznej. Jednak liczby mogą się znacznie zmienić na następnym diagramie, w teście z bardziej aktywnym wykorzystaniem shaderów geometrii. Ciekawie będzie także porównać ze sobą wyniki uzyskane w trybach „Balanced” i „Heavy”.

Najważniejszym parametrem w tym teście jest szybkość przetwarzania geometrii, z którą Nvidia radzi sobie bardzo dobrze, zwłaszcza z w pełni odblokowanym chipem GK110, na którym oparty jest omawiany model Geforce GTX 780 Ti. Dzięki większej liczbie geometrycznych bloków GeForce GTX 780 Ti przewyższa GTX Titan o 14-19%, a ten z kolei jest wyraźnie szybszy od młodszej płyty opartej na chipie GK110 – GTX 780.

Direct3D 10: prędkość pobierania tekstur z shaderów wierzchołków

Testy pobierania tekstur wierzchołków mierzą prędkość dużej liczby pobrań tekstur z modułu cieniującego wierzchołków. Testy są zasadniczo podobne, więc stosunek wyników kart w teście Ziemi i Fal powinien być w przybliżeniu taki sam. Obydwa testy wykorzystują mapowanie przemieszczeń w oparciu o dane próbek tekstur, jedyną znaczącą różnicą jest to, że test „Fale” wykorzystuje rozgałęzienia warunkowe, podczas gdy test „Ziemia” nie.

Przyjrzyjmy się pierwszemu testowi „Ziemi”, najpierw w trybie „Szczegóły efektu niskiego”:

Poprzednie badania wykazały, że na wyniki tego testu może mieć wpływ zarówno szybkość wypełniania, jak i przepustowość pamięci, co jest szczególnie zauważalne w trybie łatwym. Wyniki kart graficznych Nvidii często ograniczane są przez coś dziwnego, o czym świadczą podobne wyniki wszystkich kart graficznych opartych na procesorze graficznym GK110.

Zgodnie z oczekiwaniami, wśród rozwiązań jednoukładowych najszybszy był topowy Radeon R9 290X, a zaprezentowany dzisiaj nowy GeForce GTX 780 Ti ustępuje mu we wszystkich trybach, nawet w trybie ciężkim, gdzie różnica jest najmniejsza. Nowa, topowa płyta Nvidii uzyskała w tym teście lepsze wyniki niż GTX Titan o 10-13%, co jest bliskie teorii. Przyjrzyjmy się wydajności w tym samym teście ze zwiększoną liczbą próbek tekstur:

Sytuacja na wykresie uległa istotnej zmianie – wyniki rozwiązań AMD w ciężkich trybach uległy pogorszeniu, podczas gdy w przypadku GeForce’a pozostały one na niemal niezmienionym poziomie. Teraz Radeon R9 290X pokazuje wyniki zauważalnie wyższe od prędkości nowego produktu Nvidii tylko w najprostszym trybie, a w trybie średnim i ciężkim wyprzedza go zapowiadany dziś Geforce GTX 780 Ti. Różnica pomiędzy GTX 780 Ti a GTX Titan wynosi 9-12%, co jest zgodne z teorią.

Przyjrzyjmy się wynikom drugiego testu pobierania tekstur z shaderów wierzchołków. Test Fal ma mniejszą liczbę próbek, ale wykorzystuje skoki warunkowe. Liczba próbek tekstury dwuliniowej w tym przypadku wynosi do 14 („Szczegółowość efektu niska”) lub do 24 („Szczegółowość efektu wysoka”) na wierzchołek. Złożoność geometrii zmienia się podobnie jak w poprzednim teście.

Wyniki drugiego testu teksturowania wierzchołków „Fale” są ogólnie podobne do tych, które widzieliśmy na poprzednich wykresach. Z jakiegoś powodu wydajność wszystkich płyt GeForce opartych na GK110 w trybie lekkim pozostaje mocno niedoceniana i są one prawie dwukrotnie gorsze niż prędkość dwuchipowego Radeona HD 7990. Szybkość nowego topowego GeForce GTX 780 Ti na tle swoich odpowiedników w tym teście nie jest złe, nowy jednoukładowy top oparty na GK110 okazał się 8-10% szybszy od GTX Titan. Rozważmy drugą wersję tego samego testu:

W drugim teście próbek tekstur wraz ze wzrostem złożoności zadania prędkość wszystkich rozwiązań spadła, a karty graficzne GeForce szczególnie poważnie ucierpiały w trybach jasnych. Wyniki dzisiejszego nowego GeForce GTX 780 Ti od Nvidii były tylko o 5% lepsze od GTX Titan opartego na tym samym chipie, co sugeruje, że głównym ograniczeniem wydajności w tym teście dla kart graficznych Nvidia jest najprawdopodobniej wydajność jednostek ROP .

3DMark Vantage: Testy funkcjonalności

Syntetyczne testy z pakietu 3DMark Vantage pokażą nam to, co wcześniej przeoczyliśmy. Testy funkcji z tego pakietu testowego obsługują DirectX 10 i są interesujące, ponieważ różnią się od naszych i nadal są aktualne. Prawdopodobnie analizując wyniki nowej karty graficznej Geforce GTX 780 Ti w tym pakiecie, wyciągniemy kilka nowych przydatnych wniosków, które umknęły nam w testach z rodziny pakietów RightMark.

Test funkcji 1: Wypełnienie teksturą

Pierwszy test mierzy wydajność bloków pobierania tekstur. Polega to na wypełnieniu prostokąta wartościami odczytanymi z małej tekstury przy użyciu wielu współrzędnych tekstury, które zmieniają każdą klatkę.

Wydajność kart graficznych AMD i Nvidia w teście tekstur Futuremark jest dość wysoka, a dane porównawcze modeli są zbliżone do odpowiednich parametrów teoretycznych. Wypuszczony dzisiaj starszy, topowy model Geforce GTX 780 Ti jest w tym teście zaledwie o 2% szybszy od dotychczas najpotężniejszej karty graficznej GTX Titan, co, trzeba przyznać, nie jest zbyt bliskie teorii.

Oczywiście GTX 780 pozostaje jeszcze bardziej w tyle za dwoma najdroższymi rozwiązaniami Nvidii pod względem szybkości teksturowania. Jeśli chodzi o porównanie GeForce GTX 780 Ti z rozwiązaniem konkurencyjnego Radeona R9 290X, nowy produkt Nvidii charakteryzuje się nieco większą szybkością teksturowania niż płyta oparta na GPU Hawaii. Czego oczekiwano na podstawie wskaźników teoretycznych.

Test funkcji 2: Wypełnienie kolorem

Drugim zadaniem jest test współczynnika wypełnienia. Wykorzystuje bardzo prosty moduł cieniujący piksele, który nie ogranicza wydajności. Interpolowana wartość koloru jest zapisywana w buforze poza ekranem (cel renderowania) przy użyciu mieszania alfa. Wykorzystywany jest 16-bitowy bufor pozaekranowy formatu FP16, który jest najczęściej używany w grach korzystających z renderowania HDR, więc ten test jest dość na czasie.

W tym przypadku nie jest mierzona prędkość szczytowa bloków ROP, liczby z podtestu 3DMark Vantage pokazują wydajność bloków ROP z uwzględnieniem wielkości przepustowości pamięci wideo (tzw. „efektywny współczynnik wypełnienia”) , a test mierzy dokładnie przepustowość, a nie wydajność ROP.

Dlatego wynik zapowiadanej płyty Nvidia w teście wydajności jednostek ROP okazał się o 10% lepszy w porównaniu do GTX Titan, ponieważ istnieje teoretyczna różnica w przepustowości pamięci między nimi. To samo tyczy się wyprzedzenia konkurenta w postaci Radeona R9 290X - tak naprawdę prędkość bloków ROP jest wyższa na płycie AMD, ale ze względu na mniejszą przepustowość pamięci przegrywa z nowym Geforce GTX 780 Ti.

Test funkcji 3: Mapowanie okluzji paralaksy

Jeden z najciekawszych testów funkcji, ponieważ podobna technika jest już stosowana w grach. Rysuje jeden czworobok (dokładniej dwa trójkąty) przy użyciu specjalnej techniki mapowania okluzji paralaksy, która symuluje złożoną geometrię. Wykorzystywane są dość wymagające operacje śledzenia promieni i mapa głębi o wysokiej rozdzielczości. Ta powierzchnia jest również cieniowana przy użyciu ciężkiego algorytmu Straussa. Jest to test bardzo złożonego, ciężkiego dla chipa wideo modułu cieniującego piksele, zawierającego liczne próbki tekstur podczas śledzenia promieni, dynamicznego rozgałęziania i skomplikowanych obliczeń oświetlenia według Straussa.

Ten test pakietu 3DMark Vantage różni się od tych, które przeprowadziliśmy wcześniej tym, że wyniki nie zależą wyłącznie od szybkości obliczeń matematycznych, wydajności wykonywania gałęzi czy szybkości próbek tekstur, ale od kilku parametrów jednocześnie. Aby osiągnąć dużą prędkość w tym zadaniu, ważny jest prawidłowy balans procesora graficznego, a także wydajność wykonywania skomplikowanych shaderów.

W tym przypadku ważna jest zarówno wydajność matematyczna, jak i teksturowa, a być może także prędkość ROP, ponieważ w tej „syntetyce” z 3DMark Vantage nowa karta Geforce GTX 780 Ti wyprzedza tylko o 5% droższą płytę Nvidii, co nie do końca odpowiadają teoretycznej różnicy w szybkości teksturowania i wydajności obliczeniowej.

Jeśli porównamy nowy produkt z rozwiązaniem konkurencji, to w tym teście GTX 780 Ti nie może konkurować z Radeonem R9 290X, nie mówiąc już o dwuchipowym HD 7990, gdyż procesory graficzne AMD są w tym konkretnym zadaniu wydajniejsze. Niestety, GTX 780 pozostaje w tyle za swoim najbliższym konkurentem pod względem ceny o 20%, czyli całkiem sporo.

Test funkcji 4: Ściereczka GPU

Czwarty test jest interesujący, ponieważ oblicza interakcje fizyczne (imitacja tkaniny) za pomocą chipa wideo. Wykorzystywana jest symulacja wierzchołków, wykorzystująca połączoną pracę shaderów wierzchołków i geometrii, w kilku przejściach. Użyj strumienia wyjściowego, aby przenieść wierzchołki z jednego przebiegu symulacji do drugiego. W ten sposób testowana jest wydajność działania shaderów wierzchołków i geometrii oraz prędkość strumienia wyjściowego.

Szybkość renderowania w tym teście powinna również zależeć od kilku parametrów jednocześnie, a głównymi czynnikami wpływającymi powinna być wydajność przetwarzania geometrii i wydajność shaderów geometrii. Ale obraz na diagramie okazał się bardzo dziwny, obie karty graficzne Radeon pokazują liczbę klatek na sekundę około 130 FPS, a wyniki trzech GeForce'ów również osiągnęły limit, ale na poziomie około 95-100 FPS, ponieważ widzieliśmy wcześniej.

A jednak, co dziwne, nowy produkt wyprzedza o 7% drogiego GTX Titan. Nowy, topowy model Nvidii charakteryzuje się szybkością o jedną trzecią gorszą od starszej płyty konkurencji, czyli Radeona R9 290X. A wszystko to pomimo faktu, że wydajność geometryczna kart graficznych Nvidia powinna być wyższa niż rozwiązań konkurencji, ponieważ mają one większą liczbę odpowiednich jednostek wykonawczych. Sprawdzimy także ponownie wydajność geometryczną w testach DirectX 11.

Test funkcji 5: Cząsteczki GPU

Test fizycznej symulacji efektów w oparciu o układy cząstek obliczonych za pomocą chipa wideo. Stosowana jest również symulacja wierzchołków, przy czym każdy wierzchołek reprezentuje pojedynczą cząstkę. Wyjście strumieniowe służy temu samemu celowi, co w poprzednim teście. Obliczanych jest kilkaset tysięcy cząstek, wszystkie są animowane osobno, a także obliczane są ich zderzenia z mapą wysokości.

Podobnie jak w jednym z naszych testów RightMark3D 2.0, cząstki są renderowane przy użyciu modułu cieniującego geometrii, który tworzy cztery wierzchołki z każdego punktu, tworząc cząstkę. Jednak test ładuje głównie jednostki cieniujące z obliczeniami wierzchołków; testowane jest również wyjście strumieniowe.

W drugim teście geometrii z 3DMark Vantage sytuacja się zmieniła i tym razem zdecydowanym liderem jest dwuchipowy Radeon HD 7990, który dzisiaj wypada z rankingów. Nowy produkt Nvidii był tylko o 1% lepszy od płyty GTX Titan opartej na tym samym chipie GK110, co wskazuje na nacisk na wydajność geometryczną, przynajmniej w przypadku płyt Nvidia.

Jeśli porównamy prędkość nowego GeForce'a z jego jedynym konkurentem ze strony AMD, to nowej płycie jest bardzo blisko rywala - obydwie wykazują w tym zadaniu podobne wyniki. A to dobry wynik najprawdopodobniej dla Radeona, bo kosztuje mniej, a nawet wcześniej, syntetyczne testy symulujące tkaniny i cząsteczki z pakietu testowego 3DMark Vantage, które aktywnie korzystają z shaderów geometrii, pokazały, że płyty Nvidii znacząco wyprzedzają konkurencyjne modele od AMD, ale teraz wszystko nie jest takie oczywiste.

Test funkcji 6: Szum Perlina

Ostatnim testem funkcji pakietu Vantage jest intensywny matematycznie test układu wideo, który oblicza kilka oktaw algorytmu szumu Perlina w module cieniującym piksele. Każdy kanał koloru wykorzystuje własną funkcję szumu, aby zwiększyć obciążenie układu wideo. Szum Perlina to standardowy algorytm często używany w teksturowaniu proceduralnym i wykorzystuje dużo matematyki.

W czysto matematycznym teście z pakietu Futuremark, pokazującym szczytową wydajność chipów wideo w ekstremalnych zadaniach, widzimy inny rozkład wyników w porównaniu do podobnych testów z naszego pakietu testowego. W tym przypadku działanie rozwiązań nie do końca odpowiada teorii i kłóci się z tym, co widzieliśmy wcześniej w testach matematycznych z pakietu RightMark 2.0.

Karty graficzne AMD Radeon, oparte na układach o architekturze GCN, radzą sobie bardzo dobrze z takimi zadaniami i wykazują lepsze wyniki w przypadkach, w których wykonywana jest intensywna „matematyka”. Nie dotyczy to wyjątkiem dwuchipowej płyty Radeon HD 7990, która w tym przypadku wyraźnie nie sprawdziła się wydajnie. Jeśli jednak porównamy zaprezentowaną dzisiaj kartę GeForce GTX 780 Ti z Radeonem R9 290X, ten ostatni przewyższa kartę Nvidia o 18%.

Wprowadzona dzisiaj na rynek karta graficzna GTX 780 Ti pokazywała prędkości nawet nieco wolniejsze od modelu GTX Titan tego samego producenta i opartego na tym samym chipie, co absolutnie nie odpowiada teorii. Dzisiejsza nowość nadal przewyższa GTX 780 o 11%, choć powinna zwyciężyć ze znacznie większą przewagą. Prawdopodobnie wpłynęło na to ograniczenie GPU Boost, zmniejszając częstotliwość GK110 w GTX 780 Ti podczas ostatniego syntetycznego testu pakietu.

Direct3D 11: Oblicz moduły cieniujące

Aby przetestować nowe rozwiązanie Nvidii w zadaniach korzystających z funkcji DirectX 11, takich jak teselacja i shadery obliczeniowe, wykorzystaliśmy próbki z pakietów SDK i dema firm Microsoft, Nvidia i AMD.

Najpierw przyjrzymy się testom wykorzystującym moduły cieniujące Compute. Ich wygląd to jedna z najważniejszych innowacji w najnowszych wersjach DX API, są one już wykorzystywane we współczesnych grach do wykonywania różnych zadań: postprocessingu, symulacji itp. Pierwszy test pokazuje przykład renderowania HDR z mapowaniem tonów z zestawu SDK DirectX, z przetwarzaniem końcowym, przy użyciu shaderów pikseli i obliczeń.

Szybkość obliczeń w shaderach obliczeniowych i pikselowych dla wszystkich płyt AMD i Nvidia jest w przybliżeniu taka sama, chociaż karty graficzne z procesorami graficznymi poprzednich architektur miały różnice (co ciekawe, karta graficzna na Hawajach pokazała to ponownie, choć niewielka). Sądząc po naszych poprzednich testach, wyniki dotyczące problemu wyraźnie zależą nie tylko od mocy matematycznej i wydajności obliczeniowej, ale także od innych czynników, takich jak przepustowość pamięci i wydajność ROP.

W takim przypadku prędkość kart graficznych jest ograniczona przepustowością. Nowa, najwyższej klasy płyta główna Nvidii była w tym teście o 12% szybsza od swojej poprzedniczki, GTX Titan. Jeśli porównamy nowy produkt z płytą AMD, to Geforce GTX 780 Ti i bezpośredni konkurent Radeon R9 290X są w przybliżeniu równe, chociaż płyta Nvidia jest nieco droższa.

Drugi test modułu cieniującego obliczeniowego również pochodzi z pakietu Microsoft DirectX SDK i pokazuje problem grawitacji N-ciał, czyli symulację dynamicznego układu cząstek poddanego działaniu sił fizycznych, takich jak grawitacja.

W przypadku tego testu układ sił pomiędzy decyzjami różnych firm okazał się zupełnie inny. W tych zadaniach obliczeniowych karty graficzne Nvidia mają wyraźną przewagę, a karty graficzne Radeon radzą sobie z nimi niezbyt dobrze. Logicznym byłoby więc, gdyby ten test wygrała najmocniejsza z płyt Nvidii – zaprezentowana dzisiaj karta Geforce GTX 780 Ti, która posiada więcej aktywnych jednostek obliczeniowych i pracuje na wysokiej częstotliwości.

Ale nie, GTX 780 Ti ponownie stracił kilka procent w zadaniach obliczeniowych do droższego GTX Titan. Najprawdopodobniej w zadaniach obliczeniowych częstotliwość procesora graficznego GK110 w przypadku karty graficznej do gier spada poniżej poziomu ustawionego w przypadku wersji „komputerowej” - GTX Titan. Jeśli chodzi o konkurenta, daleko w tyle pozostał Radeon R9 290X, niemal dwukrotnie większy od nowego produktu Nvidii.

Direct3D 11: Wydajność teselacji

Shadery obliczeniowe są bardzo ważne, ale kolejną interesującą innowacją w Direct3D 11 jest teselacja sprzętowa. Przyjrzeliśmy się temu szczegółowo w naszym artykule teoretycznym na temat Nvidii GF100. Teselacja jest używana od dłuższego czasu w grach DX11, takich jak STALKER: Call of Pripyat, DiRT 2, Aliens vs Predator, Metro Last Light, Civilization V, Crysis 3, Battlefield 3 i innych. Niektóre z nich wykorzystują teselację do modeli postaci, inne wykorzystują ją do symulacji realistycznych tafli wody lub krajobrazów.

Istnieje kilka różnych schematów podziału prymitywów graficznych (teselacja). Na przykład teselacja Phonga, trójkąty PN, podział Catmull-Clark. Zatem schemat podziału PN Triangles jest zastosowany w STALKER: Call of Pripyat, a w Metro 2033 - teselacja Phonga. Metody te można stosunkowo szybko i łatwo wdrożyć w procesie tworzenia gier i istniejących silnikach, dlatego stały się popularne.

Pierwszym testem teselacji będzie przykład teselacji szczegółowej z pakietu ATI Radeon SDK. Implementuje nie tylko teselację, ale także dwie różne techniki przetwarzania piksel po pikselu: proste nakładanie mapy normalnych i mapowanie okluzji paralaksy. No cóż, porównajmy rozwiązania AMD i Nvidia DX11 w różnych warunkach:

W prostym teście mapowania uderzeń prędkość często sprowadza się do przepustowości lub wydajności ROP, a wynik nowej karty Geforce GTX 780 Ti to potwierdza – jest prawie identyczny z szybkością GTX Titan w tym teście. Wszystkie GeForce w tym podteście pozostają daleko w tyle za Radeonem R9 290X, ale nie ze względu na przepustowość, ale ze względu na szybkość bloków ROP.

W drugim podteście, przy zauważalnie bardziej złożonych obliczeniach piksel po pikselu, sytuacja staje się nieco bardziej interesująca. Wydajność wykonywania takich obliczeń matematycznych w shaderach pikseli jest wyższa w przypadku układów o architekturze GCN niż w przypadku Keplera, nic więc dziwnego, że wszystkie płyty Nvidii ponownie przegrały z nowym rozwiązaniem opartym na chipie Hawaii. Radeon R9 290X oparty na nowym procesorze graficznym jest zauważalnie szybszy od nowego GeForce GTX 780 Ti, który z kolei wyprzedził GTX Titan aż o imponujące 18%, co w przybliżeniu odpowiada teorii pod względem szybkości obliczeń matematycznych .

W teście teselacji wynik nowego produktu jest w przybliżeniu taki sam jak w pierwszym podteście. Model GTX 780 Ti pokazał niemal taką samą prędkość jak GTX Titan, przegrywając z bezpośrednim rywalem w postaci Radeona R9 290X. Stało się tak, ponieważ w tym teście teselacji podział trójkątów jest umiarkowany, a prędkość w nim nie jest ograniczona wydajnością jednostek przetwarzających geometrię, więc prędkość przetwarzania trójkątów na płytach AMD jest wystarczająca, aby wykazać dobre wyniki.

Drugi test wydajności teselacji będzie kolejnym przykładem dla programistów 3D z ATI Radeon SDK - PN Triangles. Właściwie oba przykłady są również zawarte w DX SDK, więc mamy pewność, że twórcy gier tworzą na ich podstawie swój kod. Przetestowaliśmy ten przykład z różnymi współczynnikami teselacji, aby zrozumieć, jak duży wpływ ma jego zmiana na ogólną wydajność.

Ale w tym przykładzie zastosowano bardziej złożoną geometrię, dlatego porównanie mocy geometrycznej różnych rozwiązań dla tego testu przynosi inne wnioski. Wszystkie nowoczesne rozwiązania zaprezentowane w materiale dobrze radzą sobie z lekkimi i średnimi obciążeniami geometrycznymi, wykazując się dużymi prędkościami, jednak w trudnych warunkach procesory graficzne Nvidii są nadal znacznie wydajniejsze.

Ogłoszony dzisiaj model Geforce GTX 780 Ti wykazał nienormalnie niski wynik w porównaniu do GTX Titan na tym samym chipie GK110. A opóźnienia 15-20% na trzech najprostszych poziomach teselacji nie da się niczym wytłumaczyć, ponieważ GTX 780 Ti jest szybszy od Tytana we wszystkich teoretycznych parametrach (z wyjątkiem pamięci wideo). Prawdopodobnie zobaczymy wynik błędu oprogramowania w postaci niezoptymalizowanych sterowników. I tylko przy najbardziej złożonej teselacji nowy produkt przejmuje prowadzenie tak, jak powinien.

A porównanie z konkurencją w trudnych warunkach wypada na korzyść nowego produktu, bo ma więcej geometrycznych klocków w porównaniu do Hawaii. Dlatego GTX 780 Ti jest znacznie szybszy niż karta AMD nowej generacji, ale tylko w trudnych warunkach, gdy prędkość Radeona zostaje poważnie zmniejszona, podczas gdy nowa karta Nvidia pozostaje dość wysoka.

Przyjrzyjmy się wynikom kolejnego testu, dema Nvidia Realistic Water Terrain, zwanego też Island. To demo wykorzystuje teselację i mapowanie przemieszczeń, aby renderować realistycznie wyglądające powierzchnie oceanów i teren.

Test Island nie jest czysto syntetycznym testem do pomiaru wyłącznie geometrycznej wydajności GPU, ponieważ zawiera zarówno złożone shadery pikseli, jak i obliczeń, a takie obciążenie jest bliższe prawdziwym grom, które wykorzystują wszystkie bloki GPU, a nie tylko geometryczne, jak w poprzednich testy geometryczne. Jednak głównym nadal pozostaje obciążenie jednostek przetwarzających geometrię.

Przetestowaliśmy rozwiązania przy czterech różnych współczynnikach teselacji — w tym przypadku ustawienie nosi nazwę Dynamic Tessellation LOD. Jeśli już przy pierwszym współczynniku podziału trójkąta, gdy prędkość nie jest ograniczona wydajnością bloków geometrycznych, nowa, najwyższej klasy karta graficzna AMD wykazuje dość wysoki wynik, próbując konkurować z GeForce, ale nie osiąga poziomu GTX 780 Ti nawet w tym przypadku. A wraz ze wzrostem pracy geometrycznej nowy produkt Nvidii posuwa się jeszcze dalej.

Karty graficzne Nvidia wypadły w tym teście bardzo szybko, nowy Geforce GTX 780 Ti okazał się o 5-10% wydajniejszy od droższego GTX Titan, tak jak powinno być w teorii, w przeciwieństwie do poprzedniego testu. Konkurencja w dalszym ciągu nie ma wystarczającej prędkości, aby konkurować z kartami Nvidii, choć w prawdziwych grach obciążenie geometrycznych bloków jest znacznie mniejsze i tam wszystko będzie zupełnie inne.

Wnioski z testów syntetycznych

Wyniki syntetycznych testów karty graficznej Geforce GTX 780 Ti, która stała się najpotężniejszą płytą w topowej serii Nvidii, a także wyniki innych modeli kart graficznych produkowanych przez obu producentów dyskretnych układów graficznych wykazały, że nowa płyta jest jedno z najpotężniejszych rozwiązań na rynku i powinno z powodzeniem konkurować z innymi płytami z najwyższej półki, pomimo dość wysokiej ceny.

Najważniejsze, co ustaliliśmy, to to, że w większości testów nowy produkt jest wyraźnie szybszy od GeForce GTX Titan i to przy zauważalnej różnicy w cenie na korzyść GTX 780 Ti. Jeśli chodzi o gry, nie jest niespodzianką, że nowa płyta Nvidii jest jedną z potężniejszych ofert z najwyższej półki cenowej. Z wyjątkiem niektórych zadań, zaprezentowany dzisiaj model Nvidii spisał się dobrze w porównaniu z potężnym Radeonem R9 290X. Nasz zestaw syntetycznych testów pokazał, że pod względem wydajności będą ze sobą konkurować w grach, zwłaszcza, że ​​rozwiązania Nvidii tradycyjnie radzą sobie tam lepiej niż w „syntetykach”.

Nowa karta GeForce GTX 780 Ti jest wyraźnie skierowana do tych entuzjastów, którzy nie są gotowi na kompromisy i planują grać w obecne i przyszłe gry na maksymalnych ustawieniach w najwyższych rozdzielczościach i są skłonni zapłacić za nią nieco więcej pieniędzy niż konkurencyjny Radeon R9 Koszty 290X. Najbardziej zadowoleni będą ci, którzy już chcieli kupić kartę Geforce GTX Titan do gier, a najmniej ci, którzy ją kupili niedawno. Przecież nowy model Nvidii jest tańszy, ale za to będzie jeszcze wydajniejszy w grach. Przejdźmy do oceny rzeczywistej wydajności GTX 780 Ti w grach w dalszej części artykułu.

Karta graficzna to jeden z najważniejszych elementów każdego komputera do gier. Wybierając komponenty do komputera PC, należy zwrócić szczególną uwagę na wybór procesora graficznego, ponieważ to on odpowiada za przetwarzanie tekstur i utrzymanie płynnego przenoszenia klatek. Nvidia Geforce GTX 780 Ti to doskonała karta graficzna, często spotykana w komputerach osobistych średniej klasy. Urządzenie dobrze radzi sobie pod pełnym obciążeniem w nowoczesnych grach, nie nagrzewa się zbytnio, nie hałasuje podczas pracy i jest niedrogie.

Geforce GTX 780 TI to pierwsza w historii karta graficzna z pojedynczym rdzeniem graficznym opartym na GK110 o częstotliwości 875 megaherców. Podobnie jak większość kart graficznych Nvidia jest w stanie podkręcać i przy maksymalnym obciążeniu może pochwalić się częstotliwością 962 MHz, co jest bardzo dobrym wskaźnikiem dla karty graficznej ze średniej półki cenowej.

Nvidia Geforce GTX 780 TI posiada 3072 MB pamięci RAM GDDR5 o przepustowości 336 GB/s. Rdzeń GK110 przeznaczony jest do pracy z systemem 64-bitowym, dlatego idealnie prezentuje się w połączeniu z nowoczesnymi systemami operacyjnymi (Windows 10, 8).

Główne cechy GTX 780 Ti wyglądają następująco:

  • Liczba rdzeni CUDA wynosi 2880.
  • Bazowa częstotliwość taktowania rdzenia graficznego wynosi 875 MHz.
  • Szybkość wypełniania tekstur wynosi 210 GigaTexels/s.
  • Wydajność – 7 GB/sek.
  • Szerokość interfejsu pamięci wynosi 384 bity.
  • Proces techniczny – 0,028 mikrona.
  • Częstotliwość pamięci DDR5 – 1750.
  • Interfejs PCI-E 3.0.
  • Obsługa DirectX 12.

Po podkręceniu częstotliwości rdzenia i pamięci mogą wzrosnąć o 5-15%, co daje dobry wzrost wydajności.

Cena GTX 780 Ti jest w pełni uzasadniona, ponieważ karta graficzna dobrze radzi sobie z dużą liczbą zadań.

Recenzja GTX 780 Ti

Zewnętrznie urządzenie wygląda bardzo atrakcyjnie: zamknięta metalowa obudowa, kompaktowy radiator i chłodnica do chłodzenia. Nie bez powodu konstrukcja tej karty graficznej jest nadal używana przez firmę Nvidia w jej nowoczesnych rozwiązaniach.

Aby uzyskać dodatkowe zasilanie, karta jest wyposażona w adapter 6pin/8pin. Podłącza się go bezpośrednio do zasilacza komputera.


Zwiększony pobór mocy GTX 780 Ti pozwala karcie graficznej pracować z pełną wydajnością. Jednocześnie nie można powiedzieć, że „zjada” dużo prądu. Do stabilnej pracy tego procesora graficznego wystarczy standardowy zasilacz o mocy 500 W.

Podkręcanie karty graficznej Nvidia Geforce GTX 780 Ti

Jak każdą inną kartę graficzną, GTX 780 można podkręcać. Niewielki wzrost wydajności w zauważalny sposób wpłynie na wydajność komputera, doda kilkanaście klatek podczas gry i ułatwi kopanie na GTX 780 Ti.

Podkręcanie GTX 780 Ti odbywa się za pomocą oficjalnego bezpłatnego oprogramowania Nvidia Inspector. Po pobraniu i uruchomieniu narzędzia wszystkie informacje o karcie graficznej zostaną wyświetlone na ekranie.

Instrukcje krok po kroku dotyczące podkręcania:

  1. Na dole kliknij przycisk „Pokaż overlocking”, a następnie przejdź bezpośrednio do regulacji częstotliwości rdzenia graficznego, jednostek cieniujących i pamięci karty graficznej.
  2. W wyświetlonym oknie przeciągnij suwaki „Przesunięcie zegara podstawowego” do +80-90 megaherców, „Przesunięcie zegara pamięci” do +100 i „Docelowa moc i temperatura” do maksimum. Ostatni wskaźnik odpowiada za zużycie energii. Im jest większy, tym większa jest produktywność wyjściowa.
  3. W celu chłodzenia przesuń środkowy suwak „Wentylator” (prędkość obrotu chłodnicy) na 100%.
  4. Po zakończeniu operacji kliknij przycisk „Zastosuj zegary i napięcie” i zamknij program.

Stabilność działania możesz sprawdzić po wprowadzeniu zmian w teście obciążeniowym narzędzia FurMark.

Wydobywanie na GTX 780 Ti to jedna z zalet tej karty graficznej. Po podkręceniu jest w stanie wykonywać obliczenia i przetwarzać dane graficzne wykorzystywane w wydobywaniu kryptowalut.

Testowanie gry

GTX 780 Ti zapewnia stabilne 60-70 FPS w wielu wymagających grach. Klasyczne produkty branży gamingowej, takie jak TES V: Skyrim, GTA V, Wiedźmin 2 i inne, działają bez żadnych lagów i zawieszeń.

Po testach w Benchmarku i FurMarku jasne jest, że 780 Ti to procesor graficzny, z którym będą musiały się liczyć nawet nowoczesne karty graficzne.

Aktualizacja sterownika

Sterownik do GTX 780 Ti można pobrać z oficjalnej strony producenta. Aby zainstalować/zaktualizować sterowniki na swoim komputerze, musisz postępować zgodnie z instrukcjami instalatora Nvidia.

Narzędzie automatycznie wykryje model i typ Twojego urządzenia, wybierze niezbędne oprogramowanie i zainstaluje je.

Najpotężniejsza odpowiedź na „Hawaje” – nowy jednoprocesorowy król w 3D

  • Część 2 - Znajomość praktyczna
  • Część 3 – Wyniki testu gry (wydajność)

Zanim ucichły salwy fajerwerków związane z premierą nowych flagowców AMD, „zielonkawy krab” (zobacz szczegóły) gwałtownie się aktywował i mocnym ruchem pazura wbił wcześniej przygotowaną kulę w dziurę. Dlaczego wcześniej ugotowane? Tak, bo jeśli odejdziemy od alegorii, to trzy produkty przeznaczone na rynek gamingowy korzystają już z tego samego chipa (rdzenia) – GK110. Dzieje się tak zarówno w GTX 780, jak i GTX Titan. A teraz jest w GTX 780 Ti. Tylko o różnym stopniu „cięcia”. Pełnoprawny (jeśli mówimy o obliczeniach o podwójnej precyzji) GK110 trafia wyłącznie na stacje robocze Tesli. W przeciwnym razie można powiedzieć, że GTX 780 Ti ma rdzeń GK110 ze wszystkimi jednostkami roboczymi.

O szczegółach jak zwykle opowie Alexey Berillo.

Część 1: Teoria i architektura

Było jasne, że po wypuszczeniu na rynek topowej karty graficznej Radeon R9 290X od AMD, jej konkurent, kalifornijska firma Nvidia, zdecydowanie wypuści na rynek jeszcze mocniejsze rozwiązanie. Tak, nominalnie Radeon R9 290X nie przewyższa wydajnością ekskluzywnego modelu GeForce GTX Titan i nie zawsze wygrywa bitwę z GeForce GTX 780. Jednak jest mało prawdopodobne, aby Nvidia tolerowała ingerencję w przywództwo ze strony konkurenta opartego na chipie wideo Hawaii, ponieważ możliwości ich najlepszego procesora graficznego GK110 nie zostały wyczerpane nawet w GTX Titan, opartym na takim chipie z częściowo wyłączonymi jednostkami wykonawczymi .

Z tego powodu niemal natychmiast po wypuszczeniu topowej płyty konkurenta Nvidia na jednym ze swoich wydarzeń ogłosiła rychłą premierę jeszcze mocniejszego modelu - Geforce GTX 780 Ti, który rozważymy dzisiaj. Karta graficzna Geforce GTX 780 Ti to najpotężniejsze rozwiązanie firmy dla tych, którzy chcą grać w wymagające gry przy maksymalnych ustawieniach jakości i najwyższych rozdzielczościach, w tym Ultra HD. W momencie premiery model ten zapewnia maksymalną wydajność w grach 3D wśród jednoukładowych kart graficznych.

Aby to osiągnąć, Geforce GTX 780 Ti wykorzystuje nową wersję procesora graficznego GK110 z 2880 aktywnymi rdzeniami przetwarzającymi strumieniowanie, czyli nawet więcej niż drogi ekskluzywny GTX Titan! Inne ulepszenia wyróżniające GTX 780 Ti obejmują zwiększoną efektywną częstotliwość pamięci wideo do 7 GHz, co znacznie zwiększyło jej przepustowość, a także bardziej zaawansowany system zarządzania energią i częstotliwość GPU, która pozwala na maksymalną możliwą pracę układu wideo w aktualnych warunkach częstotliwość

Jednocześnie, dzięki bardzo energooszczędnej architekturze graficznej Kepler, a także pewnym ulepszeniom w najnowszej wersji układu wideo GK110 i zastosowanemu efektywnemu systemowi chłodzenia, Geforce GTX 780 Ti pozostaje dość cichą i chłodną kartą graficzną ze względu na poziom wydajności. Jest to szczególnie ważne w przypadku zyskujących na popularności kompaktowych jednostek systemowych, które mają rygorystyczne ograniczenia w zakresie zasilania, odprowadzania ciepła i poziomu hałasu układu chłodzenia. W tych rozwiązaniach można zastosować kartę Geforce GTX 780 Ti: choć model ten zużywa dużo energii, w pełni spełnia wymagania dotyczące zasilania i chłodzenia nawet do stosowania w tego typu komputerach.

Nie wybiegajmy jednak daleko w przyszłość i rozważmy bardziej szczegółowo wszystkie funkcje nowej karty graficznej. Z uwagi na fakt, że recenzowana dzisiaj karta graficzna Nvidia Geforce GTX 780 Ti oparta jest na procesorze graficznym GK110 architektury „Kepler”, o którym szczegółowo rozmawialiśmy już nie raz, czytelnikom przyda się lektura artykuły o wcześniejszych modelach rozwiązań graficznych firmy:

  • Nvidia Geforce GTX 780 - uproszczona wersja GTX Titan, akceleratora premium;
  • Nvidia Geforce Titan – nowy jednoprocesorowy flagowy produkt graficzny 3D klasy gamingowej;
  • Nvidia Geforce GTX 680 to nowy jednoprocesorowy lider w grafice 3D.

Przyjrzyjmy się szczegółowej charakterystyce ogłoszonej dzisiaj karty graficznej Geforce GTX 780 Ti, opartej na pełnej wersji najwyższej klasy procesora graficznego Nvidia.

Akcelerator graficzny Geforce GTX 780 Ti

  • Chip o nazwie kodowej GK110;
  • technologia produkcji 28 nm;
  • 7,1 miliarda tranzystorów;
  • Ujednolicona architektura z szeregiem procesorów do strumieniowego przetwarzania różnych typów danych: wierzchołków, pikseli itp.;
  • Sprzętowa obsługa API DirectX 11, w tym Shader Model 5.0, shadery geometryczne i obliczeniowe oraz teselacja;
  • 384-bitowa magistrala pamięci, sześć niezależnych kontrolerów, każdy o szerokości 64-bitów, z obsługą pamięci GDDR5;
  • Częstotliwość rdzenia 875 (częstotliwość turbo - 928) MHz;
  • 15 wieloprocesorów strumieniowych, w tym 2880 skalarnych jednostek ALU zmiennoprzecinkowych o pojedynczej precyzji (FP32) w ramach standardu IEEE 754-2008 i 960 jednostek zmiennoprzecinkowych o podwójnej precyzji (FP64) pracujących z szybkością 1/8 (a nie z pełną szybkością) ), jak GTX Titan;
  • 240 jednostek adresowania i filtrowania tekstur z obsługą komponentów FP16 i FP32 w teksturach oraz obsługą filtrowania trójliniowego i anizotropowego dla wszystkich formatów tekstur;
  • 6 szerokich bloków ROP (48 pikseli) z obsługą trybów antyaliasingu do 32 próbek na piksel, w tym formaty bufora ramki FP16 lub FP32. Każdy blok składa się z szeregu konfigurowalnych jednostek ALU i jest odpowiedzialny za generowanie i porównywanie mieszania Z, MSAA;
  • Zintegrowana obsługa RAMDAC, dwóch portów Dual Link DVI oraz HDMI i DisplayPort;
  • Zintegrowana obsługa czterech monitorów, w tym dwóch portów Dual Link DVI, a także HDMI 1.4a i DisplayPort 1.2;
  • Obsługa magistrali PCI Express 3.0.

Specyfikacje referencyjnej karty graficznej Geforce GTX 780 Ti

  • Częstotliwość rdzenia 875 (928) MHz;
  • Liczba procesorów uniwersalnych 2880;
  • Liczba bloków tekstur - 240, bloków mieszania - 48;
  • Efektywna częstotliwość pamięci 7000 (1750×4) MHz;
  • Typ pamięci GDDR5, 384-bitowa magistrala pamięci;
  • Pojemność pamięci 3 GB;
  • Przepustowość pamięci 336 GB/s;
  • Wydajność obliczeniowa (FP32): 5,0 teraflopów;
  • Teoretyczna maksymalna szybkość wypełniania wynosi 42 gigapiksele na sekundę;
  • Teoretyczna częstotliwość próbkowania tekstury wynosi 210 gigatekseli na sekundę;
  • Dwa złącza Dual Link DVI-I, jedno Mini-HDMI, jedno DisplayPort 1.2;
  • Magistrala PCI Express 3.0;
  • Typowy pobór mocy (TDP): 250 W;
  • Jedno 8-pinowe i jedno 6-pinowe złącze zasilania;
  • Konstrukcja z dwoma gniazdami;
  • Sugerowana cena na rynek amerykański to 699 dolarów (dla Rosji – 24 990 rubli).

Nazwa nowej płyty jest zgodna z systemem nazewnictwa przyjętym w obecnej rodzinie Geforce GTX 700. Nvidia nadała swojej najszybszej karcie graficznej taką samą nazwę, jak słabsza karta GTX 780, ale dodała przyrostek „Ti” (nie mylić z Titan! ). Nowa karta Geforce GTX 780 Ti będzie sprzedawana w USA za 699 dolarów (w naszym kraju – za 25 tysięcy rubli, wliczając podatki i dodatkowe wydatki). Znajduje się w linii Nvidii nad Geforce GTX 780, a model ma pojawić się na naszym rynku po 15 listopada.

Pomimo nowego, potężnego produktu, karta Geforce GTX Titan, która kosztuje aż 1000 dolarów, będzie nadal istnieć w równoległym wszechświecie, sprzedawana jako specjalistyczne rozwiązanie dla programistów CUDA, którzy potrzebują pełnego przetwarzania danych w formacie o podwójnej precyzji, a także duża ilość pamięci lokalnej 6 GB. Dla tych, którzy nie potrzebują tych funkcji, a chcą po prostu maksymalnej wydajności 3D, lepiej sprawdzi się najszybsza karta graficzna Geforce GTX 780 Ti ze zwiększoną liczbą rdzeni przetwarzających, pracująca z wyższą częstotliwością.

Jeśli chodzi o rozwiązania AMD, które mogą być konkurentami zaprezentowanego dzisiaj GTX 780 Ti, wszystko jest proste. AMD nie ma bezpośredniego rywala dla nowego modelu, Radeon R9 290X będzie wyraźnie nieco wolniejszy od GTX 780 Ti, który z kolei powinien w grach przebić nawet GTX Titan. Jednak pomimo tego, że w rodzinie Radeon R9 realnego rywala dla GTX 780 Ti nie ma, nowy produkt porównamy z najbliższy cenowo R9 290X i będący topowym jednoukładowym modelem AMD.

Jedyną rzeczą, która nas trochę niepokoi w charakterystyce GTX 780 Ti, jest to, że ilość pamięci wideo w porównaniu do GTX Titan została nadal zmniejszona, umieszczając jedynie 3 GB pamięci wideo w GTX 780 Ti, a nie 6 GB, podobnie jak ekskluzywna płyta. Tak, dzisiaj ta głośność jest nadal wystarczająca, a różnicę można zauważyć tylko w ultrawysokich rozdzielczościach, na wyjściu obrazu na wielu monitorach lub renderowaniu stereo. Jednak w najbliższej przyszłości, wraz z upowszechnieniem się gier na konsole nowej generacji, 3 GB może już nie wystarczyć. Zawsze jednak można mieć nadzieję, że wypuszczenie modeli GTX 780 Ti z 6 GB pamięci wideo zostanie zorganizowane przez partnerów Nvidii, chyba że kalifornijska firma surowo zabroni tego w imię sprzedaży kilkudziesięciu płyt GTX Titan rocznie .

Płytka PCB referencyjnej karty Nvidia Geforce GTX 780 Ti ma długość 10,5 cala (267 mm) – dokładnie taką samą jak GTX 780. Do wyjścia obrazu płyta jest wyposażona w dwa złącza Dual-Link DVI, jedno HDMI i jedno DisplayPort. Port 1.2, jak w młodszym modelu. Aby zasilić kartę graficzną, ma ona zwykłe dodatkowe złącza zasilania dla najlepszych modeli: jedno 8-pinowe i jedno 6-pinowe złącze. Konstrukcja obudowy jest podobna do płyt GTX Titan i GTX 780 i jest podobna do konstrukcji dwuchipowej karty graficznej Geforce GTX 690.

Ciekawą nowością związaną z systemem zasilania karty graficznej, która pojawiła się w GeForce GTX 780 Ti, jest funkcja regulacji mocy (równoważenia), która jest bardzo ważna w przypadku poważnego podkręcania układu wideo. Jak wiadomo, nowoczesne najwyższej klasy karty graficzne są zasilane z trzech źródeł: z 8-pinowych i 6-pinowych dodatkowych złączy zasilania, a także ze złącza PCI Express. W normalnych warunkach moc pobierana przez kartę graficzną z tych źródeł jest zrównoważona, ale po podkręceniu karta graficzna może wymagać znacznie większej mocy z jednego z tych trzech źródeł w porównaniu do pozostałych, co może powodować pewne problemy ze stabilnością.

Nowa funkcja zarządzania energią, która pojawiła się w Geforce GTX 780 Ti, pozwala skierować otrzymaną energię z jednego źródła do drugiego. Innymi słowy, gdy możliwości jednego ze źródeł zostaną wyczerpane, karta graficzna otrzyma potrzebną moc od innych. Powinno to skutecznie pomóc w poważnym overclockingu i może pozwolić GeForce GTX 780 Ti na osiągnięcie najwyższej możliwej częstotliwości w porównaniu do poprzednich modeli na tej samej karcie graficznej: Geforce GTX Titan i GTX 780.

Architektura graficzna

Podobnie jak jego topowi poprzednicy, nowy GeForce GTX 780 Ti bazuje na najbardziej wyrafinowanym procesorze graficznym, który po raz pierwszy znalazł praktyczne zastosowanie w urządzeniach komputerowych ogólnego przeznaczenia Nvidia Tesla. Najwyższej klasy procesor graficzny firmy obsługuje wszystkie funkcje znane od GK104 (Geforce GTX 680), a wszystkie cechy architektury Kepler odnoszą się do niego w pełni. Pełna wersja procesora graficznego GK110 zawiera pięć klastrów przetwarzania grafiki (GPC), z których każdy składa się z trzech wieloprocesorów SMX:

W sumie GK110 składa się z 15 wieloprocesorów SMX zawierających 192 jednostki obliczeniowe. Każdy wieloprocesor ma jeden silnik PolyMorph i 16 jednostek filtrujących tekstury. Podsystem pamięci GK110, na którym bazuje karta Geforce GTX 780 Ti, zawiera sześć 64-bitowych kanałów pamięci, co daje w sumie 384-bitowy dostęp do pamięci. A ponieważ rastrowe bloki operacyjne ROP są „powiązane” z kontrolerami pamięci, ich liczba w tym GPU wynosi 48 bloków. Pojemność pamięci podręcznej L2 dla całego układu wynosi 1,5 MB.

Model Geforce GTX 780 Ti oparty jest na procesorze graficznym GK110 z 2880 rdzeniami obliczeniowymi i różni się od wszystkich poprzednich modeli opartych na tym chipie tym, że wszystkie 15 bloków SMX w GK110, połączonych w pięć klastrów GPC, jest odblokowywanych i wykorzystywanych w działaniu. Ale nawet Geforce GTX Titan bazuje na wersji GK110 z wyłączonym jednym wieloprocesorem SMX, nie mówiąc już o modelu GTX 780, który ma jeszcze mniej aktywnych jednostek obliczeniowych. Topowa nowość Nvidii zawiera o jedną czwartą więcej rdzeni przetwarzających w porównaniu do Geforce GTX 780. Liczba jednostek teksturujących TMU w tej wersji chipa wynosi 240, a nie ma ograniczeń co do jednostek ROP - wszystkie 48 działają.

Aby było to możliwe, Nvidia wypuściła specjalną nową wersję tego procesora graficznego, która została zoptymalizowana w celu osiągnięcia lepszej efektywności energetycznej. Stosunek wydajności do zużycia energii w układach wideo architektury Kepler jest już całkiem dobry od czasu Geforce GTX 680 opartego na GK104, ale w zaktualizowanym GK110 został jeszcze bardziej zwiększony, co pozwoliło zapewnić działanie układu wideo przy wystarczająco wysokiej częstotliwości taktowania, przy odblokowanych wszystkich wieloprocesorach w GPU.

Podsystem pamięci karty Geforce GTX 780 Ti pozostaje niezmieniony w porównaniu z poprzednimi rozwiązaniami opartymi na GK110 i zawiera sześć 64-bitowych kontrolerów pamięci, co daje łącznie 384-bitową magistralę. Zastosowano pamięć GDDR5 o pojemności 3 GB (w przypadku opcji referencyjnych partnerzy firmy mogą wypuścić opcje 6 GB). Ale częstotliwość pamięci wideo w GeForce GTX 780 Ti została zwiększona nawet w porównaniu do Titana i wynosi 7000 MHz (częstotliwość efektywna), więc zapewnia przyzwoitą przepustowość 336 GB/s, czyli nawet więcej niż konkurencyjny model AMD Radeon R9 290X, posiadający 512-bitową magistralę pamięci. Dziś ten model ma najszybszą pamięć wideo i maksymalną przepustowość pamięci dla jednoukładowych kart graficznych.

Bazowa częstotliwość procesora graficznego w modelu Geforce GTX 780 Ti wynosi 875 MHz, a częstotliwość turbo („Boost Clock”) wynosi 928 MHz. Naturalnie nowy model obsługuje technologię GPU Boost 2.0, która zapewnia pracę chipa wideo z najwyższą możliwą częstotliwością w różnych warunkach. Jednocześnie Boost 2.0 gwarantuje także minimalny poziom wydajności, niezależny od warunków zasilania i chłodzenia w postaci częstotliwości bazowej, poniżej której częstotliwość nie spadnie. Wskazana częstotliwość turbo jest średnią dla zestawu nowoczesnych gier i aplikacji 3D, na których działa procesor graficzny tej karty graficznej, a rzeczywista częstotliwość w grach będzie różna dla każdej aplikacji, a także zależy od warunków chłodzenia.

Oczywiste jest, że Geforce GTX 780 Ti obsługuje wszystkie nowoczesne technologie Nvidii, o których pisaliśmy wcześniej kilkukrotnie, w tym Adaptive VSync i PhysX. Wszystkie te technologie zostały szczegółowo opisane w poprzednich recenzjach karty graficznej rodziny Kepler, do których linki znajdują się na początku strony. Ponieważ Geforce GTX 780 Ti opiera się na najwyższej klasy procesorze graficznym GK110 o tej samej architekturze, nowy model oferuje wszystkie nowoczesne funkcje w postaci DirectX 11, PhysX, TXAA, adaptacyjnego VSync i innych technologii.

Gry i współpraca z twórcami gier

Jak zawsze, sprzęt w kartach graficznych, choć najważniejszy, nie jest jedyny. Dużą rolę odgrywa także wsparcie oprogramowania i dotyczy to nie tylko zoptymalizowanych sterowników graficznych wydanych na czas, czym zajmuje się odpowiedni dział Nvidii, ale także współpracy z twórcami gier w postaci pomocy i wygodnych narzędzi do wdrażania nowoczesnych efektów, a także pomoc w optymalizacji kodu gry pod własne rozwiązania.

Nvidia jest uznanym liderem we współpracy z twórcami gier, mają od dawna wiele odpowiednich programów, a projekty gier wydane przy pomocy Nvidii są łączone w dobrze znany program The Way It's Meant To Be Played (TWIMTBP). Aby praca programistów była łatwiejsza, firma niedawno wyszła z kolejną uogólnioną inicjatywą o nazwie GameWorks, która ma na celu przyspieszenie i uproszczenie wdrażania nowych efektów graficznych w grach.

Program GameWorks zawiera wiele narzędzi i technologii, jest efektem pracy kilkuset inżynierów Nvidii pracujących nad najnowocześniejszymi i najbardziej zaawansowanymi technologicznie algorytmami związanymi z efektami graficznymi i fizycznymi. W ciągu kilku lat firma zebrała najlepsze efekty, narzędzia, algorytmy, silniki, biblioteki itp. w coś, co jest obecnie znane jako GameWorks. Co więcej, w ramach tej kampanii inżynierowie Nvidii kontynuują współpracę z twórcami gier, pomagając im we wdrażaniu efektów, naprawianiu błędów, poprawianiu wydajności 3D w swoich projektach i poznawaniu nowych technologii graficznych.

Efekt prac Nvidii w tym kierunku, w tym współpracy w ramach programu GameWorks, można zobaczyć w dużej liczbie najnowszych i najpopularniejszych gier. Wszystkie otrzymują dodatkowe efekty, optymalizacje wydajności i inne wsparcie w ramach współpracy z Nvidią. Oto kilka najnowszych przykładów:

Efekty zawarte w powyższych grach obejmują wolumetryczne promienie świetlne („boskie promienie”) w Assassin's Creed 4: Black Flag, obsługę efektów fizycznych GPU PhysX w Call of Duty: Ghosts, Batman: Arkham Origins i The Witcher: Wild Hunt, imitację Globalne oświetlenie HBAO+ w Watch_Dogs i prawie wszystkich tych grach, teselacja DirectX 11 w większości projektów itp. itp.

Cóż, GeForce GTX 780 Ti jest niewątpliwie najlepszą kartą graficzną, która pozwala cieszyć się wszystkimi tymi technologiami i efektami, w maksymalnej jakości i przy dowolnej rozdzielczości renderowania. A gracze, którzy nabyli już monitory Ultra HD (tak, oba), mogą uzyskać akceptowalną wydajność w grach takich jak Batman: Arkham Origins i Assassin's Creed 4: Black Flag na najpotężniejszym modelu Geforce GTX 780 Ti lub nawet na kilku te karty graficzne połączone w system SLI.

Przykładowo w grze Assassin's Creed IV: Black Flag z włączonymi wszystkimi efektami: DX11 (teselacja), HBAO+, cienie wykorzystujące algorytm cieni utwardzających cfontact, wolumetryczne promienie boga, antyaliasing metodą 2x TXAA i renderowanie w Ultra HD Rozdzielczość (3840×2160) będzie wymagać systemu pary kart graficznych Geforce GTX 780 Ti w trybie SLI, aby uzyskać jedynie około 32 FPS.

I grać w Batman: Arkham Origins ze wszystkimi efektami: teselacją, HBAO+, ulepszonymi cieniami (cienie utwardzające się kontaktowo), głębią ostrości (głębia ostrości), PhysX (systemy cząstek, turbulencje i imitacja tkanek), antyaliasing 4x TXAA w rozdzielczości Ultra HD, - potrzebne są także dwie karty Geforce GTX 780 Ti - zapewnią one w tej grze 46 FPS. Czego nie zrobią pasjonaci gier na PC, na jakie wydatki nie poniosą, żeby mieć jasny obraz.

Zobaczmy, czy grafika w Batman: Arkham Origins jest warta wydania na kilka drogich kart graficznych. Po pierwsze, ta gra wykorzystuje technologię Nvidia PhysX do tworzenia realistycznych efektów fizycznych. Ustawienia gry umożliwiają całkowite wyłączenie efektów fizycznych, jednak gra wygląda znacznie piękniej i realistyczniej, gdy efekty PhysX są ustawione przynajmniej na poziomie „Normalny”, gdy włączona jest imitacja tkaniny dla postaci i niektórych obiektów: flag, banerów, prześcieradeł papieru itp. Po ustawieniu PhysX na „Wysoki” włączane są efekty modułu Turbulencji APEX, które wzmacniają efekty w przypadku systemów cząstek, takich jak dym, śnieg, para i mgła.

Chociaż „normalny” tryb PhysX (z efektami imitacji tkaniny) można włączyć w systemach z dowolną kartą graficzną, pełnoprawne efekty PhysX będą wymagały nowoczesnej karty graficznej Nvidia z obsługą DirectX 11 i pamięci wideo 1 GB lub więcej. Przy maksymalnych ustawieniach jakości (PhysX ustawiony na „High”, antyaliasing TXAA, HBAO+, ulepszone cienie, włączona teselacja) i przy wysokich rozdzielczościach zaleca się używanie kart graficznych na poziomie Geforce GTX 780 i wyższych.

Przyjrzyjmy się bliżej efektom zastosowanym w tej grze. PhysX Cloth jest używany w Batman: Arkham Origins do renderowania realistycznych obiektów, takich jak kartki papieru, ubrania postaci, banery i peleryna głównego bohatera – wszystkie one wchodzą w interakcję z innymi obiektami w sposób podobny do rzeczywistych.

Drugim ciekawym efektem jest Turbulencja APEX. Są to przyspieszane sprzętowo algorytmy fizyki PhysX, które pomagają tworzyć efekty wielocząstkowe, takie jak dym, śnieg, para i mgła wolumetryczna. Wszystkie dynamicznie oddziałują ze światem zewnętrznym, poddawanym działaniu grawitacji, wiatru, eksplozji itp. Co więcej, duszki cząsteczkowe mogą rzucać cienie na siebie nawzajem oraz na otoczenie, korzystając z algorytmu mapowania cieni cząstek, co nadaje im jeszcze bardziej realistyczny wygląd.

Gra wykorzystuje teselację sprzętową i mapowanie przemieszczeń, aby renderować pelerynę Batmana, nadając ubraniu dodatkowe szczegóły i realizm. Płaszcz bez mozaiki ma znacznie mniej szczegółów i nie wygląda na tak obszerny, ponieważ jego fałdy nie mogą rzucać na siebie cienia. Teselację peleryny głównego bohatera można włączyć, ustawiając opcję „Szczegóły geometrii” na „Ulepszone DX11”.

Do renderowania realistycznych deformacji zalegającego śniegu wykorzystywana jest także teselacja sprzętowa DirectX 11 z mapami przemieszczeń. Przy wyłączonej teselacji stosowany jest algorytm per-piksel, który daje dobre wyniki, jednak są one zbyt płaskie, pozbawione detali geometrycznych, które są również potrzebne do prawidłowego obliczenia symulacji globalnego oświetlenia, aby poprawnie zacienić scenę. Gdy włączona jest teselacja, stosowane są dynamiczne mapy przemieszczeń, które deformują rzeczywistą powierzchnię geometryczną. Dzięki temu znikają powyższe problemy, ślady na śniegu nabierają objętości, prawidłowo współdziałają z cieniami i imitacją globalnego oświetlenia (okluzja otoczenia HBAO+).

Efekt symulowania głębi ostrości w optyce (Depth of Field - DOF) jest od dawna stosowany w grach, ale różne algorytmy znacznie różnią się od siebie złożonością. Jedną z najbardziej zaawansowanych jest Nvidia Depth-of-Field (NVDOF) - technika ta jest w stanie renderować duży efekt bokeh przy stałej wydajności. Efekt działa i nie jest zauważalny wszędzie, ale przy opcji „Głębia ostrości” ustawionej w „Ulepszone DX11” NVDOF jest używany w niektórych scenach gier, w których twarze postaci, gadżety itp. zbliżają się do kamery.

Aby ulepszyć technikę symulowania globalnego oświetlenia (Screen Space Ambient Occlusion - SSAO), Nvidia opracowała algorytm HBAO+, który działa dość szybko podczas renderowania w pełnej rozdzielczości 1920x1200 na procesorach graficznych poziomu GeForce GTX 660 i wyższych i jest szczególnie skuteczny na procesorach graficznych z Obsługa DirectX 11 Wynik HBAO+ wygląda jeszcze lepiej niż ten uzyskany przy zwykłym HBAO, szczególnie w scenach z cienkimi i wąskimi obiektami, takimi jak liście i trawa.

Algorytm Nvidia HBAO+ charakteryzuje się wyższą jakością i mniejszym obciążeniem zasobów obliczeniowych w porównaniu z podobnymi technikami. Nvidia podaje następujące liczby: obliczenie bufora HBAO+ na karcie Geforce GTX 680 przy rozdzielczości 1920x1200 zajmuje 2,7 ms na klatkę, podczas gdy tradycyjny algorytm HBAO wymaga 9,2 ms w tych samych warunkach (biorąc pod uwagę czas renderowania wszystkich przejść wymaganych do obliczyć globalne oświetlenie symulacyjne).

Batman: Arkham Origins do renderowania cieni wykorzystuje technologię Percentage-Closer Soft Shadows (PCSS), która uzupełnia oryginalny algorytm cieni projekcyjnych. Aby ją włączyć, należy ustawić opcję „Dynamiczne cienie” na „Ulepszone DX11”. PCSS dotyczy wszystkich modeli postaci i zapewnia kilka ulepszeń: krawędzie cieni stają się bardziej rozmyte w miarę oddalania się od źródła światła, wysokiej jakości filtrowanie mapy cieni służy do eliminacji aliasingu, a użycie bufora cieni eliminuje nieprawidłowe nakładanie się wielu cieni . Wygląda na to, że postać na zrzucie ekranu używa ulepszonego algorytmu PCSS, podczas gdy inne obiekty (spójrz na postrzępiony cień po prawej stronie) używają uproszczonego algorytmu.

Również najnowsza gra z serii Batman wykorzystuje pełnoekranowy antyaliasing z wykorzystaniem metody TXAA. To stosunkowo nowa metoda wygładzania, o której pisaliśmy już nie raz. Jego głównym zadaniem jest eliminacja tymczasowych artefaktów, takich jak migoczące piksele na krawędziach obiektów podczas ruchu. TXAA to połączenie sprzętowego antyaliasingu i specjalnego przetwarzania końcowego - filtra czasowego. Metoda zapewnia wysokiej jakości antyaliasing, jednak obraz jest lekko rozmyty, co nie każdemu się podoba. Różnica między TXAA i FXAA polega na tym, że ten drugi ma zapewniać maksymalną wydajność kosztem obniżonej jakości, podczas gdy ten pierwszy ma zapewniać maksymalną jakość przy dodatkowych (niewielkich) stratach wydajności.

Cóż, są takie fajne gry jak Batman: Arkham Origins i Assassin’s Creed 4: Black Flag, ale i tak trzeba za nie płacić… Pierwsi zadowoleni klienci Geforce GTX 780 Ti nie potrzebują tego! Ci, którzy do końca tego roku zakupili topową nowość, otrzymają od partnerów Nvidii bezpłatne cyfrowe kopie gier Assassin's Creed IV: Black Flag, Batman: Arkham Origins i Splinter Cell Blacklist. Tym samym najszybsza jednoukładowa karta graficzna ma został uzupełniony o trzy kolejne nowoczesne gry wykorzystujące najnowszą technologię graficzną. A nabywcy kart Geforce GTX 780 Ti z Ameryki Północnej będą jeszcze bardziej szczęśliwi, ponieważ jeśli kupią nowy produkt Nvidii przed 21 listopada, otrzymają także kupon rabatowy o wartości 100 USD na zakup karty Nvidia Konsola do gier z kieszenią tarczową.

Geforce Experience 1.7 z nową funkcją ShadowPlay

O Geforce Experience (GFE) pisaliśmy w naszych artykułach już nie raz, a od chwili premiery jest on zainstalowany na milionach systemów gamingowych na całym świecie. Jest to część sterowników Nvidii, która zapewnia dodatkowe możliwości niezwiązane bezpośrednio z pracą procesora graficznego. Głównym zadaniem GFE jest terminowa aktualizacja sterowników kart graficznych Geforce i optymalizacja ustawień gry dla systemu użytkownika, w oparciu o wymagania systemowe gry i konfigurację komputera.

Dosłownie jednym kliknięciem myszy możesz zoptymalizować ustawienia graficzne gier zainstalowanych na komputerze użytkownika, tak aby zapewnić wystarczającą wydajność przy optymalnej jakości obrazu. GFE jest w stanie znaleźć i zainstalować optymalne ustawienia dla ponad stu gier i wszystkich nowoczesnych procesorów graficznych firmy, w tym Geforce GTX 780 Ti.

Oprócz optymalizacji gier, Geforce Experience automatycznie sprawdza również dostępność zaktualizowanych wersji sterowników Nvidia, pobiera je i instaluje, co znacznie ułatwia aktualizację sterowników zoptymalizowanych pod kątem najnowszych gier.

Jednak najciekawszą funkcją, która pojawiła się 28 października w najnowszej wersji, oprócz nowych profili, zaktualizowanych ustawień gier i innych nowych funkcji, było długo obiecane narzędzie Nvidii do przechwytywania wideo o nazwie ShadowPlay.

ShadowPlay to proste, bezpłatne narzędzie do przechwytywania rozgrywki w ruchu przy użyciu sprzętowego kodera H.264 NVENC wbudowanego we wszystkie nowoczesne procesory graficzne obsługujące karty graficzne Nvidia Geforce GTX 600 i 700. W związku z tym zalety ShadowPlay obejmują: Minimalny wpływ na ogólną wydajność (poniżej 10%) ze względu na zastosowanie sprzętowego modułu kodowania wideo w firmie Kepler, nagrywanie filmów w rozdzielczości 1920x1080 z częstotliwością odświeżania 60 kl./s i przepływnością do 50 Mbit/s, nieograniczony czas nagrywania w trybie ręcznym (Windows tylko 8) i 10-20-minutowe filmy w trybie nagrywania ciągłego Shadow Mode. Niestety czas nagrywania w systemie Windows 7 jest ograniczony rozmiarem pliku wynoszącym 4 GB ze względu na specyfikę tej wersji systemu operacyjnego.

Najciekawszym trybem jest Shadow, który nagrywa rozgrywkę w sposób ciągły, bez konieczności wciskania przycisków przy rozpoczęciu nagrywania; w tym trybie ostatnie 10 lub 20 minut (w zależności od systemu operacyjnego) rozgrywki zapisywane jest po prostu w specjalnym buforze na dysku Napęd. W dowolnym momencie, jeśli w grze wydarzył się jakiś ciekawy moment wymagający zapisania (celny strzał snajperski w strzelance sieciowej, śmieszne „robaki” z przenikaniem przez ściany itp.), możesz wcisnąć kombinację klawiszy „Alt+F10” do, aby zapisać wideo w osobnym pliku. Aby nagrać całą sesję gry, musisz wybrać tryb nagrywania ręcznego za pomocą kombinacji klawiszy „Alt + F9”.

Ponieważ wideo jest zapisywane w zwykłym formacie H.264, do dalszego wykorzystania i edycji można użyć dowolnego popularnego edytora wideo: Sony Vegas, Adobe Premiere i ich bezpłatnych odpowiedników obsługujących kontener MP4 i format H.264. Możesz także od razu wgrać plik wideo na YouTube, a w przyszłych wersjach Geforce Experience możliwa będzie integracja z serwisem internetowym Twitch.tv, co umożliwi użytkownikom ShadowPlay przesyłanie do Twitcha tego, co nagrali.

Ze względu na fakt, że funkcja ShadowPlay wykorzystuje sprzętową jednostkę kodującą H.264, która jest wbudowana we wszystkie procesory graficzne Nvidia z rodziny Geforce GTX 600 i 700, minimalne wymagania obejmują kartę graficzną Geforce GTX 650, a mobilne procesory graficzne nie są jeszcze utrzymany. Z funkcji nagrywania można korzystać w grach korzystających z DirectX 9 i nowszych wersji. Mniejsze wymagania wobec GPU uzasadnia się faktem, że kodowanie sprzętowe ma wyraźną przewagę nad rozwiązaniami programowymi wykorzystującymi zasoby procesora, takimi jak FRAPS. Kodowanie sprzętowe na procesorze graficznym zmniejsza ogólną wydajność zaledwie o kilka procent, nawet podczas nagrywania filmów z maksymalną jakością, podczas gdy metody programowe zwykle wymagają znacznie więcej.

Wśród innych innowacji w Geforce Experience 1.7 wyróżnimy kilka kolejnych funkcji. W ten sposób Geforce GTX LED Visualizer umożliwia skonfigurowanie niestandardowej jasności, migotania i trybu wzoru dla diod LED podświetlających logo w kartach graficznych, takich jak Geforce GTX 690, GTX 770, GTX 780, GTX 780 Ti i GTX Titan. A Nvidia GameStream 1.0 umożliwia granie w gry komputerowe za pomocą konsoli do gier Shield, gdzie obraz jest renderowany na komputerze i bezprzewodowo przesyłany do konsoli przenośnej. Dodatkowo, począwszy od wersji Geforce Experience 1.7, dodano optymalne ustawienia gry dla kilkudziesięciu gier wspieranych przez GFE dla rozdzielczości 3840x2160 (Ultra HD lub 4K). Wszystkie gry wydane w przyszłości będą początkowo miały optymalne ustawienia dla tej rozdzielczości w GFE.

Teoretyczne porównanie z Radeonem R9 290X

Co ciekawe, tym razem w swoich materiałach prasowych Nvidia dokonała bezpośredniego i szczegółowego porównania nowego produktu z konkurentem w postaci Radeona R9 290X. Zwykle sprawa ograniczała się do kilku diagramów ze zwykłymi czerwonymi i zielonymi słupkami, jednak tym razem szczegółowo opisano wszystkie zalety ich produktu i wady konkurencyjnego produktu.

Nvidia uważa na przykład za jedną z najważniejszych zalet GeForce GTX 780 Ti w porównaniu do Radeona R9 290X wyższą wydajność energetyczną i stabilność podczas pracy na wysokich częstotliwościach przy maksymalnym obciążeniu. Jednocześnie podano interesujące dane porównawcze między Geforce GTX 780 Ti i Radeonem R9 290X (w obliczeniach uwzględniane jest całkowite zużycie karty graficznej, w tym pamięci wideo i innych komponentów, a nie tylko procesora graficznego):

Według Nvidii model Radeon R9 290X zużywa znacznie więcej przy maksymalnej częstotliwości procesora graficznego: 290 W w porównaniu do 250 W w przypadku GTX 780 Ti. Jednocześnie konkurentom trudniej jest odprowadzić ciepło wydzielające się z procesora graficznego, ponieważ procesor graficzny Hawaii zastosowany w R9 290X ma mniejszą powierzchnię: 455 mm 2 w porównaniu do 533 mm 2 w przypadku GK110, na którym Oparty jest na karcie Geforce GTX 780 Ti.

Naturalnie AMD musi usunąć więcej ciepła z każdego milimetra powierzchni procesora graficznego. Nic dziwnego, że niższa gęstość cieplna (stosunek wytworzonego ciepła do powierzchni chipa) oznacza bardziej wydajne chłodzenie, co skutkuje wyższymi częstotliwościami taktowania i wydajnością, a także cichszym wentylatorem chłodzącym. A jeśli zainstalowanie mocniejszej chłodnicy może w jakiś sposób usunąć wytworzone ciepło z Radeona R9 290X, to problemów z hałasem układu chłodzenia nie da się rozwiązać.

Tym samym Nvidia zamieniła wadę większej powierzchni chipa, przekładającą się na zwiększone koszty produkcji, w fundamentalną zaletę swojej architektury graficznej. Innymi słowy, według Nvidii prawie specjalnie produkują duże chipy, aby osiągnąć lepsze chłodzenie i wydajność. W rezultacie karta Geforce GTX 780 Ti jest wyraźnie bardziej energooszczędna niż Radeon R9 290X, dzięki czemu jest cichsza i chłodniejsza. Według Nvidii procesor graficzny w Radeonie R9 290X pracuje w temperaturach do 95 stopni Celsjusza, podczas gdy temperatura układu wideo Geforce GTX 780 Ti w tych samych warunkach nie przekracza 83 stopni.

Jest jeszcze jeden punkt związany z wydajnością energetyczną i wysokim zużyciem energii, który pozwala GeForce GTX 780 Ti pracować na wyższych częstotliwościach przy dużych obciążeniach obliczeniowych. Na poniższym wykresie Nvidia pokazuje rzeczywiste taktowanie kart GeForce GTX 780 Ti i Radeon R9 290X jednego z producentów (w „trybie cichym”, co ważne), które renderują sceny z gry Crysis 3 przez 20 minut w temperaturze rozdzielczość 2560x1440:

Jak zauważa Nvidia, zegary obu procesorów graficznych zaczynają się od około 1 GHz, ale wraz ze wzrostem obciążenia 3D częstotliwości taktowania zaczynają się zmieniać, zaczynając od około dwóch minut. Pracujący w trybie cichym układ graficzny Radeon R9 290X obniża częstotliwość do 727 MHz, a GeForce GTX 780 Ti, dzięki wysokiej efektywności energetycznej i mniejszej gęstości rozpraszania ciepła, w dalszym ciągu pracuje z częstotliwością 940 MHz z gwarantowaną częstotliwością 875 MHz. A średnia częstotliwość GPU w ciągu 20 minut w przypadku GeForce GTX 780 Ti jest zauważalnie wyższa niż w przypadku Radeona R9 290X: 968 MHz w porównaniu do 799 MHz.

Pomimo tego, że w sposób polubowny konieczne było przetestowanie Radeona R9 290X w trybie super („Uber”), Nvidia zwróciła uwagę na ważny punkt - w końcu gracze nie przestają grać po kilku minutach, ale robią to dla kilkadziesiąt minut lub nawet godzin, w przeciwieństwie do testów wydajnościowych, które bardzo rzadko trwają dłużej niż jedną lub dwie minuty. Innymi słowy, spadek poniżej 1 GHz w przypadku AMD Radeon R9 290X może znacznie obniżyć wydajność w rzeczywistych warunkach w porównaniu z tym, co widzimy w krótkich testach porównawczych we wszystkich witrynach.

Nvidia zaleca nawet rozgrzewanie testowanych procesorów graficznych przez co najmniej pięć minut, aby uzyskać prawdziwy obraz wydajności, jaki zobaczy użytkownik końcowy. Poza tym twierdzą, że ich rozwiązania GPU Boost zapewniają gwarantowaną częstotliwość bazową (875 MHz w przypadku GTX 780 Ti), poniżej której rzeczywista częstotliwość nie spadnie nawet w najgorszych warunkach, a AMD podaje jedynie częstotliwość szczytową dla rozwiązań, co nigdy nie jest osiągane.

W rzeczywistości zatem różnica w wydajności pomiędzy GeForce GTX 780 Ti a Radeonem R9 290X (przynajmniej w trybie cichym) może być jeszcze większa niż w testach. Ponieważ częstotliwość układu wideo Radeon R9 290X może poważnie spaść przy długotrwałym obciążeniu, gracze nie otrzymają poziomu wydajności deklarowanego przez AMD. Jest to jednak temat na osobne opracowanie, które wymaga czasu i ostrożnego podejścia. Jednocześnie zdecydowanie warto zapoznać się z trybem Uber dla Radeona R9 290X.

Wstępna ocena wydajności

Przejdźmy teraz do kwestii wstępnej oceny wydajności nowego rozwiązania. Model Geforce GTX 780 Ti bazuje na tym samym GK110, który zastosowano w GTX Titan i GTX 780, ale ma 2880 aktywnych rdzeni obliczeniowych, czyli o jedną czwartą więcej niż liczba jednostek matematycznych w młodszym modelu bez przyrostka. Istnieją zalety w porównaniu z niegdyś najlepszym rozwiązaniem jednoukładowym, zarówno pod względem szybkości teksturowania, jak i przepustowości pamięci wideo: 336 GB/s w porównaniu z 288 GB/s.

Najpierw oceńmy teoretyczną wydajność GeForce GTX 780 Ti na podstawie liczb szczytowych uzyskanych z teoretycznych wskaźników liczby jednostek wykonawczych i częstotliwości procesora graficznego.

W większości wskaźników szczytowych GeForce GTX 780 Ti przewyższa wszystkie inne karty graficzne, z wyłączeniem tylko najpotężniejszych rozwiązań dwuchipowych. Bazując na teorii, GTX 780 Ti ma o 24% większą wydajność geometrii, o 35% większą prędkość jednostek teksturowania oraz nieco wyższą wydajność matematyczną i przepustowość pamięci niż jej konkurent AMD.

Oczywiście diagram Nvidii nie pokazuje wydajności jednostek ROP, których Hawaii w Radeonie R9 290X ma o jedną trzecią więcej. Jednak ta różnica może mieć negatywny wpływ na ogólną wydajność w najwyższych rozdzielczościach i przy renderowaniu na wielu monitorach.

Ale to wszystko w teorii, ale na co przekłada się ta teoretyczna przewaga GeForce GTX 780 Ti, jeśli spojrzysz na prędkość renderowania w grach? Sama Nvidia zapewnia następujące porównanie kilku nowoczesnych projektów gier:

Gry te zostały uruchomione na systemie testowym z procesorem Intel Core i7-3960X (3,3 GHz), przy wysokich ustawieniach, z włączonym antyaliasingiem na pełnym ekranie i w rozdzielczości 2560x1440. To drugie oznacza, że ​​mniejsza liczba ROP i mniejsza lokalna pamięć wideo karty GeForce GTX 780 Ti prawdopodobnie nie miały wpływu na średnią liczbę klatek na sekundę w porównaniu z Radeonem R9 290X.

Tak więc, dzięki dużej liczbie aktywnych jednostek wykonawczych pracujących na wysokich częstotliwościach, GeForce GTX 780 Ti wykazuje zauważalnie wyższą wydajność w grach testowanych przez Nvidię w porównaniu do swojego głównego konkurenta. Tym samym Geforce GTX 780 Ti zapewnia o ponad 40% wyższą prędkość renderowania w grach Assassin’s Creed 3 i Far Cry 3, a w Batman: Arkham City, Tomb Raider i Metro Last Light przewaga nowego produktu przekracza 30%.

W pozostałych grach wskazanych na schemacie Geforce GTX 780 Ti, choć szybszy od Radeona R9 290X, nie prezentuje się już tak imponująco. Tym samym w Crysis 3 i Battlefield 3 (wydaje się, że czwarta część gry nie została jeszcze dostarczona Nvidii) przewaga kalifornijskiej planszy wynosi zaledwie 10%. Trzeba pamiętać, że jest to ocena Nvidii, czyli jednej z zainteresowanych stron, a niezależne testy wydajności w grach znajdziecie w trzeciej części naszego materiału.

Według naszych wstępnych szacunków okazuje się, że najpotężniejszą kartą graficzną w grach 3D powinna stać się Geforce GTX 780 Ti, włączając w to konkurencyjnego Radeona R9 290X oraz Geforce GTX Titan, który nominalnie nie należy do „gamingowego ” i kosztuje znacznie więcej. Chociaż topową nowością jest karta graficzna dla zamożnych entuzjastów gier komputerowych i entuzjastów overclockingu, zapewnia ona lepsze możliwości znacznie szerszemu gronu potencjalnych nabywców niż ówczesny GTX Titan.

Jedyną potencjalną wadą GTX 780 Ti jest stosunkowo niewielka ilość pamięci wideo wynosząca 3 GB, która może nie wystarczyć na ekstremalne ustawienia jakości w wysokich rozdzielczościach, ponieważ wymagana ilość pamięci lokalnej będzie rosła w przyszłości wraz z rozprzestrzenianiem się gier na konsole nowej generacji. Możemy mieć tylko nadzieję, że Nvidia nie będzie utrudniać swoim partnerom, jeśli zechcą wypuścić modyfikacje GTX 780 Ti z 6 GB pamięci wideo.

Następnie przechodzimy do dalszej części naszego artykułu, która tradycyjnie poświęcona jest praktycznej części badania w naszym zwykłym zestawie testów syntetycznych, w których porównujemy wydajność nowej, topowej karty graficznej z serii GeForce GTX 700 z szybkością rozwiązań firm Nvidia i AMD, które są podobne pod względem wydajności i ceny.

Nvidia Geforce GTX 780 Ti - Część 2: karty graficzne i testy syntetyczne →