Jak wyłączyć synchronizację pionową na karcie graficznej. Jak włączyć obsługę NVIDIA G-SYNC i odblokować jej pełny potencjał. Jak wyłączyć g Sync na laptopie


W dawnych, dobrych czasach, kiedy właściciele komputerów osobistych aktywnie korzystali z ogromnych monitorów CRT, nabierając sobie astygmatyzmu, o płynności obrazu nie było mowy. Technologie tamtych czasów tak naprawdę nie wspierały 3D. Dlatego biedni użytkownicy musieli zadowolić się tym, co mieli. Ale czas mija, technologia się rozwija i wielu nie zadowala się już rozrywaniem klatek podczas dynamicznej rozgrywki. Dotyczy to szczególnie tak zwanych cybersportowców. W ich przypadku ułamek sekundy robi różnicę. Co powinienem zrobić?

Postęp nie stoi w miejscu. Dlatego to, co wcześniej wydawało się niemożliwe, teraz można uznać za oczywiste. Ta sama sytuacja dotyczy jakości obrazu na komputerze. Producenci kart graficznych i innych podzespołów komputerów PC ciężko pracują obecnie nad rozwiązaniem problemu niskiej jakości obrazu wyświetlanego na monitorach. I muszę przyznać, że zaszli już całkiem daleko. Jeszcze tylko trochę i obraz na monitorze będzie idealny. Ale to wszystko jest liryczną dygresją. Wróćmy do naszego głównego tematu.

Trochę historii

Wiele monitorów aktywnie próbowało przezwyciężyć rozdarcie i poprawić obraz. Czego nie wymyślili: zwiększyli „herc” monitora, włączyli V-Sync. Nic nie pomogło. I pewnego pięknego dnia słynny producent kart graficznych NVIDIA zaprezentuje technologię G-Sync, dzięki której można osiągnąć „nierzeczywistą” płynność obrazu bez żadnych artefaktów. Wydaje się, że jest dobrze, ale jest jedno małe, ale bardzo poważne „ale”. Aby skorzystać z tej opcji, potrzebujesz monitorów obsługujących G-Sync. Producenci monitorów musieli się bardziej napracować i „wrzucić” na rynek kilkadziesiąt modeli. Co dalej? Przyjrzyjmy się technologii i spróbujmy dowiedzieć się, czy jest dobra.

Co to jest G-Sync?

G-Sync to technologia wyświetlania ekranu firmy NVIDIA. Charakteryzuje się płynną zmianą klatek bez żadnych artefaktów. Nie ma mowy o rozrywaniu się i zacinaniu obrazu. Do prawidłowego działania tej technologii wymagany jest dość mocny komputer, ponieważ przetwarzanie sygnału cyfrowego wymaga znacznej mocy procesora. Dlatego tylko nowe modele kart graficznych firmy NVIDIA są wyposażone w tę technologię. Ponadto G-Sync jest zastrzeżoną funkcją firmy NVIDIA, więc właściciele kart graficznych innych producentów nie mają szans.

Dodatkowo wymagany jest monitor G-Sync. Faktem jest, że są wyposażone w płytkę z przetwornikiem sygnału cyfrowego. Posiadacze zwykłych monitorów nie będą mogli skorzystać z tej niesamowitej opcji. To oczywiście niesprawiedliwe, ale taka jest polityka współczesnych producentów - wyciągnąć jak najwięcej pieniędzy od biednego użytkownika. Jeśli konfiguracja Twojego komputera pozwala na korzystanie z G-Sync, a Twój monitor w cudowny sposób obsługuje tę opcję, możesz w pełni docenić wszystkie uroki tej technologii.

Jak działa G-Sync

Spróbujmy w uproszczony sposób wyjaśnić, jak działa G-Sync. Faktem jest, że zwykły procesor graficzny (karta graficzna) po prostu wysyła sygnał cyfrowy do monitora, ale nie bierze pod uwagę jego częstotliwości. Z tego powodu sygnał wyświetlany na ekranie wydaje się „nierówny”. Sygnał pochodzący z GPU jest przerywany częstotliwością monitora i w finalnej wersji wygląda nieestetycznie. Nawet przy włączonej opcji V-Sync.

Podczas korzystania z G-Sync procesor graficzny sam reguluje częstotliwość monitora. Dlatego sygnały docierają do matrycy wtedy, gdy jest to naprawdę potrzebne. Dzięki temu można uniknąć rozrywania obrazu i poprawić płynność obrazu jako całości. Ponieważ konwencjonalne monitory nie pozwalają procesorowi graficznemu na samokontrolę, wynaleziono monitor G-Sync, który zawierał kartę NVIDIA regulującą częstotliwość. Dlatego użycie konwencjonalnych monitorów nie jest możliwe.

Monitory obsługujące tę technologię

Dawno minęły czasy, gdy użytkownicy zabijali wzrok godzinami wpatrując się w stare monitory CRT. Obecne modele są eleganckie i nieszkodliwe. Dlaczego więc nie dać im nowej technologii? Pierwszy monitor z obsługą NVIDIA G-Sync i rozdzielczością 4K wypuścił Acer. Nowy produkt wywołał niemałą sensację.

Wysokiej jakości monitory z G-Sync są wciąż dość rzadkie. Ale producenci mają plany, aby te urządzenia stały się standardem. Najprawdopodobniej za pięć lat monitory obsługujące tę technologię staną się standardowym rozwiązaniem nawet w przypadku komputerów biurowych. Tymczasem pozostaje tylko przyjrzeć się tym nowościom i poczekać na ich powszechną dystrybucję. Wtedy będą tańsze.

Potem monitory z obsługą G-Sync zaczęły być przykuwane przez wszystkich. Pojawiły się nawet modele budżetowe wyposażone w tę technologię. Ale jaki pożytek z tej technologii na budżetowym ekranie ze złą matrycą? Ale tak czy inaczej, takie modele istnieją. Najlepszą opcją dla tej opcji jest (G-Sync będzie na niej działać z pełną mocą).

Najlepsze monitory z G-Sync

Monitory z technologią G-Sync wyróżniają się jako specjalna linia urządzeń. Muszą mieć cechy niezbędne do pełnego działania tej opcji. Oczywiste jest, że nie wszystkie ekrany poradzą sobie z tym zadaniem. Zidentyfikowano już kilku liderów w produkcji takich monitorów. Ich modele okazały się bardzo udane.

Przykładowo monitor G-Sync jest jednym z najjaśniejszych przedstawicieli tej linii. To urządzenie jest premium. Dlaczego? Oceńcie sami. Przekątna ekranu to 34 cale, rozdzielczość 4K, kontrast 1:1000, 100 Hz, czas reakcji matrycy 5 ms. Ponadto wielu chciałoby zdobyć tego „potwora” dla siebie. Wiadomo, że z technologią G-Sync poradzi sobie z hukiem. Nie ma jeszcze analogii. Można go śmiało nazwać najlepszym w swojej klasie i nie mylić się.

Ogólnie rzecz biorąc, monitory ASUS G-Sync są teraz na szczycie Olympusa. Żaden producent nie był jeszcze w stanie przewyższyć tej firmy. I jest mało prawdopodobne, że kiedykolwiek to nastąpi. ASUSa można nazwać pionierem pod tym względem. Ich monitory obsługujące G-Sync sprzedają się jak świeże bułeczki.

Przyszłość G-Sync

Teraz aktywnie próbują wprowadzić technologię G-Sync do laptopów. Niektórzy producenci wypuścili nawet kilka takich modeli. Co więcej, mogą pracować bez karty G-Sync w monitorze. Co jest zrozumiałe. Mimo to laptop ma nieco inne cechy konstrukcyjne. Karta graficzna obsługująca tę technologię jest w zupełności wystarczająca.

Jest prawdopodobne, że wkrótce NVIDIA G-Sync zajmie znaczące miejsce w branży komputerowej. Monitory wyposażone w tę technologię powinny stać się tańsze. Docelowo ta opcja powinna stać się dostępna wszędzie. W przeciwnym razie jaki byłby sens to rozwijać? W każdym razie nie wszystko jest jeszcze takie różowe. Występują pewne problemy z wdrożeniem G-Sync.

W przyszłości technologia G-Sync stanie się tą samą codziennością, jaką kiedyś był dla nas port VGA do podłączenia monitora. Jednak wszelka „synchronizacja pionowa” na tle tej technologii wygląda na rażący anachronizm. Te przestarzałe technologie nie tylko mogą nie zapewnić zadowalającej jakości obrazu, ale także pochłaniają znaczną ilość zasobów systemowych. Zdecydowanie wraz z pojawieniem się G-Sync ich miejsce na śmietniku historii.

Komputer stacjonarny podłączony do monitora G-SYNC:

Obsługiwane karty graficzne: Technologia G-SYNC jest obsługiwana przez procesory graficzne NVIDIA GeForce® GTX 650Ti BOOST i nowsze.
Kierowca:
System operacyjny:

  • Windows 10
  • Windows 8.1
  • System Windows 7

Wymagania systemowe:

Laptop podłączony do monitora z technologią G-SYNC:

Obsługiwane karty graficzne: Karta graficzna NVIDIA GeForce® GTX 980M, GTX 970M, GTX 965M lub wyższa.
Kierowca: R340.52 lub nowszy
System operacyjny:

  • Windows 10
  • Windows 8.1
  • System Windows 7

Wymagania systemowe: Wymaga obsługi DisplayPort 1.2 bezpośrednio na GPU.

Laptop z wyświetlaczem G-SYNC:

Laptop musi obsługiwać technologię G-SYNC. Sprawdź u producenta, czy Twój laptop obsługuje technologię G-SYNC. Poniżej znajdują się minimalne wymagania systemowe dla laptopów obsługujących technologię G-SYNC.
Obsługiwane karty graficzne: Karta graficzna NVIDIA GeForce® GTX 980M, GTX 970M, GTX 965M lub wyższa. Obsługiwana jest także konfiguracja SLI.
Kierowca: R352.06 lub nowszy
System operacyjny:

  • Windows 10
  • Windows 8.1
  • System Windows 7

Wymagania systemowe: Wymaga obsługi DisplayPort 1.2 bezpośrednio na GPU.

WYMAGANIA SYSTEMOWE DLA G-SYNC HDR

Komputer stacjonarny podłączony do monitora G-SYNC HDR:

Obsługiwane karty graficzne: Technologia G-SYNC HDR jest obsługiwana przez procesory graficzne NVIDIA GeForce® GTX 1050 i nowsze. 1
Kierowca:
System operacyjny:

  • Windows 10

Wymagania systemowe:
Uwaga 1: Upewnij się, że masz zainstalowane najnowsze sterowniki i oprogramowanie GPU. Aby to zrobić, przejdź do: http://www.nvidia.ru/object/nv-uefi-update-x64.html

Laptop podłączony do monitora z technologią G-SYNC HDR:

Obsługiwane karty graficzne: Technologia G-SYNC HDR jest obsługiwana przez procesory graficzne NVIDIA GeForce® GTX 1050 i nowsze.
Kierowca: R396 GA2 lub nowszy
System operacyjny:

  • Windows 10

Wymagania systemowe: Wymaga obsługi DisplayPort 1.4 bezpośrednio na GPU.

Przegląd technologii G-Sync | Krótka historia stałej częstotliwości odświeżania

Dawno, dawno temu monitory były nieporęczne i zawierały lampy elektronopromieniowe i działa elektronowe. Wyrzutnie elektronowe bombardują ekran fotonami, aby oświetlić kolorowe kropki fosforu, które nazywamy pikselami. Rysują od lewej do prawej każdą linię „skanującą” od góry do dołu. Dostosowywanie prędkości działa elektronowego od jednej pełnej aktualizacji do następnej nie było wcześniej zbyt praktyczne i nie było takiej potrzeby przed pojawieniem się gier 3D. Dlatego CRT i powiązane analogowe standardy wideo zostały zaprojektowane ze stałą częstotliwością odświeżania.

Monitory LCD stopniowo zastępowały CRT, a złącza cyfrowe (DVI, HDMI i DisplayPort) zastąpiły złącza analogowe (VGA). Jednak stowarzyszenia odpowiedzialne za standaryzację sygnałów wideo (na czele z VESA) nie odeszły od stałych częstotliwości odświeżania. Film i telewizja nadal opierają się na sygnale wejściowym o stałej liczbie klatek na sekundę. Po raz kolejny przejście na zmienną częstotliwość odświeżania nie wydaje się wcale konieczne.

Regulowana liczba klatek na sekundę i stała częstotliwość odświeżania to nie to samo

Przed pojawieniem się nowoczesnej grafiki 3D stałe częstotliwości odświeżania nie były problemem dla wyświetlaczy. Ale pojawiło się to, gdy po raz pierwszy zetknęliśmy się z wydajnymi procesorami graficznymi: szybkość, z jaką procesor graficzny renderuje poszczególne klatki (to, co nazywamy liczbą klatek na sekundę, zwykle wyrażaną w FPS lub klatkach na sekundę) nie jest stała. Zmienia się z biegiem czasu. W ciężkich scenach graficznych karta może zapewnić 30 FPS, a patrząc w puste niebo - 60 FPS.


Wyłączenie synchronizacji powoduje luki

Okazuje się, że zmienna liczba klatek na sekundę procesora graficznego i stała częstotliwość odświeżania panelu LCD nie współpracują zbyt dobrze. W tej konfiguracji napotykamy artefakt graficzny zwany „łzawieniem”. Występuje, gdy dwie lub więcej częściowych klatek jest renderowanych razem podczas tego samego cyklu odświeżania monitora. Zwykle są one przesunięte, co daje bardzo nieprzyjemny efekt podczas poruszania się.

Powyższy obrazek przedstawia dwa dobrze znane artefakty, które są powszechne, ale trudne do uchwycenia. Ponieważ są to artefakty wyświetlane, nie zobaczysz ich na zwykłych zrzutach ekranu z gier, ale nasze obrazy pokazują to, co faktycznie widzisz podczas gry. Aby je sfotografować, potrzebujesz aparatu z trybem szybkiego fotografowania. Lub jeśli masz kartę obsługującą przechwytywanie wideo, możesz nagrać nieskompresowany strumień wideo z portu DVI i wyraźnie zobaczyć przejście z jednej klatki do drugiej; Jest to metoda, której używamy w testach FCAT. Opisywany efekt najlepiej jednak obserwować na własne oczy.

Efekt rozdarcia widoczny jest na obu zdjęciach. Górne zdjęcie zostało wykonane za pomocą kamery, dolne za pomocą funkcji przechwytywania wideo. Dolny obraz jest „przycięty” w poziomie i wygląda na przesunięty. Na dwóch górnych zdjęciach lewe zdjęcie zostało zrobione na ekranie Sharp z częstotliwością odświeżania 60 Hz, prawe zostało zrobione na wyświetlaczu Asus z częstotliwością odświeżania 120 Hz. Łzawienie na wyświetlaczu 120 Hz jest mniej wyraźne, ponieważ częstotliwość odświeżania jest dwukrotnie wyższa. Efekt jest jednak widoczny i wygląda tak samo jak na lewym obrazku. Tego typu artefakt jest wyraźnym sygnałem, że zdjęcia zostały wykonane przy wyłączonej synchronizacji pionowej (synchronizacja pionowa).


Battlefield 4 na karcie GeForce GTX 770 z wyłączoną synchronizacją pionową

Drugi efekt widoczny na obrazach BioShock: Infinite to duchy. Jest to szczególnie widoczne w lewym dolnym rogu zdjęcia i wiąże się z opóźnieniem odświeżania ekranu. Krótko mówiąc, pojedyncze piksele nie zmieniają koloru wystarczająco szybko, co powoduje tego typu poświatę. Pojedyncza klatka nie jest w stanie oddać efektu duchów na samą grę. Panele z czasem reakcji od szarego do szarego wynoszące 8 ms, takie jak Sharp, będą generować rozmazany obraz przy każdym ruchu na ekranie. Dlatego te wyświetlacze nie są generalnie zalecane do strzelanek pierwszoosobowych.

Synchronizacja pionowa: „zmarnowana na mydło”

Synchronizacja pionowa lub synchronizacja pionowa to bardzo stare rozwiązanie problemu rozrywania obrazu. Gdy ta funkcja jest włączona, karta graficzna próbuje dopasować się do częstotliwości odświeżania ekranu, całkowicie eliminując rozrywanie obrazu. Problem polega na tym, że jeśli Twoja karta graficzna nie jest w stanie utrzymać liczby klatek na sekundę powyżej 60 FPS (na wyświetlaczu 60 Hz), efektywna liczba klatek na sekundę będzie skakać pomiędzy wielokrotnościami częstotliwości odświeżania ekranu (60, 30, 20, 15 FPS itp.) .) itp.), co z kolei doprowadzi do zauważalnych spowolnień.


Gdy liczba klatek na sekundę spadnie poniżej częstotliwości odświeżania przy włączonej synchronizacji pionowej, wystąpią zacięcia

Co więcej, ponieważ synchronizacja pionowa powoduje, że karta graficzna czeka i czasami korzysta z niewidocznego bufora powierzchniowego, synchronizacja pionowa może wprowadzić dodatkowe opóźnienie wejściowe do łańcucha renderowania. Zatem synchronizacja pionowa może być zarówno błogosławieństwem, jak i przekleństwem, rozwiązując niektóre problemy, ale powodując inne wady. Nieformalna ankieta przeprowadzona wśród naszych pracowników wykazała, że ​​gracze mają tendencję do wyłączania synchronizacji pionowej i włączają ją tylko wtedy, gdy łzawienie staje się nie do zniesienia.

Bądź kreatywny: Nvidia przedstawia G-Sync

Podczas uruchamiania nowej karty graficznej GeForce GTX 680 Nvidia wprowadziła tryb sterownika o nazwie Adaptacyjna synchronizacja pionowa, który próbuje złagodzić problemy, włączając synchronizację pionową, gdy liczba klatek na sekundę przekracza częstotliwość odświeżania monitora i szybko ją wyłączając, gdy wydajność gwałtownie spada poniżej częstotliwości odświeżania. Chociaż technologia dobrze spełniła swoje zadanie, było to obejście, które nie eliminowało rozrywania obrazu, jeśli liczba klatek na sekundę była niższa niż częstotliwość odświeżania monitora.

Realizacja G-Sync o wiele bardziej interesujące. Ogólnie rzecz biorąc, Nvidia pokazuje, że zamiast zmuszać karty graficzne do pracy ze stałą częstotliwością wyświetlania, możemy zmusić nowe monitory do pracy ze zmienną częstotliwością.


Liczba klatek GPU określa częstotliwość odświeżania monitora, usuwając artefakty związane z włączaniem i wyłączaniem synchronizacji pionowej

Mechanizm pakietowego przesyłania danych złącza DisplayPort otworzył nowe możliwości. Dzięki zastosowaniu zmiennych interwałów wygaszania w sygnale wideo DisplayPort i zastąpieniu skalera monitora modułem obsługującym zmienne sygnały wygaszenia, panel LCD może działać ze zmienną częstotliwością odświeżania związaną z liczbą klatek na sekundę wysyłaną przez kartę graficzną (w ramach monitora). częstotliwość odświeżania). W praktyce Nvidia twórczo wykorzystała specjalne funkcje interfejsu DisplayPort i próbowała upiec dwie pieczenie na jednym ogniu.

Jeszcze przed rozpoczęciem testów chciałbym pochwalić zespół za kreatywne podejście do rozwiązania realnego problemu mającego wpływ na gaming na PC. To innowacja w najlepszym wydaniu. Ale jakie są rezultaty G-Sync na praktyce? Dowiedzmy Się.

Nvidia przesłała nam próbkę techniczną monitora Asusa VG248QE, w którym urządzenie skalujące zastępuje się modułem G-Sync. Ten wyświetlacz już znamy. Artykuł jest mu poświęcony „Recenzja Asus VG248QE: 24-calowy monitor do gier 144 Hz za 400 dolarów”, w którym monitor zdobył nagrodę Tom's Hardware Smart Buy. Teraz czas przekonać się, jak nowa technologia Nvidii wpłynie na najpopularniejsze gry.

Przegląd technologii G-Sync | 3D LightBoost, wbudowana pamięć, standardy i 4K

Przeglądając materiały prasowe Nvidii zadawaliśmy sobie wiele pytań, zarówno o miejsce technologii w teraźniejszości, jak i jej rolę w przyszłości. Podczas niedawnej wizyty w siedzibie firmy w Santa Clara nasi koledzy z USA otrzymali kilka odpowiedzi.

G-Sync i 3D LightBoost

Pierwszą rzeczą, którą zauważyliśmy, było to, że Nvidia przysłała monitor Asusa VG248QE, zmodyfikowany do obsługi G-Sync. Monitor ten obsługuje także technologię 3D LightBoost firmy Nvidia, która pierwotnie została zaprojektowana w celu zwiększenia jasności wyświetlaczy 3D, ale od dawna jest nieoficjalnie używana w trybie 2D, wykorzystującym pulsujące podświetlenie panelu w celu ograniczenia efektu duchów (lub rozmycia ruchu). Naturalnie stało się interesujące, czy ta technologia jest stosowana G-Sync.

Nvidia udzieliła odpowiedzi negatywnej. Choć idealnym rozwiązaniem byłoby jednoczesne korzystanie z obu technologii, obecnie strobowanie podświetlenia ze zmienną częstotliwością odświeżania prowadzi do problemów z migotaniem i jasnością. Rozwiązanie ich jest niezwykle trudne, ponieważ trzeba regulować jasność i śledzić impulsy. W rezultacie wybór jest teraz pomiędzy obiema technologiami, choć firma stara się znaleźć sposób na ich jednoczesne wykorzystanie w przyszłości.

Wbudowana pamięć modułu G-Sync

Jak już wiemy, G-Sync eliminuje krokowe opóźnienie wejściowe związane z synchronizacją pionową, ponieważ nie ma już potrzeby czekania na zakończenie skanowania panelu. Zauważyliśmy jednak, że moduł G-Sync posiada wbudowaną pamięć. Czy moduł może samodzielnie buforować ramki? Jeśli tak, ile czasu zajmie przebycie ramki przez nowy kanał?

Według Nvidii ramki nie są buforowane w pamięci modułu. Gdy dane napływają, są one wyświetlane na ekranie, a pamięć wykonuje inne funkcje. Jednak czas przetwarzania dla G-Sync zauważalnie krócej niż jedna milisekunda. Tak naprawdę z niemal takim samym opóźnieniem mamy do czynienia przy wyłączonej synchronizacji pionowej i jest to związane z charakterystyką gry, sterownikiem graficznym, myszą itp.

Czy G-Sync będzie ustandaryzowany?

To pytanie padło w niedawnym wywiadzie dla AMD, gdy czytelnik chciał poznać reakcję firmy na technologię G-Sync. Chcieliśmy jednak zapytać bezpośrednio dewelopera i dowiedzieć się, czy Nvidia planuje doprowadzić tę technologię do standardu branżowego. Teoretycznie firma może zaoferować G-Sync jako uaktualnienie standardu DisplayPort, zapewniające zmienne częstotliwości odświeżania. W końcu Nvidia jest członkiem stowarzyszenia VESA.

Nie planuje się jednak żadnych nowych specyfikacji dla DisplayPort, HDMI ani DVI. G-Sync obsługuje już DisplayPort 1.2, czyli standardu nie trzeba zmieniać.

Jak wspomniano, Nvidia pracuje nad kompatybilnością G-Sync z technologią, która obecnie nazywa się 3D LightBoost (ale wkrótce będzie miała inną nazwę). Ponadto firma szuka sposobu na obniżenie kosztów modułów G-Sync i uczynić je bardziej dostępnymi.

G-Sync w rozdzielczościach Ultra HD

Nvidia obiecuje monitory ze wsparciem G-Sync i rozdzielczości do 3840x2160 pikseli. Jednak model Asusa, któremu dzisiaj przyjrzymy się, obsługuje jedynie rozdzielczość 1920x1080 pikseli. Obecnie monitory Ultra HD wykorzystują kontroler STMicro Athena, który posiada dwa skalery umożliwiające utworzenie wyświetlacza kafelkowego. Zastanawiamy się, czy będzie moduł G-Sync obsługuje konfigurację MST?

Tak naprawdę wyświetlacze 4K ze zmienną liczbą klatek na sekundę będą musiały jeszcze poczekać. Nie ma jeszcze osobnego urządzenia do skalowania obsługującego rozdzielczość 4K, najbliższe powinno pojawić się w pierwszym kwartale 2014 roku, a wyposażone w nie monitory pojawią się dopiero w drugim kwartale. Ponieważ moduł G-Sync zastępuje urządzenie skalujące, po tym momencie zaczną pojawiać się kompatybilne panele. Na szczęście moduł natywnie obsługuje Ultra HD.

Co dzieje się do 30 Hz?

G-Sync może zmienić częstotliwość odświeżania ekranu do 30 Hz. Wyjaśnia to fakt, że przy bardzo niskich częstotliwościach odświeżania obraz na ekranie LCD zaczyna się pogarszać, co prowadzi do pojawienia się artefaktów wizualnych. Jeśli źródło zapewnia mniej niż 30 FPS, moduł automatycznie zaktualizuje panel, unikając ewentualnych problemów. Oznacza to, że pojedynczy obraz można odtwarzać więcej niż raz, jednak dolny próg wynosi 30 Hz, co zapewni najlepszą możliwą jakość obrazu.

Przegląd technologii G-Sync | Panele 60 Hz, SLI, dźwięk przestrzenny i dostępność

Czy technologia ogranicza się tylko do paneli o wysokiej częstotliwości odświeżania?

Zauważysz, że pierwszy monitor z G-Sync początkowo charakteryzuje się bardzo wysoką częstotliwością odświeżania ekranu (powyżej poziomu wymaganego dla tej technologii) i rozdzielczością 1920x1080 pikseli. Ale wyświetlacz Asusa ma swoje własne ograniczenia, takie jak 6-bitowy panel TN. Zainteresowaliśmy się wdrażaniem technologii G-Sync Czy jest on przeznaczony tylko dla wyświetlaczy o wysokiej częstotliwości odświeżania, czy też będziemy mogli go zobaczyć na bardziej popularnych monitorach 60 Hz? Dodatkowo zależy mi na jak najszybszym uzyskaniu dostępu do rozdzielczości 2560x1440 pikseli.

Nvidia powtórzyła, że ​​najlepsze doświadczenia pochodzą z G-Sync można uzyskać, gdy karta graficzna utrzymuje liczbę klatek na sekundę w granicach 30 - 60 FPS. Dzięki temu technologia może naprawdę skorzystać z konwencjonalnych monitorów 60 Hz z modułem G-Sync .

Ale po co w takim razie używać monitora 144 Hz? Wygląda na to, że wielu producentów monitorów zdecydowało się na wdrożenie funkcji niskiego rozmycia ruchu (3D LightBoost), która wymaga dużej częstotliwości odświeżania. Ale ci, którzy zdecydują się nie korzystać z tej funkcji (i dlaczego nie, ponieważ nie jest ona jeszcze kompatybilna z G-Sync), można utworzyć panel za pomocą G-Sync za dużo mniejsze pieniądze.

Mówiąc o rozdzielczościach, można zauważyć, że wszystko wygląda następująco: ekrany QHD o częstotliwości odświeżania powyżej 120 Hz mogą rozpocząć się na początku 2014 roku.

Czy występują problemy z SLI i G-Sync?

Czego potrzebujesz, aby zobaczyć G-Sync w trybie surround?

Teraz oczywiście nie ma potrzeby łączenia dwóch kart graficznych, aby zapewnić wyświetlanie obrazu w rozdzielczości 1080p. Nawet średniej klasy karta graficzna oparta na Keplerze będzie w stanie zapewnić poziom wydajności wymagany do wygodnej gry w tej rozdzielczości. Ale nie ma też możliwości uruchomienia dwóch kart w SLI na trzech G-Sync-monitory w trybie surround.

To ograniczenie wynika z nowoczesnych wyjść wyświetlania na kartach Nvidia, które zazwyczaj mają dwa DVI, jedno HDMI i jedno DisplayPort. G-Sync wymaga DisplayPort 1.2, a adapter nie będzie działał (podobnie jak koncentrator MST). Jedyna możliwość to podłączenie trzech monitorów w trybie surround do trzech kart tj. Do każdego monitora jest osobna karta. Naturalnie zakładamy, że partnerzy Nvidii zaczną wypuszczać karty „G-Sync Edition” z większą liczbą złączy DisplayPort.

G-Sync i potrójne buforowanie

Do wygodnej gry z synchronizacją pionową wymagane było aktywne potrójne buforowanie. Czy jest to potrzebne G-Sync? Odpowiedź brzmi nie. G-Sync nie tylko nie wymaga potrójnego buforowania, ponieważ kanał nigdy się nie zatrzymuje, ale wręcz przeciwnie, szkodzi G-Sync, ponieważ dodaje dodatkową klatkę opóźnienia bez wzrostu wydajności. Niestety, potrójne buforowanie gry często jest ustawiane niezależnie i nie można go ominąć ręcznie.

A co z grami, które zazwyczaj nie reagują dobrze na wyłączoną synchronizację pionową?

Gry takie jak Skyrim, który jest częścią naszego pakietu testowego, zostały zaprojektowane tak, aby działały z synchronizacją pionową na panelu 60 Hz (choć czasami utrudnia nam to życie ze względu na opóźnienie wejściowe). Aby je przetestować, wymagana jest modyfikacja niektórych plików z rozszerzeniem .ini. Sposób w jaki się zachowuje G-Sync z grami opartymi na silnikach Gamebryo i Creation, które są wrażliwe na ustawienia synchronizacji pionowej? Czy są one ograniczone do 60 FPS?

Po drugie potrzebujesz monitora z modułem Nvidia G-Sync. Moduł ten zastępuje skaler ekranu. I na przykład dodaj do dzielonego wyświetlacza Ultra HD G-Sync niemożliwe. W dzisiejszej recenzji korzystamy z prototypu o rozdzielczości 1920x1080 pikseli i częstotliwości odświeżania do 144 Hz. Ale nawet przy jego pomocy możesz zorientować się, jaki będzie to miało wpływ G-Sync, jeśli producenci zaczną instalować go w tańszych panelach przy 60 Hz.

Po trzecie, wymagany jest kabel DisplayPort 1.2. DVI i HDMI nie są obsługiwane. Na krótką metę oznacza to, że jest to jedyna opcja do pracy G-Sync na trzech monitorach w trybie surround są one połączone potrójnym połączeniem SLI, ponieważ każda karta ma tylko jedno złącze DisplayPort, a adaptery DVI do DisplayPort w tym przypadku nie działają. To samo dotyczy koncentratorów MST.

I na koniec nie zapomnij o wsparciu dla sterowników. Najnowsza wersja pakietu 331.93 beta jest już kompatybilna z G-Sync i zakładamy, że przyszłe wersje z certyfikatem WHQL będą w niego wyposażone.

Stanowisko badawcze

Konfiguracja stanowiska badawczego
procesor Intel Core i7-3970X (Sandy Bridge-E), częstotliwość podstawowa 3,5 GHz, podkręcona do 4,3 GHz, LGA 2011, 15 MB współdzielonej pamięci podręcznej L3, włączona funkcja Hyper-Threading, włączone funkcje oszczędzania energii.
Płyta główna Chipset MSI X79A-GD45 Plus (LGA 2011) X79 Express, BIOS 17.5
Baran G.Skill 32 GB (8 x 4 GB) DDR3-2133, F3-17000CL9Q-16GBXM x2 @ 9-11-10-28 i 1,65 V
Urządzenie pamięci masowej Dysk SSD Samsung 840 Pro 256 GB SATA 6 Gb/s
Karty wideo Nvidia GeForce GTX 780 Ti 3 GB
Nvidia GeForce GTX 760 2 GB
jednostka mocy Corsair AX860i 860W
Oprogramowanie systemowe i sterowniki
system operacyjny Windows 8 Professional 64-bitowy
DirectX DirectX 11
Sterownik wideo Nvidia GeForce 331.93 Beta

Teraz musimy dowiedzieć się, w jakich przypadkach G-Sync ma największy wpływ. Istnieje duża szansa, że ​​używasz już monitora 60 Hz. Wśród graczy większą popularnością cieszą się modele 120 Hz i 144 Hz, jednak Nvidia słusznie zakłada, że ​​większość entuzjastów na rynku nadal pozostanie przy 60 Hz.

Przy włączonej funkcji Vsync na monitorze 60 Hz najbardziej zauważalne artefakty pojawiają się, gdy karta nie jest w stanie obsłużyć 60 klatek na sekundę, co skutkuje irytującymi skokami między 30 a 60 klatek na sekundę. Występują tu zauważalne spowolnienia. Gdy funkcja Vsync jest wyłączona, rozrywanie obrazu będzie najbardziej zauważalne w scenach, w których trzeba często przesuwać kamerę lub w których występuje dużo ruchu. Niektórym graczom przeszkadza to na tyle, że po prostu włączają synchronizację pionową i odczuwają zacinanie się oraz opóźnienie sygnału wejściowego.

Dzięki częstotliwości odświeżania 120 Hz i 144 Hz oraz większej liczbie klatek na sekundę, wyświetlacz odświeża się częściej, co skraca czas utrzymywania się pojedynczej klatki na wielu skanach ekranu, gdy wydajność jest niewystarczająca. Pozostają jednak problemy z aktywną i nieaktywną synchronizacją pionową. Z tego powodu monitor Asusa przetestujemy w trybach 60 i 144 Hz z włączonymi i wyłączonymi technologiami G-Sync .

Przegląd technologii G-Sync | Testowanie G-Sync z włączoną funkcją V-Sync

Czas rozpocząć testy G-Sync. Pozostaje tylko zainstalować kartę przechwytującą wideo, szereg kilku dysków SSD i przejść do testów, prawda?

Nie, to jest źle.

Dziś mierzymy jakość, a nie produktywność. W naszym przypadku testy mogą pokazać tylko jedną rzecz: liczbę klatek na sekundę w określonym momencie. O jakości i wrażeniach z użytkowania przy włączonej i wyłączonej technologii G-Sync nie mówią absolutnie nic. Dlatego będziecie musieli zdać się na nasz dokładnie zweryfikowany i wymowny opis, który postaramy się jak najbardziej przybliżyć do rzeczywistości.

Dlaczego po prostu nie nagrać filmu i dać go czytelnikom do oceny? Faktem jest, że kamera nagrywa wideo ze stałą prędkością 60 Hz. Monitor odtwarza także wideo ze stałą częstotliwością odświeżania 60 Hz. Ponieważ G-Sync wprowadza zmienną częstotliwość odświeżania, nie zobaczysz technologii w akcji.

Biorąc pod uwagę liczbę dostępnych gier, liczba możliwych kombinacji testowych jest niezliczona. Synchronizacja pionowa włączona, synchronizacja pionowa wyłączona, G-Sync NA, G-Sync wyłączone, 60 Hz, 120 Hz, 144 Hz, ... Lista jest długa. Ale zaczniemy od częstotliwości odświeżania 60 Hz i aktywnej synchronizacji pionowej.

Prawdopodobnie najłatwiej będzie zacząć od narzędzia demonstracyjnego Nvidii, w którym wahadło porusza się z boku na bok. Narzędzie może symulować liczbę klatek na sekundę wynoszącą 60, 50 lub 40 FPS. Lub częstotliwość może wahać się między 40 a 60 FPS. Następnie możesz wyłączyć lub włączyć synchronizację pionową i G-Sync. Chociaż test jest fikcyjny, dobrze pokazuje możliwości technologii. Możesz oglądać scenę w 50 FPS z włączoną synchronizacją pionową i myśleć: „Wszystko jest w porządku, a widoczne spowolnienia są tolerowane”. Ale po aktywacji G-Sync Od razu chcę powiedzieć: "O czym myślałem? Różnica jest oczywista jak dzień i noc. Jak mogłem wcześniej z tym żyć?"

Ale nie zapominajmy, że jest to demonstracja techniczna. Chciałbym dowody oparte na prawdziwych grach. Aby to zrobić, musisz uruchomić grę o wysokich wymaganiach sprzętowych, taką jak Arma III.

Możliwość montażu w pojeździe testowym w Arma III GeForce GTX 770 i ustaw na ustawienia ultra. Przy wyłączonej synchronizacji pionowej liczba klatek na sekundę waha się w granicach 40–50 FPS. Ale jeśli włączysz synchronizację pionową, spadnie do 30 FPS. Wydajność nie jest wystarczająco wysoka, aby można było zaobserwować stałe wahania pomiędzy 30 a 60 FPS. Zamiast tego liczba klatek na sekundę karty graficznej po prostu maleje.

Ponieważ nie było spowolnienia obrazu, przy aktywacji wystąpiła znacząca różnica G-Sync niezauważalne, z wyjątkiem tego, że rzeczywista liczba klatek na sekundę skacze o 10–20 FPS wyżej. Należy również zmniejszyć opóźnienie wejściowe, ponieważ ta sama klatka nie jest zachowywana podczas wielu skanów monitora. Uważamy, że Arma jest ogólnie mniej nerwowa niż wiele innych gier, więc opóźnienie nie jest zauważalne.

Z drugiej strony w Metro: Last Light wpływ G-Sync bardziej wyraźny. Z kartą graficzną GeForce GTX 770 Grę można uruchomić w rozdzielczości 1920x1080 pikseli przy bardzo wysokich ustawieniach szczegółowości, włączając 16x AF, normalną teselację i rozmycie ruchu. W takim przypadku możesz wybrać ustawienia SSAA od 1x do 2x do 3x, aby stopniowo zmniejszać liczbę klatek na sekundę.

Dodatkowo środowisko gry obejmuje korytarz, który ułatwia przemieszczanie się tam i z powrotem. Po uruchomieniu poziomu z aktywną synchronizacją pionową na 60 Hz udaliśmy się w miasto. Fraps pokazał, że przy antyaliasingu 3x SSAA liczba klatek na sekundę wynosiła 30 FPS, a przy wyłączonym antyaliasingu 60 FPS. W pierwszym przypadku zauważalne są spowolnienia i opóźnienia. Po wyłączeniu SSAA uzyskasz absolutnie płynny obraz przy 60 FPS. Jednak włączenie 2x SSAA prowadzi do wahań od 60 do 30 FPS, przez co każda zduplikowana klatka jest niedogodnością. Jest to jedna z gier, w której zdecydowanie wyłączylibyśmy Vsync i po prostu zignorowali łzawienie. Tak czy inaczej, wiele osób wyrobiło już sobie nawyk.

Jednakże G-Sync eliminuje wszelkie negatywne skutki. Nie będziesz już musiał patrzeć na licznik Frapsa, czekając na spadki poniżej 60 FPS, aby obniżyć kolejne ustawienie graficzne. Wręcz przeciwnie, możesz zwiększyć niektóre z nich, ponieważ nawet jeśli spowolni do 50 - 40 FPS, nie będzie wyraźnych spowolnień. Co się stanie, jeśli wyłączysz synchronizację pionową? Dowiesz się o tym później.

Przegląd technologii G-Sync | Testowanie G-Sync z wyłączoną V-Sync

Wnioski zawarte w tym materiale opierają się na ankiecie przeprowadzonej wśród autorów i znajomych Tom's Hardware za pośrednictwem Skype'a (innymi słowy, próba respondentów jest niewielka), ale prawie wszyscy rozumieją, czym jest synchronizacja pionowa i jakie wady stawiają przed nią użytkownicy pod tym względem.Według nich uciekają się do synchronizacji pionowej tylko wtedy, gdy rozdzieranie z powodu bardzo dużych różnic w liczbie klatek na sekundę i częstotliwości odświeżania monitora staje się nie do zniesienia.

Jak możesz sobie wyobrazić, wpływ wyłączenia Vsync na grafikę jest trudny do pomylenia, chociaż duży wpływ na niego ma konkretna gra i jej ustawienia szczegółów.

Weźmy na przykład Crysis 3. Gra może z łatwością rzucić na kolana twój podsystem graficzny przy najwyższych ustawieniach graficznych. A ponieważ Crysis 3 to strzelanka pierwszoosobowa z bardzo dynamiczną rozgrywką, rozdzieranie może być dość zauważalne. W powyższym przykładzie dane wyjściowe FCAT zostały przechwycone pomiędzy dwiema ramkami. Jak widać, drzewo jest całkowicie wycięte.

Z drugiej strony, gdy wymusimy wyłączenie Vsync w Skyrim, rozdzieranie nie jest takie złe. Należy pamiętać, że w tym przypadku liczba klatek na sekundę jest bardzo duża i przy każdym skanowaniu na ekranie pojawia się kilka klatek. Według opinii liczba ruchów na klatkę jest stosunkowo niska. Podczas gry w Skyrim w tej konfiguracji występują problemy i może ona nie być najbardziej optymalna. Pokazuje jednak, że nawet przy wyłączonej synchronizacji pionowej wrażenia z gry mogą się zmienić.

Do naszego trzeciego przykładu wybraliśmy ujęcie ramienia Lary Croft z Tomb Raider, na którym widać dość wyraźne rozdarcie (spójrz także na włosy i pasek podkoszulka). Tomb Raider to jedyna gra w naszym przykładzie, która umożliwia wybór pomiędzy podwójnym i potrójnym buforowaniem, gdy aktywowana jest funkcja Vsync.

Najnowszy wykres pokazuje, że Metro: Last Light z G-Sync przy 144 Hz, generalnie zapewnia taką samą wydajność, jak przy wyłączonej synchronizacji pionowej. Na wykresie nie widać jednak braku luk. Jeśli korzystasz z technologii z ekranem 60 Hz, liczba klatek na sekundę będzie wynosić 60 FPS, ale nie będzie żadnych spowolnień ani opóźnień.

W każdym razie ci z Was (i my), którzy spędzili niezliczone godziny na testach graficznych, oglądając w kółko te same testy porównawcze, mogą się do nich przyzwyczaić i wizualnie ocenić, jak dobry jest dany wynik. W ten sposób mierzymy bezwzględną wydajność kart graficznych. Zmiany w obrazie z aktywnego G-Sync są od razu zauważalne, ponieważ mają taką samą płynność, jak przy włączonej synchronizacji pionowej, ale bez charakterystycznego efektu rozdzierania, charakterystycznego dla wyłączonej synchronizacji pionowej. Szkoda, że ​​nie możemy teraz pokazać różnicy na filmie.

Przegląd technologii G-Sync | Kompatybilność gier: Prawie świetna

Sprawdzam inne gry

Przetestowaliśmy jeszcze kilka gier. Crysis 3, Tomb Raider, Skyrim, BioShock: Infinite, Battlefield 4 odwiedził stanowisko testowe. Wszyscy, z wyjątkiem Skyrima, skorzystali z technologii G-Sync. Efekt zależał od konkurencyjnej gry. Ale gdybyś to zobaczył, od razu przyznałbyś, że zignorowałeś niedociągnięcia, które występowały wcześniej.

Artefakty mogą nadal się pojawiać. Na przykład efekt pełzania związany z wygładzaniem jest bardziej zauważalny podczas płynnego ruchu. Prawdopodobnie będziesz chciał ustawić antyaliasing tak wysoko, jak to możliwe, aby usunąć wszelkie paskudne postrzępione krawędzie, które wcześniej nie były tak zauważalne.

Skyrim: przypadek specjalny

Silnik graficzny Creation, na którym opiera się Skyrim, domyślnie włącza synchronizację pionową. Aby przetestować grę przy liczbie klatek na sekundę powyżej 60 FPS, musisz dodać linię iPresentInterval=0 do jednego z plików .ini gry.

Skyrim można więc testować na trzy sposoby: w oryginalnym stanie, umożliwiając sterownikowi Nvidii „korzystanie z ustawień aplikacji”, włączając G-Sync w sterowniku i pozostaw ustawienia Skyrim niezmienione, a następnie włącz G-Sync i wyłącz synchronizację pionową w pliku gry z rozszerzeniem .ini.

Pierwsza konfiguracja, w której doświadczony monitor był ustawiony na 60 Hz, pokazywała stabilne 60 FPS na ustawieniach ultra z kartą graficzną GeForce GTX 770. Dzięki temu otrzymaliśmy płynny i przyjemny obraz. Jednak dane wejściowe użytkownika nadal charakteryzują się opóźnieniami. Dodatkowo ostrzał z boku na bok ujawnił zauważalne rozmycie ruchu. Jednak większość ludzi gra w ten sposób na komputerze PC. Można oczywiście kupić ekran z częstotliwością odświeżania 144 Hz i faktycznie wyeliminuje to rozmycie. Lecz odkąd GeForce GTX 770 zapewnia częstotliwość odświeżania na poziomie około 90 - 100 klatek na sekundę, zauważalne będzie zacinanie się, gdy silnik będzie wahać się pomiędzy 144 a 72 FPS.

Przy 60 Hz G-Sync negatywnie wpływa na obraz, prawdopodobnie jest to zasługa aktywnej synchronizacji pionowej, mimo że technologia powinna działać przy wyłączonym V-sync. Teraz ostrzał boczny (szczególnie bliżej ścian) prowadzi do wyraźnych spowolnień. Jest to potencjalny problem w przypadku paneli 60 Hz G-Sync przynajmniej w grach takich jak Skyrim. Na szczęście w przypadku monitora Asus VG248Q można przełączyć się na tryb 144 Hz i pomimo aktywnej synchronizacji pionowej, G-Sync będzie działać przy tej liczbie klatek na sekundę bez żadnych skarg.

Całkowite wyłączenie synchronizacji pionowej w Skyrim skutkuje „ostrzejszym” sterowaniem myszą. Powoduje to jednak rozrywanie obrazu (nie wspominając o innych artefaktach, takich jak migocząca woda). Włączenie G-Sync pozostawia zacinanie się przy 60 Hz, ale przy 144 Hz sytuacja znacznie się poprawia. Chociaż w naszych recenzjach kart graficznych testujemy grę z wyłączoną funkcją Vsync, nie zalecamy grania bez niej.

W przypadku Skyrim być może najlepszym rozwiązaniem byłoby wyłączenie G-Sync i graj w częstotliwości 60 Hz, co zapewni Ci stałe 60 klatek na sekundę przy wybranych ustawieniach graficznych.

Przegląd technologii G-Sync | Czy G-Sync jest tym, na co czekałeś?

Jeszcze zanim otrzymaliśmy próbkę testową monitora Asusa od technologii G-Sync, zachęca nas już fakt, że Nvidia pracuje nad bardzo realnym problemem wpływającym na gry, dla którego nie zaproponowano jeszcze żadnego rozwiązania. Do tej pory można było włączyć lub wyłączyć synchronizację pionową według własnych upodobań. Co więcej, każdej decyzji towarzyszyły kompromisy, które negatywnie wpływały na wrażenia z gry. Jeśli zdecydujesz się pozostawić włączoną synchronizację Vsync do czasu, aż rozdzieranie stanie się nie do zniesienia, wybierasz mniejsze zło.

G-Sync rozwiązuje problem dając monitorowi możliwość skanowania ekranu ze zmienną częstotliwością. Tego typu innowacje to jedyny sposób na dalszy rozwój naszej branży przy jednoczesnym zachowaniu przewagi technicznej komputerów osobistych nad konsolami i platformami do gier. Nvidia bez wątpienia spotka się z krytyką za to, że nie opracowała standardu, który mogliby zastosować konkurenci. Firma w swoim rozwiązaniu wykorzystuje jednak DisplayPort 1.2. W rezultacie zaledwie dwa miesiące po ogłoszeniu technologii G-Sync była w naszych rękach.

Pytanie brzmi, czy Nvidia dotrzyma wszystkiego, co obiecała w przypadku G-Sync?

Trzej utalentowani programiści wychwalający zalety technologii, której nigdy nie widziałeś w akcji, mogą zainspirować każdego. Ale jeśli Twoje pierwsze doświadczenie z G-Sync Bazując na demo teście wahadła Nvidii, na pewno będziesz się zastanawiać, czy tak ogromna różnica jest w ogóle możliwa, czy też test reprezentuje specjalny scenariusz, który jest zbyt piękny, aby mógł być prawdziwy.

Oczywiście podczas testowania technologii w prawdziwych grach efekt nie jest już tak wyraźny. Z jednej strony słychać było okrzyki „Wow!” i „Szalony!”, z drugiej – „Myślę, że widzę różnicę”. Najlepszy efekt aktywacji G-Sync zauważalne przy zmianie częstotliwości odświeżania wyświetlacza z 60 Hz na 144 Hz. Ale próbowaliśmy także przetestować przy 60 Hz G-Sync aby zobaczyć, co otrzymasz w przyszłości dzięki (miejmy nadzieję) tańszym wyświetlaczom. W niektórych przypadkach samo przejście z 60 na 144 Hz będzie zaskoczeniem, zwłaszcza jeśli Twoja karta graficzna radzi sobie z dużą liczbą klatek na sekundę.

Dziś już wiemy, że Asus planuje wprowadzenie wsparcia G-Sync w modelu Asusa VG248QE, który według firmy będzie sprzedawany w przyszłym roku za 400 dolarów. Monitor ma natywną rozdzielczość 1920x1080 pikseli i częstotliwość odświeżania 144 Hz. Wersja bez G-Sync otrzymał już naszą nagrodę Smart Buy za wyjątkową wydajność. Ale dla nas osobiście 6-bitowy panel TN jest wadą. Bardzo zależy mi na rozdzielczości 2560x1440 pikseli na matrycy IPS. Zgodzimy się nawet na częstotliwość odświeżania 60 Hz, jeśli pomoże to utrzymać niską cenę.

Choć na targach CES spodziewamy się całej masy zapowiedzi, oficjalnych komentarzy Nvidii na temat innych wyświetlaczy z modułami G-Sync i nie słyszeliśmy ich cen. Dodatkowo nie jesteśmy pewni, jakie plany firma ma w stosunku do modułu upgrade, który powinien umożliwić wdrożenie modułu G-Sync do już zakupionego monitora Asusa VG248QE w 20 minut.

Na razie możemy powiedzieć, że warto było czekać. Przekonasz się, że w niektórych grach wpływ nowej technologii jest wyraźny, podczas gdy w innych jest mniej wyraźny. Ale w każdym razie G-Sync odpowiada na „brodate” pytanie, czy włączyć synchronizację pionową, czy nie.

Jest jeszcze jeden ciekawy pomysł. Po tym jak przetestowaliśmy G-Sync jak długo AMD może unikać komentarzy? Firma dokuczała naszym czytelnikom w swoim wywiadzie(w języku angielskim), zaznaczając, że wkrótce podejmie decyzję o takiej możliwości. A jeśli ona coś planuje? Koniec 2013 i początek 2014 roku przyniósł nam wiele ciekawych wiadomości do omówienia, m.in. Battlefield 4 Wersje Mantle, nadchodząca architektura Nvidia Maxwell, G-Sync, silnik AMD xDMA ze wsparciem CrossFire i plotki o nowych dwuchipowych kartach graficznych. Teraz brakuje nam kart graficznych z więcej niż 3 GB (Nvidia) i 4 GB (AMD) pamięci GDDR5, ale kosztują mniej niż 1000 dolarów...

Są rzeczy, o których nie tylko trudno pisać, ale i bardzo trudno. Które po prostu trzeba zobaczyć raz, a nie słyszeć o nich setki razy czy czytać w Internecie. Nie sposób na przykład opisać niektórych cudów natury, takich jak majestatyczny Wielki Kanion czy ośnieżone góry Ałtaj. Piękne zdjęcia z ich wizerunkami można oglądać setki razy i podziwiać filmy, ale to wszystko nie zastąpi wrażeń na żywo.

Temat płynnego wyświetlania klatek na monitorze przy użyciu technologii Nvidia G-Sync dotyczy również takich tematów - z opisów tekstowych zmiany nie wydają się aż tak istotne, ale już w pierwszych minutach grania w grę 3D na systemie z kartą Nvidia Karta graficzna Geforce podłączona do monitora G-Sync, staje się jasne, jak duży jest skok jakościowy. I choć od ogłoszenia technologii minął ponad rok, technologia ta nie traci na aktualności, nadal nie ma konkurencji (wśród rozwiązań, które weszły na rynek), a odpowiadające jej monitory są nadal produkowane.

Nvidia od dłuższego czasu pracuje nad poprawą wrażeń wizualnych użytkowników procesorów graficznych Geforce we współczesnych grach, poprawiając płynność renderowania. Można przywołać technologię adaptacyjnej synchronizacji Adaptive V-Sync, która jest hybrydą łączącą tryby z włączoną i wyłączoną synchronizacją pionową (odpowiednio V-Sync On i V-Sync Off). W przypadku, gdy procesor graficzny zapewnia renderowanie z częstotliwością mniejszą niż częstotliwość odświeżania monitora, synchronizacja jest wyłączona, a w przypadku FPS przekraczających częstotliwość odświeżania, jest włączona.

Adaptive Sync nie rozwiązała wszystkich problemów z płynnością, ale nadal była ważnym krokiem we właściwym kierunku. Ale dlaczego konieczne było stworzenie specjalnych trybów synchronizacji, a nawet wydanie rozwiązań programowych i sprzętowych? Co jest nie tak z technologiami, które istnieją od dziesięcioleci? Dzisiaj dowiemy się, jak technologia Nvidia G-Sync pomaga wyeliminować wszystkie znane artefakty wyświetlania, takie jak rozrywanie obrazu, niepłynny materiał filmowy i zwiększone opóźnienia.

Patrząc daleko w przyszłość, można powiedzieć, że technologia synchronizacji G-Sync pozwala uzyskać płynną zmianę klatek przy najwyższej możliwej wydajności i komforcie, co jest bardzo odczuwalne podczas grania na takim monitorze – jest to zauważalne nawet dla przeciętnego domowego użytkownika, a dla zapalonych graczy może to oznaczać poprawę czasu reakcji, a tym samym osiągnięć w grze.

Dziś większość graczy PC korzysta z monitorów o częstotliwości odświeżania 60 Hz - typowych ekranów LCD, obecnie najpopularniejszych. W związku z tym zarówno po włączeniu synchronizacji (V-Sync On), jak i po jej wyłączeniu, zawsze występują pewne niedociągnięcia związane z podstawowymi problemami starożytnych technologii, o których porozmawiamy później: duże opóźnienia i szarpnięcia FPS, gdy V- Synchronizacja jest włączona, a po wyłączeniu nieprzyjemne rozrywanie obrazu.

A ponieważ opóźnienia i niepłynna liczba klatek na sekundę bardziej zakłócają i irytują grę, rzadko który gracz w ogóle włącza synchronizację. I nawet niektóre modele monitorów o częstotliwości odświeżania 120 i 144 Hz, które pojawiły się na rynku, nie są w stanie całkowicie wyeliminować problemów, po prostu sprawiają, że są one nieco mniej zauważalne, aktualizując zawartość ekranu dwa razy częściej, ale nadal te same artefakty obecny: opóźnienia i brak tej samej komfortowej gładkości.

A ponieważ monitory z G-Sync w połączeniu z odpowiednią kartą graficzną Nvidia Geforce są w stanie zapewnić nie tylko wysoką częstotliwość odświeżania, ale także wyeliminować wszystkie te niedociągnięcia, zakup takich rozwiązań można uznać za jeszcze ważniejszy niż choćby modernizacja na mocniejszy procesor graficzny . Ale najpierw zastanówmy się, dlaczego konieczne było zrobienie czegoś innego niż znane od dawna rozwiązania - w czym tkwi problem?

Problemy z istniejącymi metodami wyjścia wideo

Technologie wyświetlania obrazu na ekranie o stałej częstotliwości odświeżania pojawiły się już od czasów, gdy używano monitorów kineskopowych (CRT). Większość czytelników powinna je pamiętać – brzuchate, zupełnie jak starożytne telewizory. Technologie te zostały pierwotnie opracowane do wyświetlania obrazu telewizyjnego ze stałą szybkością klatek, jednak w przypadku urządzeń do wyświetlania obrazu 3D dynamicznie obliczanego na komputerze PC, rozwiązanie to rodzi poważne problemy, które nie zostały dotychczas rozwiązane.

Nawet najnowocześniejsze monitory LCD mają stałą częstotliwość odświeżania obrazu na ekranie, choć technologicznie nic nie stoi na przeszkodzie, aby zmieniać obraz na nich w dowolnym momencie i z dowolną częstotliwością (oczywiście w rozsądnych granicach). Jednak gracze PC od czasów monitorów CRT zmuszeni byli godzić się na zdecydowanie niedoskonałe rozwiązanie problemu synchronizacji liczby klatek na sekundę w renderowaniu 3D i częstotliwości odświeżania monitora. Do tej pory było bardzo niewiele opcji wyjścia obrazu - dwie i obie miały wady.

Źródłem wszystkich problemów jest to, że przy stałej częstotliwości odświeżania obrazu na monitorze karta graficzna renderuje każdą klatkę w innym czasie - wynika to ze stale zmieniającej się złożoności sceny i obciążenia procesora graficznego. A czas renderowania każdej klatki nie jest stały, zmienia się w każdej klatce. Nic więc dziwnego, że przy próbie wyświetlenia na monitorze większej liczby klatek pojawiają się problemy z synchronizacją, gdyż niektóre z nich wymagają znacznie więcej czasu na wyrenderowanie niż inne. W efekcie dla każdej klatki otrzymujemy różne czasy przygotowania: czasem np. 10 ms, czasem 25 ms. A monitory, które istniały przed pojawieniem się G-Sync, mogły wyświetlać klatki dopiero po pewnym czasie – ani wcześniej, ani później.

Sprawę dodatkowo komplikuje bogactwo konfiguracji programowych i sprzętowych komputerów do gier, w połączeniu z bardzo różnym obciążeniem w zależności od gry, ustawień jakości, ustawień sterowników graficznych itp. W efekcie nie da się skonfigurować każdego systemu do gier tak, aby szkolenie odbywa się ze stałymi lub przynajmniej niezbyt różnymi czasami we wszystkich aplikacjach i warunkach 3D - co jest możliwe na konsolach do gier z ich pojedynczą konfiguracją sprzętową.

Naturalnie, w przeciwieństwie do konsol z przewidywalnym czasem renderowania klatek, gracze na PC nadal mają poważnie ograniczone możliwości zapewnienia płynnej rozgrywki bez zauważalnych spadków i opóźnień. W idealnym (czytelnym - w rzeczywistości niemożliwym) przypadku aktualizacja obrazu na monitorze powinna odbywać się ściśle po wyliczeniu i przygotowaniu kolejnej klatki przez procesor graficzny:

Jak widać, w tym hipotetycznym przykładzie procesor graficzny zawsze ma czas na narysowanie klatki, zanim będzie trzeba ją przenieść na monitor - czas klatki jest zawsze nieco krótszy niż czas pomiędzy aktualizacjami informacji na wyświetlaczu, a w pomiędzy GPU trochę odpoczywa. Ale w rzeczywistości wszystko jest zupełnie inne - czas renderowania klatek jest zupełnie inny. Wyobraź sobie, że GPU nie ma czasu na wyrenderowanie klatki w wyznaczonym czasie – wtedy klatka musi albo zostać wyświetlona później, pomijając jedną aktualizację obrazu na monitorze (włączona synchronizacja pionowa – V-Sync On), albo klatki muszą zostać wyświetlane w częściach z wyłączoną synchronizacją, a następnie na monitorze jednocześnie będą pojawiały się fragmenty z kilku sąsiednich klatek.

Większość użytkowników wyłącza V-Sync, aby uzyskać mniejsze opóźnienia i płynniejsze klatki na ekranie, jednak to rozwiązanie wprowadza widoczne artefakty w postaci rozrywania obrazu. A po włączeniu synchronizacji nie będzie rozrywania obrazu, ponieważ klatki będą wyświetlane wyłącznie w całości, ale opóźnienie między akcją gracza a aktualizacją obrazu na ekranie wzrasta, a częstotliwość wyświetlania klatek jest bardzo nierówna, ponieważ procesor graficzny nigdy nie rysuje klatek ściśle według czasu aktualizacji obrazu na monitorze.

Problem ten istnieje od wielu lat i wyraźnie zakłóca komfort oglądania efektu renderowania 3D, jednak do pewnego czasu nikt nie zaprzątnął sobie głowy jego rozwiązaniem. A rozwiązanie w teorii jest dość proste – wystarczy wyświetlać informację na ekranie ściśle wtedy, gdy GPU zakończy pracę nad kolejną klatką. Ale najpierw przyjrzyjmy się bliżej przykładom, jak dokładnie działają istniejące technologie wyjściowe obrazu i jakie rozwiązanie oferuje nam Nvidia w swojej technologii G-Sync.

Wady wyjścia, gdy synchronizacja jest wyłączona

Jak już wspomnieliśmy, zdecydowana większość graczy woli mieć wyłączoną synchronizację (V-Sync Off), aby klatki rysowane przez GPU były wyświetlane na monitorze tak szybko, jak to możliwe i przy minimalnym opóźnieniu pomiędzy akcje (naciśnięcia klawiszy, polecenia myszy) i ich wyświetlanie. Dla poważnych graczy jest to konieczne do zwycięstw, a dla zwykłych graczy w tym przypadku wrażenia będą przyjemniejsze. Tak wygląda schematycznie praca z wyłączoną synchronizacją V-Sync:

Nie ma żadnych problemów ani opóźnień w wysyłaniu klatek. Ale choć wyłączona synchronizacja pionowa w jak największym stopniu rozwiązuje problem opóźnień, zapewniając minimalne opóźnienia, to jednocześnie na obrazie pojawiają się artefakty - rozrywanie obrazu, gdy obraz na ekranie składa się z kilku fragmentów sąsiadujących ze sobą klatek rysowanych przez GPU. Zauważalny jest także brak płynności obrazu wynikający z nierównomierności klatek przechodzących z procesora graficznego na ekran – obraz załamuje się w różnych miejscach.

To rozrywanie obrazu następuje w wyniku wyrenderowania obrazu składającego się z dwóch lub większej liczby klatek na GPU podczas jednego cyklu odświeżania monitora. Z kilku - gdy liczba klatek na sekundę przekracza częstotliwość odświeżania monitora, i z dwóch - gdy w przybliżeniu jej odpowiada. Spójrz na diagram pokazany powyżej - jeśli zawartość bufora ramki będzie aktualizowana w połowie pomiędzy kolejnymi momentami wyświetlania informacji na monitorze, to końcowy obraz na nim będzie zniekształcony - część informacji w tym przypadku należy do poprzedniej ramkę, a resztę do aktualnie rysowanej.

Przy wyłączonej synchronizacji ramki są przesyłane do monitora bez względu na częstotliwość i czas ich aktualizacji, a zatem nigdy nie pokrywają się z częstotliwością odświeżania monitora. Innymi słowy, przy wyłączonej funkcji V-Sync monitory bez obsługi G-Sync zawsze będą doświadczać takiego rozrywania obrazu.

Chodzi nie tylko o to, że dla gracza nieprzyjemne jest widzieć drgające paski na całym ekranie, ale także o to, że jednoczesne renderowanie fragmentów różnych klatek może dezinformować mózg, co jest szczególnie zauważalne przy dynamicznych obiektach w kadrze – gracz widzi części obiektów przesunięte względem siebie. Trzeba to znosić tylko dlatego, że wyłączenie V-Sync zapewnia w tej chwili minimalne opóźnienia wyjściowe, ale dalekie od idealnej dynamicznej jakości obrazu, co widać na poniższych przykładach (klikanie klatek w pełnej rozdzielczości):

Korzystając z powyższych przykładów, wykonanych przy użyciu kompleksu programowo-sprzętowego FCAT, można zauważyć, że rzeczywisty obraz na ekranie może składać się z fragmentów kilku sąsiadujących ze sobą klatek - a czasem nierównomiernie, gdy z jednej z klatek zostanie pobrany wąski pasek, a sąsiednie zajmują pozostałą (zauważalnie większą) część ekranu.

Problemy z rozrywaniem obrazu są jeszcze bardziej widoczne w dynamice (jeśli Twój system i/lub przeglądarka nie obsługuje odtwarzania filmów MP4/H.264 w rozdzielczości 1920x1080 pikseli przy częstotliwości odświeżania 60 FPS, to będziesz musiał je pobrać i przeglądaj je lokalnie za pomocą odtwarzacza multimedialnego z odpowiednimi możliwościami):

Jak widać, nawet przy dynamice łatwo zauważalne są nieprzyjemne artefakty w postaci załamań obrazu. Zobaczmy jak to wygląda schematycznie - na schemacie przedstawiającym sposób wyjścia, gdy synchronizacja jest wyłączona. W tym przypadku klatki pojawiają się na monitorze natychmiast po zakończeniu ich renderowania przez GPU, a obraz jest wyświetlany na wyświetlaczu nawet jeśli wyprowadzenie informacji z bieżącej klatki nie zostało jeszcze w pełni zakończone – pozostała część bufora przypada na następna aktualizacja ekranu. Dlatego każda klatka naszego przykładu wyświetlana na monitorze składa się z dwóch klatek narysowanych na GPU - z przerwą w obrazie w miejscu zaznaczonym na czerwono.

W tym przykładzie pierwsza klatka (Rysunek 1) jest rysowana przez procesor graficzny do bufora ekranu szybciej niż czas odświeżania wynoszący 16,7 ms – i przed przesłaniem obrazu na monitor (Skanowanie 0/1). GPU natychmiast rozpoczyna pracę nad kolejną klatką (Rysunek 2), co powoduje przerwanie obrazu na monitorze, zawierającego kolejną połowę poprzedniej klatki.

W rezultacie w wielu przypadkach na obrazie pojawia się wyraźnie widoczny pasek – granica pomiędzy częściowym wyświetleniem sąsiednich klatek. W przyszłości proces ten się powtarza, gdyż GPU pracuje na każdej klatce przez inną ilość czasu i bez synchronizacji procesu klatki z GPU i te wyświetlane na monitorze nigdy się nie zgadzają.

Plusy i minusy Vsync

Gdy włączona jest tradycyjna synchronizacja pionowa (V-Sync On), informacje na monitorze są aktualizowane dopiero po całkowitym zakończeniu pracy nad klatką przez procesor graficzny, co eliminuje rozrywanie obrazu, ponieważ klatki wyświetlane są wyłącznie na ekranie . Ponieważ jednak monitor aktualizuje zawartość tylko w określonych odstępach czasu (w zależności od charakterystyki urządzenia wyjściowego), to powiązanie powoduje inne problemy.

Większość nowoczesnych monitorów LCD aktualizuje informacje z częstotliwością 60 Hz, czyli 60 razy na sekundę – mniej więcej co 16 milisekund. Po włączeniu synchronizacji czas wyświetlania obrazu jest ściśle powiązany z częstotliwością odświeżania monitora. Ale jak wiemy, szybkość renderowania GPU jest zawsze zmienna, a czas potrzebny na renderowanie każdej klatki różni się w zależności od stale zmieniającej się złożoności sceny 3D i ustawień jakości.

Nie zawsze może być równy 16,7 ms, ale będzie albo mniejszy od tej wartości, albo większy. Gdy synchronizacja jest włączona, praca GPU na klatkach kończy się ponownie wcześniej lub później niż czas odświeżania ekranu. Jeśli klatka została wyrenderowana szybciej niż w tym momencie, nie ma specjalnych problemów - informacja wizualna po prostu czeka na aktualizację monitora, aby wyświetlić całą klatkę na ekranie, a procesor graficzny jest bezczynny. Jeśli jednak klatka nie ma czasu na wyrenderowanie w wyznaczonym czasie, wówczas musi poczekać na kolejny cykl aktualizacji obrazu na monitorze, co powoduje zwiększenie opóźnienia pomiędzy działaniami gracza a jego wizualnym wyświetleniem na ekranie. W takim przypadku na ekranie ponownie wyświetlany jest obraz poprzedniej „starej” klatki.

Choć wszystko to dzieje się dość szybko, wzrost opóźnienia jest wizualnie łatwo zauważalny i to nie tylko przez profesjonalnych graczy. A ponieważ czas renderowania klatek jest zawsze zmienny, włączenie powiązania z częstotliwością odświeżania monitora powoduje szarpnięcia podczas wyświetlania obrazu dynamicznego, ponieważ klatki są wyświetlane albo szybko (z częstotliwością odświeżania monitora), albo dwa, trzy lub cztery razy wolniej. Spójrzmy na schematyczny przykład takiej pracy:

Ilustracja przedstawia sposób wyświetlania klatek na monitorze, gdy włączona jest synchronizacja pionowa (Włączona synchronizacja pionowa). Pierwsza klatka (Draw 1) jest renderowana przez GPU szybciej niż 16,7 ms, więc GPU nie przechodzi do pracy nad rysowaniem kolejnej klatki i nie rozdziera obrazu jak ma to miejsce przy V-Sync Off, tylko czeka aby pierwsza klatka została w całości wyświetlona na monitorze. I dopiero potem zaczyna rysować kolejną klatkę (Rys 2).

Jednak praca nad drugą klatką (Rysunek 2) trwa dłużej niż 16,7 ms, więc po ich upływie na ekranie wyświetlana jest informacja wizualna z poprzedniej klatki i jest ona pokazywana na ekranie przez kolejne 16,7 ms. Nawet gdy procesor graficzny zakończy pracę nad następną klatką, nie jest ona wyświetlana na ekranie, ponieważ monitor ma stałą częstotliwość odświeżania. W sumie na wyświetlenie drugiej klatki trzeba poczekać 33,3 ms, a cały ten czas jest dodawany do opóźnienia pomiędzy akcją gracza a końcem klatki wyświetlanej na monitorze.

Do problemu opóźnienia czasowego dochodzi luka w płynności sekwencji wideo, zauważalna w szarpnięciu animacji 3D. Problem bardzo wyraźnie widać na krótkim filmie:

Ale nawet najpotężniejsze procesory graficzne w wymagających nowoczesnych grach nie zawsze mogą zapewnić wystarczająco wysoką liczbę klatek na sekundę, przekraczającą typową częstotliwość odświeżania monitora wynoszącą 60 Hz. I w związku z tym nie pozwolą na komfortową grę z włączoną synchronizacją i bez problemów, takich jak rozrywanie obrazu. Zwłaszcza jeśli chodzi o gry takie jak gra sieciowa Battlefield 4, bardzo wymagająca Far Cry 4 i Assassin’s Creed Unity w wysokich rozdzielczościach i maksymalnych ustawieniach gry.

Oznacza to, że współczesny odtwarzacz nie ma wielkiego wyboru - albo uzyska brak płynności i zwiększone opóźnienia, albo zadowoli się niedoskonałą jakością obrazu z połamanymi fragmentami klatek. Oczywiście w rzeczywistości wszystko nie wygląda tak źle, bo jakoś cały ten czas graliśmy, prawda? Ale w czasach, gdy starają się osiągnąć ideał zarówno pod względem jakości, jak i komfortu, chcesz więcej. Co więcej, wyświetlacze LCD mają podstawową zdolność technologiczną do generowania klatek, gdy procesor graficzny to wskazuje. Pozostało jeszcze tylko podłączyć GPU i monitor, a takie rozwiązanie już istnieje – technologia Nvidia G-Sync.

Technologia G-Sync - rozwiązanie problemów Nvidii

Tak więc większość nowoczesnych gier, gdy synchronizacja jest wyłączona, powoduje zrywanie obrazu, a gdy synchronizacja jest włączona, powodują niepłynne zmiany klatek i zwiększone opóźnienia. Nawet przy wysokich częstotliwościach odświeżania tradycyjne monitory nie eliminują tych problemów. Całkiem prawdopodobne, że pracownicy Nvidii od wielu lat tak mieli dość wyboru pomiędzy dwiema niezbyt idealnymi opcjami wyświetlania klatek w aplikacjach 3D, że postanowili pozbyć się problemów, dając graczom zasadniczo nowe podejście do aktualizacji informacji na wyświetlacz.

Różnica między technologią G-Sync a istniejącymi metodami wyświetlania polega na tym, że taktowanie i liczba klatek na sekundę w wariancie Nvidii są określane przez procesor graficzny Geforce i są dynamicznie zmienne, a nie stałe, jak miało to miejsce wcześniej. Innymi słowy, w tym przypadku procesor graficzny przejmuje pełną kontrolę nad wyjściową klatką - gdy tylko zakończy pracę nad następną klatką, zostanie ona wyświetlona na monitorze, bez opóźnień i rozrywania obrazu.

Użycie takiego połączenia pomiędzy procesorem graficznym a specjalnie dostosowanym sprzętem monitora daje graczom lepszą metodę wyjściową - po prostu idealną pod względem jakości, eliminującą wszystkie problemy, o których wspomnieliśmy powyżej. G-Sync zapewnia idealnie płynne zmiany klatek na monitorze, bez żadnych opóźnień, szarpnięć czy artefaktów spowodowanych wyświetlaniem informacji wizualnych na ekranie.

Naturalnie G-Sync nie działa magicznie i aby technologia działała po stronie monitora, wymagane jest dodanie specjalnej logiki sprzętowej w postaci małej płytki dostarczonej przez Nvidię.

Firma współpracuje z producentami monitorów, aby uwzględnić karty G-Sync w swoich modelach wyświetlaczy do gier. W przypadku niektórych modeli istnieje nawet możliwość samodzielnego upgrade'u przez użytkownika, jednak taka opcja jest droższa i nie ma sensu, bo łatwiej jest od razu kupić monitor G-Sync. W przypadku komputera PC wystarczy mieć w konfiguracji dowolną z nowoczesnych kart graficznych Nvidia Geforce i zainstalowany sterownik wideo zoptymalizowany pod kątem G-Sync - wystarczy dowolna z najnowszych wersji.

Gdy włączona jest technologia Nvidia G-Sync, po zakończeniu przetwarzania kolejnej klatki sceny 3D, procesor graficzny Geforce wysyła specjalny sygnał do wbudowanej w monitorze płyty kontrolera G-Sync i informuje monitor, kiedy należy zaktualizować obraz na ekranie. Pozwala to osiągnąć po prostu idealną płynność i responsywność podczas grania na komputerze PC - możesz to sprawdzić oglądając krótki film (koniecznie w 60 klatkach na sekundę!):

Zobaczmy jak wygląda konfiguracja z włączoną technologią G-Sync, według naszego diagramu:

Jak widać, wszystko jest bardzo proste. Włączenie G-Sync blokuje częstotliwość odświeżania monitora do końca renderowania każdej klatki na GPU. GPU w pełni kontroluje pracę: gdy tylko zakończy renderowanie klatki, obraz od razu wyświetla się na monitorze kompatybilnym z G-Sync, a efektem nie jest stała częstotliwość odświeżania wyświetlacza, ale zmienna - dokładnie tak, jak GPU częstotliwość wyświetlania klatek. Eliminuje to problemy z rozrywaniem obrazu (w końcu zawsze zawiera informacje z jednej klatki), minimalizuje zacinanie się szybkości klatek (monitor nie czeka dłużej, aż klatka zostanie fizycznie przetworzona na GPU) i zmniejsza opóźnienie wyjściowe w porównaniu do metody z V -synchronizacja włączona.

Trzeba przyznać, że graczom najwyraźniej nie było dość takiego rozwiązania; nowy sposób synchronizacji GPU i monitora Nvidia G-Sync naprawdę bardzo mocno wpływa na komfort grania na PC - pojawia się niemal idealna płynność , którego wcześniej nie było - w czasach supermocnych kart graficznych! Od czasu ogłoszenia technologii G-Sync stare metody natychmiast stały się anachroniczne, a przejście na monitor G-Sync obsługujący zmienną częstotliwość odświeżania do 144 Hz wydaje się bardzo atrakcyjną opcją, która pozwala w końcu pozbyć się problemów, opóźnienia i artefakty.

Czy G-Sync ma jakieś wady? Oczywiście, jak każda technologia. Na przykład G-Sync ma nieprzyjemne ograniczenie, które polega na tym, że zapewnia płynne wyświetlanie klatek na ekranie z częstotliwością 30 FPS. Wybrana częstotliwość odświeżania monitora w trybie G-Sync wyznacza górny limit szybkości odświeżania zawartości ekranu. Oznacza to, że przy częstotliwości odświeżania ustawionej na 60 Hz maksymalna płynność zostanie zapewniona przy częstotliwości 30–60 FPS, a przy 144 Hz - od 30 do 144 FPS, ale nie mniej niż dolna granica. A przy zmiennej częstotliwości (na przykład od 20 do 40 FPS) wynik nie będzie już idealny, chociaż jest zauważalnie lepszy niż tradycyjny V-Sync.

Jednak główną wadą G-Sync jest to, że jest to własna technologia Nvidii, do której konkurencja nie ma dostępu. Dlatego na początku tego roku AMD ogłosiło podobną technologię FreeSync, która również polega na dynamicznej zmianie liczby klatek na sekundę monitora zgodnie z przygotowaniem klatek z procesora graficznego. Istotną różnicą jest to, że rozwój AMD jest otwarty i nie wymaga dodatkowych rozwiązań sprzętowych w postaci wyspecjalizowanych monitorów, gdyż FreeSync został przekształcony w Adaptive-Sync, który stał się opcjonalną częścią standardu DisplayPort 1.2a ze znanego organizacja VESA (Stowarzyszenie Standardów Elektroniki Wideo). Okazuje się, że AMD umiejętnie wykorzysta na swoją korzyść motyw opracowany przez konkurenta, gdyż bez pojawienia się i popularyzacji G-Sync nie mieliby, jak nam się wydaje, FreeSync.

Co ciekawe, technologia Adaptive-Sync jest również częścią wbudowanego standardu DisplayPort (eDP) VESA i jest już stosowana w wielu komponentach wyświetlaczy, które wykorzystują eDP do transmisji sygnału. Kolejną różnicą w stosunku do G-Sync jest to, że członkowie VESA mogą korzystać z Adaptive-Sync bez konieczności płacenia. Jest jednak bardzo prawdopodobne, że Nvidia w przyszłości będzie wspierać także Adaptive-Sync w ramach standardu DisplayPort 1.2a, gdyż taka obsługa nie będzie od nich wymagała dużego wysiłku. Ale firma nie zrezygnuje też z G-Sync, uznając własne rozwiązania za priorytet.

Pierwsze monitory z obsługą Adaptive-Sync powinny pojawić się w pierwszym kwartale 2015 roku, będą miały nie tylko porty DisplayPort 1.2a, ale także specjalną obsługę Adaptive-Sync (nie wszystkie monitory z obsługą DisplayPort 1.2a będą mogły się pochwalić Ten). Dlatego też w marcu 2015 r. Samsung planuje wprowadzić na rynek linie monitorów Samsung UD590 (23,6 i 28 cali) i UE850 (23,6, 27 i 31,5 cali) obsługujące rozdzielczość UltraHD i technologię Adaptive-Sync. AMD twierdzi, że monitory obsługujące tę technologię będą nawet o 100 dolarów tańsze od podobnych urządzeń ze wsparciem G-Sync, jednak trudno je porównywać, gdyż wszystkie monitory są inne i wychodzą na rynek w różnym czasie. Poza tym na rynku nie ma już tak drogich modeli z G-Sync.

Różnica wizualna i subiektywne wrażenia

Teorię opisaliśmy powyżej, a teraz czas, aby wszystko jasno pokazać i opisać swoje uczucia. Przetestowaliśmy technologię Nvidia G-Sync w praktyce w kilku aplikacjach 3D, korzystając z karty graficznej Inno3D iChill Geforce GTX 780 HerculeZ X3 Ultra i monitora Asus PG278Q obsługującego technologię G-Sync. Na rynku dostępnych jest kilka modeli monitorów obsługujących G-Sync od różnych producentów: Asus, Acer, BenQ, AOC i innych, a w przypadku modelu monitora Asus VG248QE można nawet kupić zestaw, aby zaktualizować go do obsługi G-Sync na Twój własny.

Najmłodszym modelem karty graficznej korzystającej z technologii G-Sync jest Geforce GTX 650 Ti, z niezwykle ważnym wymogiem dotyczącym złącza DisplayPort na pokładzie. Inne wymagania systemowe obejmują system operacyjny co najmniej Microsoft Windows 7, użycie dobrego kabla DisplayPort 1.2 oraz zalecane jest użycie wysokiej jakości myszy o dużej czułości i częstotliwości odpytywania. Technologia G-Sync współpracuje ze wszystkimi pełnoekranowymi aplikacjami 3D, które korzystają z interfejsów graficznych OpenGL i Direct3D w systemach operacyjnych Windows 7 i 8.1.

Do działania nada się każdy nowoczesny sterownik, który – G-Sync od ponad roku wspierany jest przez wszystkie sterowniki firmy. Jeśli posiadasz wszystkie wymagane komponenty, wystarczy włączyć w sterownikach G-Sync, jeśli jeszcze tego nie zrobiono, a technologia będzie działać we wszystkich aplikacjach pełnoekranowych - i tylko w nich, w oparciu o samą zasadę technologii.

Aby włączyć technologię G-Sync dla aplikacji pełnoekranowych i uzyskać najlepsze wrażenia, musisz włączyć częstotliwość odświeżania 144 Hz w Panelu sterowania Nvidia lub w ustawieniach pulpitu systemu operacyjnego. Następnie musisz upewnić się, że korzystanie z tej technologii jest dozwolone na odpowiedniej stronie „Konfiguracja G-Sync”...

A także - wybierz odpowiedni element na stronie „Zarządzaj parametrami 3D” w parametrze „Puls synchronizacji pionowej” globalnych parametrów 3D. Tam możesz także wyłączyć korzystanie z technologii G-Sync do celów testowych lub w przypadku pojawienia się jakichkolwiek problemów (patrząc w przyszłość, nie znaleźliśmy ich podczas naszych testów).

Technologia G-Sync działa we wszystkich rozdzielczościach obsługiwanych przez monitory, aż do UltraHD, jednak w naszym przypadku zastosowaliśmy natywną rozdzielczość 2560x1440 pikseli przy 144 Hz. Do porównań z obecnym stanem rzeczy użyłem trybu częstotliwości odświeżania 60 Hz z wyłączoną funkcją G-Sync, aby emulować zachowanie typowych monitorów bez G-Sync, spotykanych u większości graczy. Większość z nich korzysta z monitorów Full HD obsługujących tryb maksymalny 60 Hz.

Na pewno warto wspomnieć, że choć przy włączonym G-Sync odświeżanie ekranu będzie z idealną częstotliwością – gdy GPU tego „chce”, optymalny tryb nadal będzie renderował z szybkością około 40-60 FPS – to to najodpowiedniejsza liczba klatek na sekundę dla współczesnych gier, niezbyt mała, aby osiągnąć dolną granicę 30 FPS, ale też nie wymagająca obniżania ustawień. Swoją drogą, do takiej częstotliwości dąży program Geforce Experience firmy Nvidia, zapewniający odpowiednie ustawienia dla popularnych gier w oprogramowaniu o tej samej nazwie dołączonym do sterowników.

Oprócz gier wypróbowaliśmy także specjalistyczną aplikację testową firmy Nvidia - . Ta aplikacja pokazuje scenę wahadłową 3D, która jest wygodna do oceny płynności i jakości, pozwala symulować różne liczby klatek na sekundę i wybrać tryb wyświetlania: V-Sync Off/On i G-Sync. Za pomocą tego oprogramowania testowego bardzo łatwo jest pokazać różnicę pomiędzy różnymi trybami synchronizacji - na przykład pomiędzy V-Sync On i G-Sync:

Aplikacja Pendulum Demo pozwala przetestować różne metody synchronizacji w różnych warunkach, symuluje dokładną liczbę klatek na sekundę 60 FPS, aby porównać V-Sync i G-Sync w idealnych warunkach dla przestarzałej metody synchronizacji - w tym trybie po prostu nie powinno być różnica pomiędzy metodami. Jednak tryb 40–50 FPS stawia V-Sync On w niezręcznej sytuacji, gdzie opóźnienia i niepłynne zmiany klatek są widoczne gołym okiem, ponieważ czas renderowania klatek przekracza okres odświeżania przy 60 Hz. Po włączeniu G-Sync wszystko staje się idealne.

Jeśli chodzi o porównywanie trybów z wyłączoną V-Sync i włączoną G-Sync, tutaj także aplikacja Nvidia pomaga dostrzec różnicę - przy częstotliwości klatek pomiędzy 40 a 60 FPS, rozdzieranie obrazu jest wyraźnie widoczne, chociaż opóźnień jest mniej niż przy V- Synchronizuj wł. I nawet niepłynna sekwencja wideo w stosunku do trybu G-Sync jest zauważalna, chociaż teoretycznie nie powinno tak być - być może w ten sposób mózg postrzega „zepsute” klatki.

Cóż, przy włączonej G-Sync, każdy z trybów aplikacji testowej (stała liczba klatek na sekundę lub zmienna – nie ma to znaczenia) zawsze zapewnia możliwie najpłynniejszą płynność wideo. A w grach wszystkie problemy tradycyjnego podejścia do aktualizacji informacji na monitorze ze stałą częstotliwością odświeżania są czasami jeszcze bardziej zauważalne - w tym przypadku można wyraźnie ocenić różnicę między wszystkimi trzema trybami na przykładzie gry StarCraft II (przeglądanie zapisanego wcześniej nagrania):

Jeśli Twój system i przeglądarka obsługują odtwarzanie wideo w formacie MP4/H.264 z częstotliwością 60 FPS, to wyraźnie zobaczysz, że przy wyłączonym trybie synchronizacji występują wyraźne rozrywanie obrazu, a przy włączonej V-Sync, obserwuje się szarpnięcia i niepłynność obrazu wideo. Wszystko to znika po włączeniu Nvidia G-Sync, w którym nie ma artefaktów w obrazie, nie ma wzrostu opóźnień ani „nierównej” liczby klatek na sekundę.

Oczywiście G-Sync to nie magiczna różdżka i ta technologia nie pozbędzie się opóźnień i spowolnień, które nie są spowodowane procesem wysyłania klatek na monitor o stałej częstotliwości odświeżania. Jeśli sama gra ma problemy z płynnością wyświetlania klatek i dużymi szarpnięciami FPS spowodowanymi ładowaniem tekstur, przetwarzaniem danych na procesorze, nieoptymalną pracą z pamięcią wideo, brakiem optymalizacji kodu itp., to pozostaną na swoim miejscu. Co więcej, staną się jeszcze bardziej zauważalne, ponieważ wydruk pozostałych klatek będzie idealnie gładki. Jednak w praktyce problemy nie zdarzają się zbyt często na wydajnych systemach, a G-Sync naprawdę poprawia odbiór dynamicznego wideo.

Ponieważ nowa technologia wyjściowa Nvidii wpływa na cały potok wyjściowy, teoretycznie może powodować artefakty i nierówną liczbę klatek na sekundę, szczególnie jeśli gra w pewnym momencie sztucznie ogranicza liczbę klatek na sekundę. Prawdopodobnie takie przypadki, jeśli istnieją, są tak rzadkie, że nawet ich nie zauważyliśmy. Zauważyli jednak wyraźną poprawę komfortu grania – grając na monitorze z włączoną technologią G-Sync, można odnieść wrażenie, że PC stał się na tyle mocny, że jest w stanie utrzymać stałą liczbę klatek na sekundę na poziomie co najmniej 60 FPS bez jakiekolwiek wypadki.

Uczucie, jakie towarzyszy graniu na monitorze G-Sync, jest bardzo trudne do opisania słowami. Różnica jest szczególnie zauważalna przy 40-60 FPS – liczbie klatek bardzo częstej w wymagających współczesnych grach. Różnica w porównaniu do konwencjonalnych monitorów jest po prostu niesamowita, a my postaramy się nie tylko wyrazić to słowami i pokazać na przykładach wideo, ale także pokazać wykresy liczby klatek na sekundę uzyskane w różnych trybach wyświetlania.

W grach z takich gatunków jak strategia czasu rzeczywistego i pokrewnych, jak StarCraft II, League of Legends, DotA 2 itp. zalety technologii G-Sync są wyraźnie widoczne, co widać na przykładzie w powyższym filmie . Ponadto takie gry zawsze wymagają szybkiej akcji, która nie toleruje opóźnień i niepłynnej liczby klatek na sekundę, a płynne przewijanie odgrywa dość ważną rolę w komforcie, co znacznie utrudnia rozrywanie obrazu przy wyłączonej synchronizacji V oraz opóźnienia i opóźnienia przy V -Synchronizacja włączona. Technologia G-Sync jest więc idealna do gier tego typu.

Strzelanki pierwszoosobowe, takie jak Crysis 3 i Far Cry 4, są jeszcze bardziej popularne; są również bardzo wymagające pod względem zasobów obliczeniowych, a przy ustawieniach wysokiej jakości gracze często uzyskują liczbę klatek na sekundę na poziomie około 30-60 FPS - idealne do korzystania z G-Sync , co naprawdę znacznie poprawia komfort gry w takich warunkach. Tradycyjna metoda synchronizacji pionowej bardzo często zmusza Cię do generowania klatek z częstotliwością zaledwie 30 FPS, zwiększając opóźnienia i szarpnięcia.

To samo dotyczy gier trzecioosobowych, takich jak Batman, Assassin's Creed i Tomb Raider. Te gry również wykorzystują najnowszą technologię graficzną i wymagają dość wydajnych procesorów graficznych, aby osiągnąć wysoką liczbę klatek na sekundę. Przy maksymalnych ustawieniach w tych grach i wyłączeniu V-Sync, FPS często daje wynik rzędu 30–90, co powoduje nieprzyjemne rozrywanie obrazu. Włączenie V-Sync pomaga tylko w niektórych scenach o niższych wymaganiach dotyczących zasobów, a liczba klatek na sekundę skacze z 30 do 60 kroków, co powoduje spowolnienia i szarpnięcia. Włączenie G-Sync rozwiązuje wszystkie te problemy, co jest wyraźnie zauważalne w praktyce.

Przećwicz wyniki testów

W tej sekcji przyjrzymy się wpływowi G-Sync i V-Sync na liczbę klatek na sekundę – wykresy wydajności dają jasny obraz wydajności różnych technologii. Podczas testów przetestowaliśmy kilka gier, ale nie wszystkie są wygodne, aby pokazać różnicę między V-Sync i G-Sync - niektóre testy porównawcze gier nie pozwalają na wymuszenie V-Sync, inne gry nie mają wygodnego sposobu grając dokładnie według sekwencji gier (niestety większość współczesnych gier), jeszcze inne działają w naszym systemie testowym albo zbyt szybko, albo w wąskich granicach liczby klatek na sekundę.

Zdecydowaliśmy się więc na Just Cause 2 z maksymalnymi ustawieniami, a także kilka testów porównawczych: Unigine Heaven i Unigine Valley – również przy maksymalnych ustawieniach jakości. Szybkość klatek w tych aplikacjach jest dość zróżnicowana, co jest wygodne dla naszego celu pokazania, co dzieje się z wyjściową ramką w różnych warunkach.

Niestety w tej chwili nie dysponujemy systemem programowo-sprzętowym FCAT i nie będziemy w stanie pokazać wykresów rzeczywistych FPS oraz filmów nagranych w różnych trybach. Zamiast tego przetestowaliśmy drugą średnią i chwilową liczbę klatek na sekundę za pomocą dobrze znanego narzędzia przy częstotliwościach odświeżania monitora 60 i 120 Hz, korzystając z metod odświeżania ekranu V-Sync On, V-Sync Off, Adaptive V-Sync i G-Sync technologii przy częstotliwości 144 Hz, aby pokazać wyraźną różnicę pomiędzy nową technologią a obecnymi monitorami 60 Hz z tradycyjną synchronizacją pionową.

G-Sync vs V-Sync włączony

Nasze badanie zaczniemy od porównania trybów z włączoną synchronizacją pionową (V-Sync On) i technologią G-Sync – to najbardziej odkrywcze porównanie, które pokaże różnicę pomiędzy metodami, które nie mają wad rozrywania obrazu. Najpierw przyjrzymy się aplikacji testowej Heaven na maksymalnych ustawieniach jakości w rozdzielczości 2560x1440 pikseli (kliknięcie na miniaturki otwiera wykresy w pełnej rozdzielczości):

Jak widać na wykresie, liczba klatek na sekundę przy włączonym G-Sync i bez synchronizacji jest prawie taka sama, za wyjątkiem częstotliwości powyżej 60 FPS. Ale FPS w trybie z włączoną metodą synchronizacji pionowej jest zauważalnie inny, ponieważ w nim liczba klatek na sekundę może być mniejsza lub równa 60 FPS i wielokrotność liczb całkowitych: 1, 2, 3, 4, 5, 6.. ., ponieważ czasami monitor musi wyświetlać tę samą poprzednią klatkę w kilku okresach aktualizacji (dwa, trzy, cztery itd.). Oznacza to, że możliwe „kroki” wartości liczby klatek na sekundę przy włączonej synchronizacji V i częstotliwości 60 Hz: 60, 30, 20, 15, 12, 10,… FPS.

Gradację tę widać wyraźnie na czerwonej linii wykresu – podczas wykonywania tego testu liczba klatek na sekundę często wynosiła 20 lub 30 FPS, a znacznie rzadziej – 60 FPS. Chociaż przy wyłączonych G-Sync i V-Sync (bez synchronizacji) często mieściło się w szerszym zakresie: 35–50 FPS. Przy włączonej funkcji V-Sync taka częstotliwość wyjściowa nie jest możliwa, dlatego w takich przypadkach monitor zawsze wyświetla 30 klatek na sekundę, co ogranicza wydajność i dodaje opóźnienie do całkowitego czasu wyjściowego.

Należy zaznaczyć, że powyższy wykres nie pokazuje chwilowej liczby klatek na sekundę, ale wartości średnie w ciągu sekundy, a w rzeczywistości FPS może „przeskakiwać” znacznie więcej – prawie każdą klatkę, co powoduje nieprzyjemną niestabilność i opóźnienia. Aby to wyraźnie zobaczyć, prezentujemy kilka wykresów z natychmiastowym FPS, a dokładniej z wykresami czasu renderowania każdej klatki w milisekundach. Przykład pierwszy (linie są lekko przesunięte względem siebie, pokazane jest jedynie przybliżone zachowanie w każdym trybie):

Jak widać, w tym przykładzie liczba klatek na sekundę w przypadku G-Sync zmienia się mniej więcej płynnie, a przy V-Sync On zmienia się stopniowo (w obu przypadkach występują pojedyncze skoki w czasie renderowania - jest to normalne) . Przy włączonej funkcji Vsync czas renderowania klatek i wyjścia może wynosić zaledwie 16,7 ms; 33,3 ms; 50 ms, jak widać na wykresie. W liczbach FPS odpowiada to 60, 30 i 20 klatek na sekundę. Poza tym nie ma szczególnej różnicy między zachowaniem obu linii; w obu przypadkach występują wartości szczytowe. Przyjrzyjmy się innemu znaczącemu okresowi:

W tym przypadku występują wyraźne wahania czasu renderowania klatek, a wraz z nimi FPS w przypadku włączonej synchronizacji pionowej. Spójrz, przy włączonej V-Sync następuje nagła zmiana czasu renderowania klatek z 16,7 ms (60 FPS) na 33,3 ms (30 FPS) i odwrotnie - w rzeczywistości powoduje to bardzo niewygodną niepłynność i wyraźnie widoczne szarpnięcia w sekwencji wideo . Płynność zmian klatek w przypadku G-Sync jest znacznie większa i gra w tym trybie będzie zauważalnie wygodniejsza.

Spójrzmy na wykres FPS w drugiej aplikacji testowej - Unigine Valley:

W tym benchmarku zauważamy to samo co w Niebie. Liczba klatek na sekundę w trybach G-Sync i V-Sync Off jest prawie taka sama (poza szczytem powyżej 60 Hz), a włączona V-Sync powoduje wyraźną skokową zmianę FPS, najczęściej pokazując 30 FPS, czasem spadając do 20 FPS i wzrost do 60 FPS - typowe zachowanie tej metody, powodujące opóźnienia, szarpnięcia i niepłynność materiału wideo.

W tym podrozdziale wystarczy przyjrzeć się wycinkowi z wbudowanego testu gry Just Cause 2:

Ta gra doskonale pokazuje nieadekwatność przestarzałej metody synchronizacji V-Sync On! Gdy liczba klatek na sekundę waha się od 40 do 60-70 FPS, linie G-Sync i V-Sync Off prawie pokrywają się, ale liczba klatek na sekundę przy włączonej V-Sync osiąga 60 FPS tylko w krótkich okresach. Oznacza to, że przy rzeczywistych możliwościach procesora graficznego do grania w 40-55 FPS, gracz będzie zadowolony tylko z 30 FPS.

Co więcej, w części wykresu, w której czerwona linia przeskakuje z 30 na 40 FPS, w rzeczywistości podczas oglądania obrazu widać wyraźną niepłynność liczby klatek na sekundę - przeskakuje z 60 do 30 prawie co klatkę, co wyraźnie nie dodaje płynność i komfort podczas gry. Ale może synchronizacja pionowa lepiej poradzi sobie z częstotliwością odświeżania klatki na poziomie 120 Hz?

G-Sync vs V-Sync 60/120 Hz

Przyjrzyjmy się dwóm trybom włączonej synchronizacji pionowej V-Sync On przy częstotliwości odświeżania obrazu 60 i 120 Hz, porównując je z trybem V-Sync Off (jak zdefiniowaliśmy wcześniej, ta linia jest prawie identyczna z G-Sync). Przy częstotliwości odświeżania 120 Hz do znanych już „kroków” FPS dodawane są kolejne wartości: 120, 40, 24, 17 FPS itd., co może sprawić, że wykres będzie mniej schodkowy. Przyjrzyjmy się liczbie klatek na sekundę w benchmarku Heaven:

Można zauważyć, że częstotliwość odświeżania 120 Hz pomaga w trybie V-Sync On osiągnąć lepszą wydajność i płynniejszą liczbę klatek na sekundę. W przypadkach, gdy przy 60 Hz wykres pokazuje 20 FPS, tryb 120 Hz daje wartość pośrednią co najmniej 24 FPS. A na wykresie wyraźnie widać 40 FPS zamiast 30 FPS. Ale kroków jest nie mniej, ale nawet więcej, więc liczba klatek na sekundę przy aktualizacji 120 Hz, choć zmienia się w mniejszym stopniu, robi to częściej, co również niekorzystnie wpływa na ogólną płynność.

W benchmarku Valley jest mniej zmian, ponieważ średnia liczba klatek na sekundę jest najbliższa poziomowi 30 FPS dostępnemu zarówno dla częstotliwości odświeżania 60, jak i 120 Hz. Sync Off zapewnia płynniejsze klatki, ale z artefaktami wizualnymi, a tryby V-Sync On ponownie pokazują postrzępione linie. W tym podrozdziale musimy tylko przyjrzeć się grze Just Cause 2.

I znowu wyraźnie widać, jak wadliwa jest synchronizacja pionowa, która nie zapewnia płynnej zmiany klatek. Nawet przełączenie na częstotliwość odświeżania 120 Hz zapewnia trybowi V-Sync On zaledwie kilka dodatkowych „kroków” FPS - skoki częstotliwości odświeżania z jednego kroku na drugi nie zniknęły - wszystko to jest bardzo nieprzyjemne podczas oglądania animowane sceny 3D, możesz nam wierzyć na słowo lub jeszcze raz obejrzeć powyższe przykładowe filmy.

Wpływ metody wyjściowej na średnią liczbę klatek na sekundę

Co dzieje się ze średnią liczbą klatek na sekundę, gdy wszystkie te tryby synchronizacji są włączone i jak włączenie V-Sync i G-Sync wpływa na średnią wydajność? Można z grubsza oszacować utratę prędkości nawet na podstawie pokazanych powyżej wykresów FPS, ale przedstawimy również średnie wartości liczby klatek na sekundę, które uzyskaliśmy podczas testów. Pierwszą z nich będzie ponownie Unigine Heaven:

Wydajność w trybach Adaptive V-Sync i V-Sync Off jest prawie taka sama – w końcu prędkość prawie nie wzrasta powyżej 60 FPS. Logiczne jest, że włączenie V-Sync prowadzi również do zmniejszenia średniej liczby klatek na sekundę, ponieważ w tym trybie wykorzystywane są stopniowane wskaźniki FPS. Przy 60 Hz spadek średniej liczby klatek na sekundę wyniósł ponad jedną czwartą, a włączenie 120 Hz przyniosło tylko połowę utraty średniej liczby klatek na sekundę.

Najciekawsze dla nas jest to, jak bardzo spada średnia liczba klatek na sekundę w trybie G-Sync. Z jakiegoś powodu prędkość powyżej 60 FPS jest obcinana, mimo że monitor był ustawiony na tryb 144 Hz, więc prędkość przy włączonym G-Sync była nieco niższa niż w trybie z wyłączoną synchronizacją. Generalnie można założyć, że strat w ogóle nie ma i na pewno nie da się ich porównać z brakiem prędkości przy V-Sync On. Rozważmy drugi punkt odniesienia - Dolinę.

W tym przypadku spadek średniej prędkości renderowania w trybach z włączoną funkcją V-Sync zmniejszył się, ponieważ liczba klatek na sekundę w całym teście była bliska 30 FPS - jeden z „kroków” częstotliwości dla V-Sync w obu trybach: 60 i 120 Hz. Otóż ​​z oczywistych względów straty w drugim przypadku były nieco mniejsze.

Po włączeniu G-Sync średnia liczba klatek na sekundę była ponownie niższa niż odnotowana w wyłączonym trybie synchronizacji, a wszystko z tego samego powodu - włączenie G-Sync „zabiło” wartości FPS powyżej 60. Ale różnica jest niewielka , a nowy tryb Nvidii zapewnia zauważalnie większe prędkości niż przy włączonej funkcji Vsync. Spójrzmy na ostatni wykres – średnia liczba klatek na sekundę w grze Just Cause 2:

W przypadku tej gry tryb V-Sync On ucierpiał znacznie bardziej niż w aplikacjach testowych na silniku Unigine. Średnia liczba klatek na sekundę w tym trybie przy 60 Hz jest ponad półtora raza niższa niż przy całkowicie wyłączonej synchronizacji! Włączenie częstotliwości odświeżania 120 Hz znacznie poprawia sytuację, ale nadal G-Sync pozwala uzyskać zauważalnie lepszą wydajność nawet przy średniej liczbie FPS, nie mówiąc już o komforcie gry, którego nie da się już ocenić samymi liczbami – masz żeby zobaczyć to na własne oczy.

Tak więc w tej sekcji dowiedzieliśmy się, że technologia G-Sync zapewnia liczbę klatek na sekundę zbliżoną do trybu z wyłączoną synchronizacją, a jej włączenie prawie nie ma wpływu na wydajność. W przeciwieństwie do V-Sync, gdy jest włączony, liczba klatek na sekundę zmienia się stopniowo i często występują przeskoki z jednego kroku do drugiego, co powoduje niepłynne ruchy podczas generowania animowanej serii klatek i ma szkodliwy wpływ na komfort w grach 3D.

Innymi słowy, zarówno nasze subiektywne wrażenia, jak i wyniki testów sugerują, że technologia G-Sync firmy Nvidia naprawdę zmienia komfort wizualny gier 3D na lepsze. Nowa metoda pozbawiona jest artefaktów graficznych w postaci rozrywania obrazu składającego się z kilku sąsiadujących ze sobą klatek, co widać w trybie z wyłączoną V-Sync, nie ma też problemów z płynnością przesyłania klatek na monitor i zwiększoną opóźnienia wyjściowe, jak przy włączonym trybie V-Sync.

Wniosek

Biorąc pod uwagę wszystkie trudności związane z obiektywnym pomiarem płynności sygnału wideo, chciałbym najpierw wyrazić subiektywną ocenę. Byliśmy pod wrażeniem wrażeń z gry na karcie Nvidia GeForce i monitorze Asus z obsługą G-Sync. Nawet jednorazowa demonstracja G-Sync „na żywo” naprawdę robi duże wrażenie płynnością zmian klatek, a po długich próbach tej technologii dalsze granie na monitorze ze starymi metodami wyświetlania obrazów staje się bardzo ponure na ekranie.

Być może G-Sync można uznać za największą zmianę w procesie wyświetlania informacji wizualnej na ekranie od dłuższego czasu – w końcu zobaczyliśmy coś naprawdę nowego w połączeniu wyświetlaczy z procesorami graficznymi, co bezpośrednio wpływa na komfort oglądania grafiki 3D, a nawet i tak zauważalnie. A zanim Nvidia ogłosiła technologię G-Sync, przez wiele lat byliśmy przywiązani do przestarzałych standardów wyjściowego obrazu, zakorzenionych w wymaganiach branży telewizyjnej i filmowej.

Oczywiście chciałbym mieć takie możliwości jeszcze wcześniej, ale teraz nie jest zły moment na ich wdrożenie, gdyż w wielu wymagających grach 3D, przy maksymalnych ustawieniach, topowe współczesne karty graficzne zapewniają liczbę klatek na sekundę, przy której korzyści z włączenia G -Synchronizacja stała się maksymalna. A przed pojawieniem się technologii Nvidii realizm osiągany w grach był po prostu „zabijany”, zdecydowanie od najlepszych metod aktualizacji obrazu na monitorze, powodując rozrywanie obrazu, zwiększone opóźnienia i szarpnięcia w liczbie klatek na sekundę. Technologia G-Sync pozwala pozbyć się tych problemów, zrównując liczbę klatek na sekundę na ekranie z szybkością renderowania procesora graficznego (choć z pewnymi ograniczeniami) - procesem tym zarządza teraz sam procesor graficzny.

Nie spotkaliśmy ani jednej osoby, która wypróbowałaby G-Sync w pracy i pozostała niezadowolona z tej technologii. Recenzje pierwszych szczęśliwców, którzy przetestowali tę technologię podczas wydarzenia Nvidii jesienią ubiegłego roku, były całkowicie entuzjastyczne. Dziennikarze z prasy branżowej i twórcy gier (John Carmack, Tim Sweeney i Johan Andersson) również poparli nową metodę wypłaty. Teraz się przyłączamy – po kilku dniach używania monitora z G-Sync nie chcę już wracać do starych urządzeń z przestarzałymi metodami synchronizacji. Ach, gdyby tylko był większy wybór monitorów z G-Sync i gdyby nie były one wyposażone wyłącznie w matryce TN...

Cóż, wśród wad technologii Nvidii możemy zauważyć, że działa ona z częstotliwością co najmniej 30 FPS, co można uznać za irytującą wadę - byłoby lepiej, gdyby nawet przy 20-25 FPS obraz był wyświetlany wyraźnie po został przygotowany na GPU. Jednak główną wadą tej technologii jest to, że G-Sync jest rozwiązaniem własnym firmy, z którego nie korzystają inni producenci procesorów graficznych: AMD i Intel. Nvidię też można zrozumieć, bo wydali środki na rozwój i wdrożenie technologii oraz negocjowali z producentami monitorów, aby ją wspierali właśnie z chęci zarobienia pieniędzy. Faktycznie, po raz kolejny odegrały rolę motoru postępu technicznego, pomimo rzekomej żądzy zysku firmy. Zdradźmy wielki „sekret”: zysk jest głównym celem każdej komercyjnej firmy, a Nvidia nie jest wyjątkiem.

A jednak przyszłość najprawdopodobniej będzie należeć do bardziej uniwersalnych, otwartych standardów, w istocie podobnych do G-Sync, takich jak Adaptive-Sync, opcjonalna funkcja w DisplayPort 1.2a. Ale na pojawienie się i dystrybucję monitorów z takim wsparciem trzeba będzie jeszcze trochę poczekać - gdzieś do połowy przyszłego roku, a monitory G-Sync różnych firm (Asus, Acer, BenQ, AOC i inne) trafiły już do sprzedaży przez kilka miesięcy, choć niezbyt tanio. Nic nie stoi na przeszkodzie, aby Nvidia w przyszłości wspierała Adaptive-Sync, choć oficjalnie nie skomentowała tego tematu. Miejmy nadzieję, że fani GeForce'a nie tylko teraz będą mieli działające rozwiązanie w postaci G-Sync, ale że w przyszłości będzie można korzystać z dynamicznych częstotliwości odświeżania w ramach ogólnie przyjętego standardu.

Wśród innych wad technologii Nvidia G-Sync dla użytkowników zauważamy, że jej wsparcie po stronie monitora kosztuje producenta określoną kwotę, co również skutkuje wzrostem ceny detalicznej w stosunku do standardowych monitorów. Jednak wśród monitorów G-Sync można znaleźć modele w różnych cenach, w tym takie, które nie są zbyt drogie. Najważniejsze, że są już w sprzedaży i każdy gracz może uzyskać maksymalny komfort grania właśnie teraz, i to na razie tylko przy korzystaniu z kart graficznych Nvidia Geforce - firma ręczy za tę technologię.

Przegląd technologii G-Sync | Testowanie G-Sync z wyłączoną V-Sync

Wnioski zawarte w tym materiale opierają się na ankiecie przeprowadzonej wśród autorów i znajomych Tom's Hardware za pośrednictwem Skype'a (innymi słowy, próba respondentów jest niewielka), ale prawie wszyscy rozumieją, czym jest synchronizacja pionowa i jakie wady stawiają przed nią użytkownicy pod tym względem.Według nich uciekają się do synchronizacji pionowej tylko wtedy, gdy rozdzieranie z powodu bardzo dużych różnic w liczbie klatek na sekundę i częstotliwości odświeżania monitora staje się nie do zniesienia.

Jak możesz sobie wyobrazić, wpływ wyłączenia Vsync na grafikę jest trudny do pomylenia, chociaż duży wpływ na niego ma konkretna gra i jej ustawienia szczegółów.

Weźmy na przykład Crysis 3. Gra może z łatwością rzucić na kolana twój podsystem graficzny przy najwyższych ustawieniach graficznych. A ponieważ Crysis 3 to strzelanka pierwszoosobowa z bardzo dynamiczną rozgrywką, rozdzieranie może być dość zauważalne. W powyższym przykładzie dane wyjściowe FCAT zostały przechwycone pomiędzy dwiema ramkami. Jak widać, drzewo jest całkowicie wycięte.

Z drugiej strony, gdy wymusimy wyłączenie Vsync w Skyrim, rozdzieranie nie jest takie złe. Należy pamiętać, że w tym przypadku liczba klatek na sekundę jest bardzo duża i przy każdym skanowaniu na ekranie pojawia się kilka klatek. Według opinii liczba ruchów na klatkę jest stosunkowo niska. Podczas gry w Skyrim w tej konfiguracji występują problemy i może ona nie być najbardziej optymalna. Pokazuje jednak, że nawet przy wyłączonej synchronizacji pionowej wrażenia z gry mogą się zmienić.

Do naszego trzeciego przykładu wybraliśmy ujęcie ramienia Lary Croft z Tomb Raider, na którym widać dość wyraźne rozdarcie (spójrz także na włosy i pasek podkoszulka). Tomb Raider to jedyna gra w naszym przykładzie, która umożliwia wybór pomiędzy podwójnym i potrójnym buforowaniem, gdy aktywowana jest funkcja Vsync.

Najnowszy wykres pokazuje, że Metro: Last Light z G-Sync przy 144 Hz, generalnie zapewnia taką samą wydajność, jak przy wyłączonej synchronizacji pionowej. Na wykresie nie widać jednak braku luk. Jeśli korzystasz z technologii z ekranem 60 Hz, liczba klatek na sekundę będzie wynosić 60 FPS, ale nie będzie żadnych spowolnień ani opóźnień.

W każdym razie ci z Was (i my), którzy spędzili niezliczone godziny na testach graficznych, oglądając w kółko te same testy porównawcze, mogą się do nich przyzwyczaić i wizualnie ocenić, jak dobry jest dany wynik. W ten sposób mierzymy bezwzględną wydajność kart graficznych. Zmiany w obrazie z aktywnego G-Sync są od razu zauważalne, ponieważ mają taką samą płynność, jak przy włączonej synchronizacji pionowej, ale bez charakterystycznego efektu rozdzierania, charakterystycznego dla wyłączonej synchronizacji pionowej. Szkoda, że ​​nie możemy teraz pokazać różnicy na filmie.

Przegląd technologii G-Sync | Kompatybilność gier: Prawie świetna

Sprawdzam inne gry

Przetestowaliśmy jeszcze kilka gier. Crysis 3, Tomb Raider, Skyrim, BioShock: Infinite, Battlefield 4 odwiedził stanowisko testowe. Wszyscy, z wyjątkiem Skyrima, skorzystali z technologii G-Sync. Efekt zależał od konkurencyjnej gry. Ale gdybyś to zobaczył, od razu przyznałbyś, że zignorowałeś niedociągnięcia, które występowały wcześniej.

Artefakty mogą nadal się pojawiać. Na przykład efekt pełzania związany z wygładzaniem jest bardziej zauważalny podczas płynnego ruchu. Prawdopodobnie będziesz chciał ustawić antyaliasing tak wysoko, jak to możliwe, aby usunąć wszelkie paskudne postrzępione krawędzie, które wcześniej nie były tak zauważalne.

Skyrim: przypadek specjalny

Silnik graficzny Creation, na którym opiera się Skyrim, domyślnie włącza synchronizację pionową. Aby przetestować grę przy liczbie klatek na sekundę powyżej 60 FPS, musisz dodać linię iPresentInterval=0 do jednego z plików .ini gry.

Skyrim można więc testować na trzy sposoby: w oryginalnym stanie, umożliwiając sterownikowi Nvidii „korzystanie z ustawień aplikacji”, włączając G-Sync w sterowniku i pozostaw ustawienia Skyrim niezmienione, a następnie włącz G-Sync i wyłącz synchronizację pionową w pliku gry z rozszerzeniem .ini.

Pierwsza konfiguracja, w której doświadczony monitor był ustawiony na 60 Hz, pokazywała stabilne 60 FPS na ustawieniach ultra z kartą graficzną GeForce GTX 770. Dzięki temu otrzymaliśmy płynny i przyjemny obraz. Jednak dane wejściowe użytkownika nadal charakteryzują się opóźnieniami. Dodatkowo ostrzał z boku na bok ujawnił zauważalne rozmycie ruchu. Jednak większość ludzi gra w ten sposób na komputerze PC. Można oczywiście kupić ekran z częstotliwością odświeżania 144 Hz i faktycznie wyeliminuje to rozmycie. Lecz odkąd GeForce GTX 770 zapewnia częstotliwość odświeżania na poziomie około 90 - 100 klatek na sekundę, zauważalne będzie zacinanie się, gdy silnik będzie wahać się pomiędzy 144 a 72 FPS.

Przy 60 Hz G-Sync negatywnie wpływa na obraz, prawdopodobnie jest to zasługa aktywnej synchronizacji pionowej, mimo że technologia powinna działać przy wyłączonym V-sync. Teraz ostrzał boczny (szczególnie bliżej ścian) prowadzi do wyraźnych spowolnień. Jest to potencjalny problem w przypadku paneli 60 Hz G-Sync przynajmniej w grach takich jak Skyrim. Na szczęście w przypadku monitora Asus VG248Q można przełączyć się na tryb 144 Hz i pomimo aktywnej synchronizacji pionowej, G-Sync będzie działać przy tej liczbie klatek na sekundę bez żadnych skarg.

Całkowite wyłączenie synchronizacji pionowej w Skyrim skutkuje „ostrzejszym” sterowaniem myszą. Powoduje to jednak rozrywanie obrazu (nie wspominając o innych artefaktach, takich jak migocząca woda). Włączenie G-Sync pozostawia zacinanie się przy 60 Hz, ale przy 144 Hz sytuacja znacznie się poprawia. Chociaż w naszych recenzjach kart graficznych testujemy grę z wyłączoną funkcją Vsync, nie zalecamy grania bez niej.

W przypadku Skyrim być może najlepszym rozwiązaniem byłoby wyłączenie G-Sync i graj w częstotliwości 60 Hz, co zapewni Ci stałe 60 klatek na sekundę przy wybranych ustawieniach graficznych.

Przegląd technologii G-Sync | Czy G-Sync jest tym, na co czekałeś?

Jeszcze zanim otrzymaliśmy próbkę testową monitora Asusa od technologii G-Sync, zachęca nas już fakt, że Nvidia pracuje nad bardzo realnym problemem wpływającym na gry, dla którego nie zaproponowano jeszcze żadnego rozwiązania. Do tej pory można było włączyć lub wyłączyć synchronizację pionową według własnych upodobań. Co więcej, każdej decyzji towarzyszyły kompromisy, które negatywnie wpływały na wrażenia z gry. Jeśli zdecydujesz się pozostawić włączoną synchronizację Vsync do czasu, aż rozdzieranie stanie się nie do zniesienia, wybierasz mniejsze zło.

G-Sync rozwiązuje problem dając monitorowi możliwość skanowania ekranu ze zmienną częstotliwością. Tego typu innowacje to jedyny sposób na dalszy rozwój naszej branży przy jednoczesnym zachowaniu przewagi technicznej komputerów osobistych nad konsolami i platformami do gier. Nvidia bez wątpienia spotka się z krytyką za to, że nie opracowała standardu, który mogliby zastosować konkurenci. Firma w swoim rozwiązaniu wykorzystuje jednak DisplayPort 1.2. W rezultacie zaledwie dwa miesiące po ogłoszeniu technologii G-Sync była w naszych rękach.

Pytanie brzmi, czy Nvidia dotrzyma wszystkiego, co obiecała w przypadku G-Sync?

Trzej utalentowani programiści wychwalający zalety technologii, której nigdy nie widziałeś w akcji, mogą zainspirować każdego. Ale jeśli Twoje pierwsze doświadczenie z G-Sync Bazując na demo teście wahadła Nvidii, na pewno będziesz się zastanawiać, czy tak ogromna różnica jest w ogóle możliwa, czy też test reprezentuje specjalny scenariusz, który jest zbyt piękny, aby mógł być prawdziwy.

Oczywiście podczas testowania technologii w prawdziwych grach efekt nie jest już tak wyraźny. Z jednej strony słychać było okrzyki „Wow!” i „Szalony!”, z drugiej – „Myślę, że widzę różnicę”. Najlepszy efekt aktywacji G-Sync zauważalne przy zmianie częstotliwości odświeżania wyświetlacza z 60 Hz na 144 Hz. Ale próbowaliśmy także przetestować przy 60 Hz G-Sync aby zobaczyć, co otrzymasz w przyszłości dzięki (miejmy nadzieję) tańszym wyświetlaczom. W niektórych przypadkach samo przejście z 60 na 144 Hz będzie zaskoczeniem, zwłaszcza jeśli Twoja karta graficzna radzi sobie z dużą liczbą klatek na sekundę.

Dziś już wiemy, że Asus planuje wprowadzenie wsparcia G-Sync w modelu Asusa VG248QE, który według firmy będzie sprzedawany w przyszłym roku za 400 dolarów. Monitor ma natywną rozdzielczość 1920x1080 pikseli i częstotliwość odświeżania 144 Hz. Wersja bez G-Sync otrzymał już naszą nagrodę Smart Buy za wyjątkową wydajność. Ale dla nas osobiście 6-bitowy panel TN jest wadą. Bardzo zależy mi na rozdzielczości 2560x1440 pikseli na matrycy IPS. Zgodzimy się nawet na częstotliwość odświeżania 60 Hz, jeśli pomoże to utrzymać niską cenę.

Choć na targach CES spodziewamy się całej masy zapowiedzi, oficjalnych komentarzy Nvidii na temat innych wyświetlaczy z modułami G-Sync i nie słyszeliśmy ich cen. Dodatkowo nie jesteśmy pewni, jakie plany firma ma w stosunku do modułu upgrade, który powinien umożliwić wdrożenie modułu G-Sync do już zakupionego monitora Asusa VG248QE w 20 minut.

Na razie możemy powiedzieć, że warto było czekać. Przekonasz się, że w niektórych grach wpływ nowej technologii jest wyraźny, podczas gdy w innych jest mniej wyraźny. Ale w każdym razie G-Sync odpowiada na „brodate” pytanie, czy włączyć synchronizację pionową, czy nie.

Jest jeszcze jeden ciekawy pomysł. Po tym jak przetestowaliśmy G-Sync jak długo AMD może unikać komentarzy? Firma dokuczała naszym czytelnikom w swoim wywiadzie(w języku angielskim), zaznaczając, że wkrótce podejmie decyzję o takiej możliwości. A jeśli ona coś planuje? Koniec 2013 i początek 2014 roku przyniósł nam wiele ciekawych wiadomości do omówienia, m.in. Battlefield 4 Wersje Mantle, nadchodząca architektura Nvidia Maxwell, G-Sync, silnik AMD xDMA ze wsparciem CrossFire i plotki o nowych dwuchipowych kartach graficznych. Teraz brakuje nam kart graficznych z więcej niż 3 GB (Nvidia) i 4 GB (AMD) pamięci GDDR5, ale kosztują mniej niż 1000 dolarów...