Skip to main content
Jeśli klikniesz link i dokonasz zakupu, możemy otrzymać małą prowizję. Zobacz politykę redakcyjną.

GeForce RTX 2080 / RTX 2080 Ti: Werdykt Digital Foundry

Czy warto kupić?

Architektura Turinga Nvidii reprezentuje największą zmianę w technologii grafiki komputerowej od, prawdopodobnie, pojawienia się architektury GeForce 3 kilkanaście lat wstecz. Obie te zmiany mają wiele wspólnego - zwłaszcza w dziedzinie skupienia się na wprowadzaniu nowych funkcji, poświęcając przy tym cenną przestrzeń matrycy krzemowej na rzecz raytracingu w czasie rzeczywistym oraz technologii głębokiego uczenia się, w przeciwieństwie do polegania na coraz większej liczbie rdzeni CUDA. Oczywiście dla Nvidii zawsze było to alternatywną opcją, która na pewno doprowadziłaby do zwiększenia wydajności w standardowym renderingu 3D i prawdopodobnie obniżyłaby ceny.

Fundamentalnie jednak, mielibyśmy do czynienia z tym samym co widzieliśmy już wcześniej - kolejny produkt definiowany przez to, o ile jest szybszy od swojego poprzednika, a który nie dostarczyłby czegoś rzeczywiście nowego i przyszłościowego. Architektura Turinga reprezentuje całkiem nową wizję gier - taką, która ściśle wiąże się z aspiracjami Nvidii dotyczącymi centrów danych i rynku motoryzacyjnego. Na pierwszy rzut oka nie ma wielkiej potrzeby na to, aby głęboko uczący się, tensorowy rdzeń Turinga był częścią produktów z serii GeForce - jednak jest to niezbędne dla aspiracji Nvidii dotyczących produktów przeznaczonych na inne rynki.

Na szczęście pojawienie się technologii DLSS wydaje się odnosić do trafności tej decyzji, oferując coś, co wygląda na rewolucję. Wciąż czekamy na gry, które będą w pełni korzystać z nowych funkcji, ale bazując na demach, które testowaliśmy, wydaje nam się, że Nvidia ma na celu zapewnienie dodatkowych 35-40 procent dodatkowej wydajności - i jest to kluczowy aspekt, który oddziela RTX 2080 od GTX 1080 Ti, który mimo wszystko, nadal jest wyjątkowo dobrym urządzeniem przeznaczonym dla graczy.

DLSS wydaje się mieć również dodatkowy cel. Według mnie - i całej redakcji DF - możliwość uruchomienia raytracingu w niższej rozdzielczości (przed skalowaniem do natywnej rozdzielczości ekranu) jest kluczem do zwiększenia wydajności tej technologii: demonstracja Star Wars Reflections autorstwa Nvidii - silnie polegająca na DLSS przy wsparciu rozdzielczości 1440p i 4K - zdaje się to potwierdzać. Niedługo przyjrzymy się dokładniej technologii DLSS, umieścimy porównania zrzutów ekranu oraz przeanalizujemy dokładniej wydajność.

Metro Exodus jest kolejnym pokazem raytracingu RTX. John i Alex dzielą się swoimi przemyśleniami na temat gry, bazując na wersji kodu przedstawionego na Gamescomie. Plus sporo ciekawostek wprost od twórcówZobacz na YouTube

Opierając się na opiniach na temat raytracingu, które otrzymaliśmy od deweloperów, nie wspominając już o imponującej liście gier obsługujących DLSS, jasnym wydaje się, że nowe funkcje architektury Turinga będą miały znaczący wpływ na przyszłość gier. Jednak istnieje obawa, że niektóre, inne funkcje sprzętu mogą zostać przeoczone.

Tak było w przypadku układu Maxwell, który miał własny sposób na podejście do cieniowania o zmiennej częstotliwości. Programiści mogli przypisać różne rozdzielczości do różnych elementów wyświetlanych na ekranie. Była to bardzo fajna funkcja, która zapewniała dobry wzrost wydajności. Jednak ten aspekt imponował tylko w Shadow Warrior 2 i niewiele studiów zdecydowało się wykorzystać tę opcję. Funkcje VRS Turinga są na zupełnie innym poziomie i mamy nadzieje, że zostaną wykorzystane na szerszą skalę. Mamy również nadzieję, że zapowiadana optymalizacja Wolfensteina 2 zostanie niedługo udostępniona - to pokaże skuteczność nowej technologii.

Jednak tu i teraz nie możemy oprzeć się myśli, że wiele z tego, co oferuje Turing, zostanie wykorzystane dopiero w przyszłości. W okresie premiery kart RTX nie będzie dostępna żadna gra wspierająca raytracing, a nawet na gry ze wsparciem DLSS przyjdzie nam jeszcze trochę poczekać. Biorąc to pod uwagę, całkowicie normalne będzie wstrzymanie się z zakupem. Doskonale rozumiemy, że może to być ciężka decyzja, zwłaszcza, że GTX 1080 Ti nadal pozostaje konkurencyjna w dziedzinie tradycyjnego renderingu 3D - a jej ceny mogą niedługo spaść. Przy ekstremalnych cenach układów RTX, tańsza 1080 Ti może okazać się kusząca.

To ceny są tu głównym problemem. Nazywaliśmy RTX 2080 naturalnym następcą GTX 1080, ponieważ istnieje tu wyraźna spuścizna architektoniczna (posiada procesor drugiego poziomu, 256-bitową magistralę itd), to jednak wycena sprawia, że jest jeszcze droższa niż GTX 1080 Ti. W obecnych czasach jest to sytuacja bez precedensu.

Jednocześnie wyraźnie wzrósł koszt wytworzenia produktu - i to tylko, jeżeli weźmiemy pod uwagę sam rozmiar karty, nie mówiąc już o pamięci GDDR6 czy o znacznie lepszej jakościowo obudowie i rozwiązaniach termicznych. Wszystko to ma miejsce w erze, w której ceny flagowych telefonów rutynowo idą w górę - nawet Xbox One X przeniósł granicę ceny w niewygodne dla nas miejsce. Tempo ewolucji technologicznej spada, a ceny rosną.

Decyzja o zainwestowaniu tak dużej ilości pieniędzy w wysokiej klasy procesor graficzny wymaga dogłębnego zastanowienia się - zwłaszcza, kiedy nowe produkty Ti są wyceniane na poziomie Titana. Można śmiało powiedzieć, że na krótszą metę, produkty działające na architekturze Pascala są nadal świetne, a potencjał Turinga dopiero zaczyna być wykorzystywany.

Pozostają pytania na temat wykorzystania kluczowych funkcji, ale podejrzewamy, że w ciągu kilku kolejnych miesięcy będziemy otrzymywać coraz więcej informacji na temat wsparcia raytracingu i DLSS. W chwili obecnej to właśnie cena będzie dla wielu zaporą nie do przejścia, jednak faktem jest, że to właśnie Nvidia jest pierwszą firmą, która przyspieszyła wizję przyszłości technologii gier, wypuszczając na rynek sprzęt, który oferuje rezultaty nieosiągalne dla innych - i już nie mogę się doczekać, żeby zobaczyć jakie wyniki osiągniemy w nadchodzących miesiącach i latach.

Analiza GeForce RTX 2080 / RTX 2080 Ti

Read this next