Zotac GeForce RTX 4090 Trinity jest kartą referencyjną i w zestawieniu z lekko podkręconym Palitem to widać. Chociaż różnica między kartami to zaledwie 90 MHz w trybie Boost, to przekłada się to nawet na kilka dodatkowych klatek na sekundę na korzyść modelu GameRock OC. Im wyższa rozdzielczość, tym różnice są mniejsze, a nie podejrzewam nikogo o zakup RTX 4090 do grania w 1080p, więc tak naprawdę można powiedzieć, że strata Zotaca jest mniejsza, niż mogłoby się wydawać.
No i trochę gorsze wynik nie powodują, że jest to karta słaba. Nic z tych rzeczy. To nadal wydajnościowy potwór, który w Cyberpunk 2077 wyciąga około 80 klatek na sekundę na ustawieniach Ultra (bez RTX i DLSS), a to po prostu musi robić wrażenie. Zachowuje przy tym dobrą kulturę pracy, chociaż ponownie muszę przypomnieć, że testy wykonujemy w otwartej obudowie, więc docelowo temperatury mogą być wyższe, a to oznacza też szybsze kręcenie wentylatorów i potencjalnie również większą głośność całego chłodzenia.
Nie zmieniają się też końcowe wnioski względem karty RTX 4090 jako takiej. Jeśli macie wolne 10 tys. zł i planujecie zakup tego modelu, to naprawdę nie obejdzie się bez potężnego PC-ta. W trakcie testów czuć było, że nasz Core i9-11900K w kilku sytuacjach staje się wąskim gardłem, szczególnie w niższych rozdzielczościach, gdzie CPU odgrywa większe znaczenie. Najlepszym wyborem powinny być najnowsze układy Intela, w tym przede wszystkim Core i9-13900K, o ile potwierdzą się plotki o jego bardzo wysokiej wydajności w grach.
Duże wrażenie robią też możliwości DLSS3, chociaż na razie sprawdziliśmy je zaledwie na przykładzie jednej gry. Docelowo będzie ich dużo więcej (na ten moment zapowiedziano 35 gier i aplikacji z obsługą Deep Learning Super Sampling 3) i wtedy postaramy się o bardziej pogłębione testy nowej wersji techniki skalowania obrazu. Na razie wygląda to bardzo obiecująco, bo z włączonym Ray Tracingiem w jakości Ultra i DLSS3 ustawionym na wydajność wzrost liczby klatek na sekundę jest niemal dwukrotny w porównaniu z natywnym obrazem 2160p. Dokładnie przyglądałem się też generowanemu obrazowi i uwierzcie mi, że na monitorze 4K nie byłem w stanie dostrzec różnicy, ale – jak już mówiłem – w niedalekiej przyszłości mam plan przyjrzeć się temu dokładniej.
GeForce RTX 4090 to prawdziwy potwór. NVIDIA dokonała rzeczy niesamowitej, oferują bardzo duży, bo w rozdzielczości 4K nawet ponad 50-procentowy, wzrost wydajności względem modeli GeForce RTX 3090 Ti. A to nie lada wyczyn. W połączeniu z DLSS, w tym przede wszystkim DLSS3, wyniki są jeszcze lepsze. Niestety, idzie to w parze z wysokim zużyciem energii, chociaż niższym niż się spodziewałem przed rozpoczęciem testów. W dobie kryzysu energetycznego i wizji drastycznych podwyżek cen prądu każdy kilka razy zastanowi się, zanim zdecyduje się na zakup karty. Moment, w którym odbywa się premiera RTX 4090 to tak naprawdę największy problem NVIDII. Z jednej strony zakończył się kryzys na rynku GPU, ale zaczął inny, być może jeszcze poważniejszy dla nas wszystkich.
Zalety:
Wady:
Źródło zdjęć: Damian Jaroszewski (NeR1o)