Skocz do zawartości
yampik

NVIDIA (GTX) rly RTX 30x0

Rekomendowane odpowiedzi

Jeszcze się okaże po tych testach, że się ludzie rozmyślą :E Bo ja bym tej grzałki nie kupił, pomimo dobrej wydajności. 

  • Haha 1
  • Upvote 5

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, ODIN85 napisał:

Mi tam starczy.

"W borderlands 3 jak widać erteiks trzy tysiące osiemdziesiąt nie osiągnął magicznych 60fps, zabrakło 2 klatek"

jesteś pewny że ci wystarczy? :E czy jednak rzucasz wszystko i czekasz do hoppera :> 

Edytowane przez Send1N

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niesamowitym hamulcem jest procesor - i9-10900K. Widać to u hardwareunboxed. To karta do 4K, a nie do 1440p. Słabo się robi, jak ogląda się wyniki w 1080p.

  • Like 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Meanwhile użytkownicy na całym świecie po przeczytaniu recenzji RTX 3080 którzy "za bezcen/za pół darmo" sprzedawali swoje RTX 2080 TI...

 

:rotfl: 

  • Haha 11

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tom Hardware i Jay2cent mowili ze temperatura 71-72 C maks dobijala. Calkiem niezle jak na takie uzycie energii

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, BlindObserver napisał:

Jeszcze się okaże po tych testach, że się ludzie rozmyślą :E Bo ja bym tej grzałki nie kupił, pomimo dobrej wydajności. 

Niech się rozmyślają, ja bierę, zrobi się OC pamięci, UV rdzenia, rzuci AIO i będzie lux karta.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Według testów na techpowerup dot.skalowania PCIe z RTX 3080 wyszło,że różnica między x16 3.0 a x16 4.0 wynosi średnio... 1% :szczerbaty:

  • Like 1
  • Haha 2
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, BlindObserver napisał:

Jeszcze się okaże po tych testach, że się ludzie rozmyślą :E Bo ja bym tej grzałki nie kupił, pomimo dobrej wydajności. 

Referent u mnie tak jak się spodziewałem, całkowicie odpada ~76 stopni przy ~1800+ RPM :E, a po lekkim OC jeszcze gorzej

Jakby kogoś interesowała wydajność PCIE, mniej niż 1% różnicy

relative-performance_3840-2160.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, Spl97 napisał:

Według testów na techpowerup dot.skalowania PCIe z RTX 3080 wyszło,że różnica między x16 3.0 a x16 4.0 wynosi średnio... 1% :szczerbaty:

Pisalem wczesniej ze bedzie taka roznica :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No i wszystko mi opadło... Teraz muszę zwrócić tą paczke pamersów której nie wykorzystałem. Jest ok, ale spodziewałem sie lepszych wyników w 4k. A to jeszcze nie jest karta do tej rozdzielczości...

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, lukibossss napisał:

Po testach tylko utwierdziłem się że 2080ti za 2500zł to nie był zły deal.

Jak nie korzystasz z RT to tak, ciekawe jak CB2077 z rt

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, lukadd napisał:

Referent u mnie tak jak się spodziewałem, całkowicie odpada ~76 stopni przy ~1800+ RPM :E, a po lekkim OC jeszcze gorzej

Jakby kogoś interesowała wydajność PCIE, mniej niż 1% różnicy

 

Granica błędu pomiarowego w teście PCIe, ale to było do przewidzenia. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie no wyniki są naprawdę dobre, 2080 Ti za 2500 zł traci sens zakupu. Control 30 fps więcej ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, forfun napisał:

Niesamowitym hamulcem jest procesor - i9-10900K. Widać to u hardwareunboxed. To karta do 4K, a nie do 1440p. Słabo się robi, jak ogląda się wyniki w 1080p.

Szkoda ze nie kazy tu rozumie takie sprawy :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, ODIN85 napisał:

Dobra o której jutro recki niereferentów?

Pewnie też o 15:00

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W nowych tytułach przepaść będzie rosnąć, tego można być pewnym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Spl97 napisał:

Według testów na techpowerup dot.skalowania PCIe z RTX 3080 wyszło,że różnica między x16 3.0 a x16 4.0 wynosi średnio... 1% :szczerbaty:

gdzie sa onaniści od pciexpress 4.0?

  • Haha 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Creati2k napisał:

No i wszystko mi opadło... Teraz muszę zwrócić tą paczke pamersów której nie wykorzystałem. Jest ok, ale spodziewałem sie lepszych wyników w 4k. A to jeszcze nie jest karta do tej rozdzielczości...

Co za bzdury przecież masz odpowiedni skok względem 2080Ti serio ktoś myślał że początkowe bzdury o 2x wydajności właśnie 2080ti to będzie prawda ? :tse:?

Z drugiej strony po takim uV jak się mowiło aby zejśc do tych 250W akurat zrobisz wydajność 2080Ti w z lepszym RT :E 

Edytowane przez Send1N

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Creati2k napisał:

No i wszystko mi opadło... Teraz muszę zwrócić tą paczke pamersów której nie wykorzystałem. Jest ok, ale spodziewałem sie lepszych wyników w 4k. A to jeszcze nie jest karta do tej rozdzielczości...

Hmmm pomysl sobie teraz o 3090... Mialem nadzieje na wiecej mocy w 4K od 3080, tak zeby az bardzo nie frajerzyc placac tylko za extra VRAM i ~ 20-30% wiecej wydajnosci...

 

Tragedia to FS2020 (lub jego optymalizacja) i nie wydaje sie ze 3080 to dalej karta do top zestawow VR :( 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mnie zastanawia to co pure napisało:

Takiemu GPU przydałoby się więcej VRAM niż skromne 10 GB, co niebawem nastąpi, ponieważ w październiku część producentów powinna wprowadzić do oferty modele dysponujące 20 GB GDDR6X. Niestety, będą to konstrukcje odpowiednio droższe, a wykorzystanie takiej ilości VRAM ponownie budzi wątpliwości - optymalne było 16 GB.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Widać, że proces Samsunga to niezły szajs od strony wydajności. Ustawili kartę na styk niech się Nv puknie w głowę ?

  • Thanks 1
  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   1 użytkownik

×
×
  • Dodaj nową pozycję...