Skocz do zawartości
yampik

NVIDIA (GTX) rly RTX 30x0

Rekomendowane odpowiedzi

battlefield 1 wyszło w 2016 roku to ta gra na pewno więcej wykorzystuje, ale słyszałem że już crysis 3 z 2013 roku w jednej lokacji potrafił już dużo wykorzystać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bardzo chciałbym, by gry potrafiły wykorzystać więcej wątków ale nie potrafią. Aby gry były o wiele bardziej zaawansowane niż teraz i działały z większa ilością klatek/s (monitory high refresh, nawet do 480 Hz) potrzebne jest zwiększenie wydajności o minimum rząd wielkości. 9900K nie przynosi nawet 50% więcej klatek/s względem prawie 5-letniego 6600K, a kosztuje 2300 zł. Zobaczcie jak niewiele odstaje 7700K. 2080 SUPER jest troszeczkę szybszy od 1080 Ti i ma 3 GB VRAM mniej, a w marcu mija 3 lata. Żenada.

 

g8-L2-JZe-R46x-NRDdf3-Mqx6-K-650-80.png

Ppwp-GWsrecg75qqey-Jxm-RA-650-80.png

untitled-2.png

 

Co to w ogóle ma być za "postęp"? Mija 2 lata i zamiast 8600K możesz kupić 2.22% szybszego 9600K w cenie często 10% wyższej. To chyba przykry żart jest. Zmieniać kompa to można chyba tylko dla samej zmiany, bo sensu owa zmiana nie ma, poza wąskimi zastosowaniami HEDT (7980XE na 2x droższy i 4x szybszy 3990X).

Edytowane przez Kynareth

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja przez 5 lat cisnąłem głównie w multiplayer w Neverwinter Nights i bardzo dobrze wspominam te czasy. A i tak NWN nie chciało mi działać płynnie w 1280x1024. Musiałem grać w większość gier na niższej rozdziałce. Z tego co pamiętam to zwykle 800x600. Dziś tak naprawdę jest o wiele lepiej. Sprzęt niby jest drogi, ale jak kupi się go w dobrym momencie (przykład GPU - Pascale) to starczy na długie lata. Kiedyś się kupowało topkę, a i tak czasem nie starczyło to żeby gry chodziły bezproblemowo. A za rok, dwa lata sprzęt już nawet niedomagał. :EJa Turinga na Ampere raczej nie wymienię, naiwnie liczę na to że 2080 starczy mi do CP2077 w jakichś sensownych ustawieniach w 4K, a więcej gier na PC i tak nie widzę na horyzoncie. Większość będę kupował na Switcha, a potem na PS5/Xboxa jak nowe konsole trochę się już zaadaptują na rynku.Z drugiej strony jeśli Ampere okaże się kolejnym Pascalem (w co wątpię) to będzie mnie trochę bolało. Chociaż byłem świadom, że składam kompa w najgorszym momencie.

Wydajnościowo może i jest jakaś szansa żeby zbliżyć się do sukcesu Pascala, nie liczył bym jednak na łaskawe ceny.

Ja też oleję 3080Ti i wezmę zwykłą 3080 jeżeli nadal będą krzyczeć ponad 2500 zł za 20% więcej, co jest śmiechem na sali, zaoszczędzone pieniądze już lepiej wydać na PS5 i rozszerzyć sobie bibliotekę gier.

Skoro producent może odcinać kupony, to ja będę robić to samo.

 

Wiadomo coś o złączu HDMI 2.1 w nowej nadchodzącej serii kart nvidi :question:Inaczej czy w ogóle mają zamiar dać takie wyjście bo z premierą tych kart Oledzik chulałby wtedy aż miło

Nic nie wiadomo, ale raczej na 99% będą wyposażone w HDMI 2.1, w przeciwnym razie NV strzeliła by sobie prosto w pysk odcinając swoje GPU od OLED'ów 120Hz które mają szansę rozgromić rynek.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak dla przypomnienia 1080ti jest szybszy o ~85% od 980ti wink.gif

 

Pewnie jakby teraz zrobić porównanie byłoby jeszcze więcej na korzyść Pascala.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bardzo chciałbym, by gry potrafiły wykorzystać więcej wątków ale nie potrafią. Aby gry były o wiele bardziej zaawansowane niż teraz i działały z większa ilością klatek/s (monitory high refresh, nawet do 480 Hz) potrzebne jest zwiększenie wydajności o minimum rząd wielkości. 9900K nie przynosi nawet 50% więcej klatek/s względem prawie 5-letniego 6600K, a kosztuje 2300 zł. Zobaczcie jak niewiele odstaje 7700K. 2080 SUPER jest troszeczkę szybszy od 1080 Ti i ma 3 GB VRAM mniej, a w marcu mija 3 lata. Żenada.

 

g8-L2-JZe-R46x-NRDdf3-Mqx6-K-650-80.png

Ppwp-GWsrecg75qqey-Jxm-RA-650-80.png

untitled-2.png

 

Co to w ogóle ma być za "postęp"? Mija 2 lata i zamiast 8600K możesz kupić 2.22% szybszego 9600K w cenie często 10% wyższej. To chyba przykry żart jest. Zmieniać kompa to można chyba tylko dla samej zmiany, bo sensu owa zmiana nie ma, poza wąskimi zastosowaniami HEDT (7980XE na 2x droższy i 4x szybszy 3990X).

 

 

 

RTX 2080 Super troszeczkę szybszy od GTX 1080 ti ??? XDD

 

No bez jaj chłopie na tej twojej i5 6600k może i tak, ale z normalnym prockiem do gier RTX jest DUŻO szybszy od GTX 1080 ti, 2070 Super jest na równi.

 

Na co komu te 3GB Vramu? W 1440p mało która gra alokuje więcej niż 6GB.

Edytowane przez Kjubb

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jaki jest wg ciebie ten "normalny" procek do gier? Pewnie nic poniżej i9 9900k

Edytowane przez blubaju

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

na pewno nie 4/4 :hmm:

 

6/12 i w górę jest w stanie wykorzystać potencjał tych kart w nowych grach z minimalną przewagą intela nad AMD w 0.1 i 1% fps

 

No chyba że się mylę i nie ma potrzeby do 1440p kupować nic więcej niż Ryzen 3/ Intel core I3 ?

Edytowane przez Kjubb

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

RTX 2080 Super troszeczkę szybszy od GTX 1080 ti ??? XDD

A ile Twoim zdaniem 2080S jest szybszy od 2070S bo 1080Ti to wydajność +/- ten drugiej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zegar w zegar? Okolice 15% w zależności od gry oczywiście. I zakładając, że nie łączymy tych kart z prockami 4/4.

 

2080 Ti wyprzedza superke o około 20% .

Edytowane przez Kjubb

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Trochę mniej, choć wiele się nie pomyliłeś przy porównaniu 2070S do 2080S ;)

 

wydajnosc.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To zależy głównie od procka/gry ale różnice +- są na takim poziomie jakim podałem, oczywiście zegar w zegar, po OC 2080 Super potrafi odjechać trochę mocniej od 2070 Super z racji pamięci samsunga, które w większości robią +1200Mhz.

Edytowane przez Kjubb

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie sądzę żeby 8700k @ 4.9 GHz był tutaj problemem, a wynik to wartość uśredniona ze wszystkich testowanych produkcji.

 

Pod względem pamięci 2070S może być przegranym, ale już 1080Ti ma szerszą szynę i końcowa przepustowość po OC pomijając algorytm kompresji koloru kończy się na podobnym poziomie co 2080S.

Edytowane przez DisconnecT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oj te wasze cyferki 2080s ~340GB/s, 1080ti ~403GB/s

 

I co z tego im wyższa rozdzielczość tym 1080ti tym bardziej odstaje wink.gif Nie tylko przepustowość pamięci jest istotna.

 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To może się pochwalisz, co Ty teraz policzyłeś? :)

 

Lubię strasznie ten Twój powtarzający się argument o wyższej rozdzielczości, problem w tym że obydwie karty najlepsze osiągi jakości do wydajności prezentują w 1440p, do 2160p z prawdziwego zdarzenia jedna i druga to kartofel, więc?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jest rzeczywista przepustowość, a to co widzisz na papierku to jest tylko teoretyczna.

 

1.jpg

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

GPU-Z i wiele innych programów używają błędnego mnożnika dla szyny danych stąd wychodzi kosmos, ale o ile mnie pamięć nie myli, przecież sama NV karmi swoich klientów właśnie takimi wynikami.

Wedle tej logiki dla 2080Ti mamy 14.000 (Mbps) x 352 (Bit) /8 = 616.000 MB/s Na stronie jak byk jest podane 616 GB/s.

 

Pamięci od dawna są określane w błędnych jednostkach, podziały na zegary rzeczywiste i efektywne? Druga wartość powinna podawana w Mega albo Giga Transferach na sekundę. Zapis określający gęstość od biedy jest ok, ale wstępnie prowadzi do błędnych wniosków.

 

Do tego jeszcze błędna pojemność np. 1 GB i zapominanie o takiej jednostce jak GiB.

Wiele jest jest taki naleciałości z lat 90, stąd nie będę zawracał Wisły kijem i każdemu tłumaczył skoro i tak wszyscy dookoła w tym i sami producenci opierają się na takowych schematach.

Edytowane przez DisconnecT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

RTX 2080 Super troszeczkę szybszy od GTX 1080 ti ??? XDD

 

No bez jaj chłopie na tej twojej i5 6600k może i tak, ale z normalnym prockiem do gier RTX jest DUŻO szybszy od GTX 1080 ti, 2070 Super jest na równi.

 

Na co komu te 3GB Vramu? W 1440p mało która gra alokuje więcej niż 6GB.

 

No tylko troszeczkę, bo zaledwie 11%. Wychowałem się w czasach, gdy co roku były karty 100% szybsze (a nie 11% szybsze po 3 latach), czytałem testy w Chipie i CD-Action i tak sobie wyrobiłem zdanie.

 

Nie mojej, bo ja 4 wątków od lat już nie używam, RTX nie jest dużo szybszy w obecnych grach.

 

Strasznie głupie rozumowanie. Więcej VRAMu jest potrzebne, by mogły wychodzić gry, które wymagają go więcej. Tak to w przeszłości działało: wychodzi karta z większą ilością VRAM (2x co 1.5-2 roku) i zaczynają ukazywać się gry mogące tyle użyć. Obecnie niby jest coś takiego - Titan RTX ale cena wynosi 5x tego co zwykły kosztować flagowe produkty, więc się nie liczy.

 

6 lat po PS2, Radeon X1950 XTX miał 16x więcej RAM. 6 lat po PS3, Radeon 7970 miał 6x więcej RAM. 6 lat po PS4, Radeon 5700 XT ma tyle samo RAM. Czy tylko ja widzę problem?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Podstawa to zwiększenie ilości VRAMu w kartach ze średniego segmentu, inaczej nikt nie będzie tworzył gier wymagających więcej VRAM aby dobrze chodziły jedynie na kartach z topu które posiada kilka procent PCtowych graczy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Problem w tym, że średni segment się przesunął. W 2016 był to RX 480 i GTX 1060 za $200-250. W 2019 RX 5700 XT i 2060 SUPER za $400.

 

Winę ponoszą właściciele kopalń kryptowalut oraz gracze kupujący karty po zawyżonych cenach (czyli każdy kto zakupił Turinga).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bardzo chciałbym, by gry potrafiły wykorzystać więcej wątków ale nie potrafią. Aby gry były o wiele bardziej zaawansowane niż teraz i działały z większa ilością klatek/s (monitory high refresh, nawet do 480 Hz) potrzebne jest zwiększenie wydajności o minimum rząd wielkości. 9900K nie przynosi nawet 50% więcej klatek/s względem prawie 5-letniego 6600K, a kosztuje 2300 zł. Zobaczcie jak niewiele odstaje 7700K. 2080 SUPER jest troszeczkę szybszy od 1080 Ti i ma 3 GB VRAM mniej, a w marcu mija 3 lata. Żenada.

 

g8-L2-JZe-R46x-NRDdf3-Mqx6-K-650-80.png

Ppwp-GWsrecg75qqey-Jxm-RA-650-80.png

untitled-2.png

 

Co to w ogóle ma być za "postęp"? Mija 2 lata i zamiast 8600K możesz kupić 2.22% szybszego 9600K w cenie często 10% wyższej. To chyba przykry żart jest. Zmieniać kompa to można chyba tylko dla samej zmiany, bo sensu owa zmiana nie ma, poza wąskimi zastosowaniami HEDT (7980XE na 2x droższy i 4x szybszy 3990X).

FPS to nie wszystko obejrzyj sobie

Filmik nie przedstawia czysty gaming i doskonale o tym wiem. Zwróć uwagę jak bardzo dobry fps ma procesor 4/4, ale tak naprawdę nie daje rady. Ludzie na mnie naskakiwali że 4/8 nic nie daje w porównaniu do 4/4. Mimo że sam na własne oczy widziałem po zmianie procesora z 4/4 na 4/8 gdzie przy multitaskingu była ogromna różnica w płynności. Dzisiaj 4/8 dobrze się jeszcze broni. W przypadku 6/12 czy 8/8 nowsze gry które potrafią wykorzystać dobrze CPU będzie jeszcze lepiej. Obecnie 4/4 odchodzi do lamusa i tyle.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Up

Kolega dobrze prawi, potwierdzam, co do 4/4 to już nawet w cs go dostaje czkawki a wiadomo jak ten silnik działał na początku :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mam procesor 6/12 od 2016, więc wiem o tym, że lepiej mieć 6/12 niż 4/4, to oczywiste. Ale przy wyłączonych programach w tle, 4/8 wciąż pozwala na wygodne granie w 60 klatkach/s i więcej, mimo że Ryzen 1700X wyszedł w marcu 2017, czyli prawie 3 lata temu, a 8-rdzeniowy 5960X w 2014. Gdy ktoś nagrywa czy streamuje to już potrzeba więcej niż 4/8 ale większość nie nagrywa i nie streamuje. Kiedyś po 3 latach były już gry potrafiące zrobić dobry użytek z procesorów, a dzisiaj nie ma. W sprzedaży za 18 tys. zł jest 64 rdzenie 128 wątków, czego do 99.99% oprogramowania nie ma jak w pełni użyć. W 2010 narzekano, że Starcraft II potrafi tylko 2 rdzenie użyć, a obecnie wciąż wychodzą gry na 4 rdzenie, mimo że maksymalna ilość rdzeni w pecetach pomiędzy 2010, a 2020 wzrosła nie z 2 do 4, tylko z 6 do 64.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

Localray, ciekawe co z tego wyjdzie, bo jeśli software RT ma być realizowany z lepszymi rezultatami jak u nvidii przy rdzeniach od RT to zapowiada się na rewolucję.

 

 

Takie rezultaty na mobilnym GTX maxq 1080

Edytowane przez pawel86ck

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

Localray, ciekawe co z tego wyjdzie, bo jeśli software RT ma być realizowany z lepszymi rezultatami jak u nvidii przy rdzeniach od RT to zapowiada się na rewolucję.

 

 

Takie rezultaty na mobilnym GTX maxq 1080

Rewolucyjne fantazje :lol2:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...