Skocz do zawartości
Minciu

NVIDIA GeForce GTX-RTX 20x0

Rekomendowane odpowiedzi

Jak będą już dosyć konkretne informacje,a tych póki co brak ;)

Zerknij kiedy powstał ten temat o turingach i ile postów jest naklepane, zanim pojawiły się jakiekolwiek konkrety.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie generalizujmy. Pytanie kto chciał i widział potrzebę zakładania takiego tematu. Do końca roku nowe karty od nvidia będą na jakiś procent na rynku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z AMD jest ta sama głupota 2x większa powierzchnia to nie dwa razy wyższa wydajność. Trzeba brać pod uwagę skalowanie oraz przyrost ilości tranzystorów po dodaniu wsparcia dla RT  i nawet przy kosmicznym TDP nie ma szans na 2x wyższą wydajność.

 

Przy Nv lolek pojechał po bandzie i sumarycznie wyszło 2x wyższa wydajność na wat lol2.gif Ale tego typu głupoty pojawią się zawsze długo przed oficjalną premierą.

Edytowane przez sideband

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Poprawiłem to(sam) choć plotki mówią i o wydajności. Pytanie z czym i na jakim chłodzeniu :E nie temat o tym ich rdna

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak się prezentuje czerwone logo? :finger:

 

Opis1.png

Edytowane przez scooby14444

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak się prezentuje czerwone logo? :finger:

 

 

Opis1.png

 

 

 

Na pewno lepiej od tych niepoukładanych kabli :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na pewno lepiej od tych niepoukładanych kabli :E

Tak ma być. To się nazywa nieład artystyczny. :cool:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No chyba ze tak :D

 

Nie grzeje Ci sie bardziej sekcja zasilania przez ten kabel eps?

Edytowane przez dawidoxx

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zerknij kiedy powstał ten temat o turingach i ile postów jest naklepane, zanim pojawiły się jakiekolwiek konkrety.

15 miesięcy przed premierą.

Ostatnie pogłoski wskazują premierę Ampere w 2 połowie roku,ale z tym to trzeba do marca zaczekać.

 

Jak myślicie jakich cen można się spodziewać po nowej serii?

Myślę,że raczej utrzymają się ceny na obecnym poziomie.

Edytowane przez Splendor_97

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

3 miesiące przed premierą.

Raczej rok i ponad 3 miesiące.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Raczej rok i ponad 3 miesiące.

Dobra,mój błąd.

Nie sądziłem że aż tak wcześnie :o

 

Generalnie do wszystkich premier,przecieków i innych aktualności podchodzę bardzo obiektywnie - po prostu w to co przedstawiają np.media technologiczne nie wierzę,dopóki nie ma oficjalnych prezentacji/premier/pierwszych testów.

Edytowane przez Splendor_97

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Patrzac na zejscie do 7nm tutaj mozna spodziewac sie faktycznie do 50% wzrostu wydajnosci. Domyslalm sie ze to roznica w RT a zwykla rasteryzacja bedzie odrobine mniejsza. Ciekaw jestem czy karty dostana wiecej vram :hmm:

Edytowane przez Phoenixsuple

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie spodziewałbym się takiej różnicy wydajności jak w maxwell-pascal, zapewne 3070 to będzie coś pokroju 2080 super tylko 800 zł tańszy...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Panowie,

 

Co polecacie do 4K. Dołożyć drugiego 2070s, czy wymieć na 2080ti?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Patrzac na zejscie do 7nm tutaj mozna spodziewac sie faktycznie do 50% wzrostu wydajnosci. Domyslalm sie ze to roznica w RT a zwykla rasteryzacja bedzie odrobine mniejsza. Ciekaw jestem czy karty dostana wiecej vram :hmm:

50% to nic trudnego, ale 2x wyższa wydajność na wat to już pitolenie o szopenie. Raczej będzie na odwrót przy RT mogą być wyższe wzrosty w pewnych scenariuszach. RT to świeży temat i większe pole do popisu jeżeli chodzi o poprawki/optymalizacje.

 

Panowie,

 

Co polecacie do 4K. Dołożyć drugiego 2070s, czy wymieć na 2080ti?

2080ti

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak koniecznie chcesz, to wymień. Z doświadczenia powiem, że 80ti w 4k w wielu nowych grach spisuje się miernie i moim zdaniem szkoda kasy. Chyba, że jeszcze nie masz monitora, to polecam 2k, w tej rozdzielczości to jest bestia;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

50% to nic trudnego, ale 2x wyższa wydajność na wat to już pitolenie o szopenie. Raczej będzie na odwrót przy RT mogą być wyższe wzrosty w pewnych scenariuszach. RT to świeży temat i większe pole do popisu jeżeli chodzi o poprawki/optymalizacje.

 

 

 

A ja zgaduję, że RTX20x0 okażą się jak zwykle popsute i nowa generacja zgniecie je totalnie szczególnie przy RT :D

 

SLI 2070s vs 2080TI obie opcje nie są już warte uwagi, patrz wyżej :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Właśnie jestem na etapie wyboru monitora, ale tylko 4k. Na 99% będzie to Asus ROG Swift PG27UQ 27. Mogę go mieć za niecałe 5k PLN.

 

A jak wygląda gra w 2k na takim monitorze? Widać sporo gorszy obraz?

 

A ja zgaduję, że RTX20x0 okażą się jak zwykle popsute i nowa generacja zgniecie je totalnie szczególnie przy RT :D

 

SLI 2070s vs 2080TI obie opcje nie są już warte uwagi, patrz wyżej :D

 

Ja chcę coś na teraz, a nie za jakiś czas ;) Wyjdą nowe karty to wtedy się można zastanawiać nad zmianą.

Edytowane przez ProVis

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na 2k nie widać różnicy przy tym rozmiarze i dobrze Ci radzę, żebyś nie brał monitora 4k do 2080ti, bo będziesz ciąć detale, rdr2 nawet na medium potrafi przyciąć. Gram na tv w 4k i z gier z bardzo dobrą grafiką mogę ustawić absolutnie wszystko na maksimum tylko w forzy horizon 4. Niedawno ogrywałem Control, na większym ekranie gra się fajnie, więc grałem na tv, detale mocno obcięte. Zobaczyłem jak to wygląda na maks ustawieniach bez rtx i dokończyłem grę na monitorze. Różnica w jakości, postprocessingu itp. jest ogromna. Póki co nie ma na rynku dobrej karty do 4k, full HD to pikseloza a 2k to idealny kompromis. Rozdzielczość jest na tyle duża, że pikselozy nie ma, a gry wyglądają dużo lepiej, niż pocięte w 4k. Podsumowując - w 2k nie widać sporo gorszego obrazu, w grach widać sporo lepszy obraz. W ogóle jak masz tyle kasy na monitor, to bym nie męczył się na 27", wg mnie 32 do grania to minimum.

Ja bym w ogóle na Twoim miejscu kupił dobry monitor 2k i został na 70s, sam niedawno taką sprzedałem, miałem w drugim kompie i do 2k była na styk, tak 60fps nawet w najbardziej wymagających tytułach, ew z niskim są albo bez. Sam sprzedaje tytana jakoś w marcu, żeby za dużo nie stracić i czekam na nowe karty, bo 2080ti jest niby ok, ale z rt to mogę wygodnie pograć w nowego coda i tyle. Jak zaczną wychodzić nowy gry wspierające rt, to by mnie tylko tyłek swędział, że tyle kasy starczyło na rok grania, a na zwykłym 1080 bawiłem się koło 3 lat. Ta generacja to na dłuższą metę niewypał, zainwestuję w 3080 i mam nadzieję, że starczy na dłużej.

Edytowane przez henryk nowak

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zapewne masz/macie rację i tak byłoby najrozsądniej. ALE.

 

1. Niektóre gry da radę grać spokojnie w 4k.

2. Monitor wymieniam co kilka lat. Karty znacznie częściej :E

3. Na monitorze 4k mogę przecież grać w 2k, prawda?

 

Tylko właśnie Ad.3 jak to się ma w praktyce? Duże straty?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

27" to dobry rozmiar do WQHD i nie ma sensu się katować niskim fpsem 4k ;)

Możesz grać na nim w niższej rozdzielczości ale to same minusy i po co wtedy płacić za 4k?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie można grać w 2k na monitorze 4k. Teoretycznie da się to włączyć, ale obraz jest tragiczny. Pewnie masz teraz monitor full HD, to włącz sobie coś 1280x720. Już wolałbym natywne 1366x768 od 2k na 4k. Monitor to nie telewizor, gdzie w porządnym modelu masz skaler i nawet gry ze switcha wyglądają nieźle na 4k. Serio katowanie się 4k przy mocy obecnych kart to głupi pomysł. Często zmieniasz karty, ale jak często zmieniasz na karty za 5000zł? Przecież znim 4k będzie standardem, to może być tak, że karty z najwyższej półki nie będą starczyć do nowych gier w tej rozdzielczości. Wyjdzie 3080ti, a zaraz jakaś gra go zarżnie. Przypominam, że na pc wciąż standardem jest 1920x1080, a gdzie tu 4k i może jeszcze rt? Owszem, 4k już niedługo będzie standardem, bo 1920x1080 jest na topie chyba z 7 lat, ale to za chwilę to mogą być dwie, przy odrobinie pecha nawet trzy generacje kart graficznych. Jasne, na monitorze nie opłaca się oszczędzać, bawi mnie jak ktoś ma kartę za 5k i monitor full HD 24", ale 2k do 27 czy 32" wystarczy i będzie to wyglądać bardzo dobrze. Dawno nie grzebałem w monitorach, ale wg mnie idealny byłby teraz dobry monitor z wysokim kontrastem, HDR,2k i 32". O 4k pogadamy za 3 lata ;)

Edytowane przez henryk nowak

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Właśnie jestem na etapie wyboru monitora, ale tylko 4k. Na 99% będzie to Asus ROG Swift PG27UQ 27. Mogę go mieć za niecałe 5k PLN.

 

A jak wygląda gra w 2k na takim monitorze? Widać sporo gorszy obraz?

 

 

5 tysięcy za 27" IPSa?? Tyle to kosztują OLEDY 55". A nawet mniej :P

 

Podstawowa sprawa wygląda tak, że ROG Swift PG27UQ nie posiada portu obrazu, który byłby w stanie wyświetlić 4K 144Hz, tym bardziej 10bit HDR. Do tego sądząc po cenie jest to ekran z drugiej ręki? Masz na to pełną gwarancję czy nie bardzo. Bo to sporo kasy i bez gwarancji wysokie ryzyko.

 

Na teraz jak już musisz koniecznie coś mieć, to kup sobiw WQHD i wstrzymaj się z atakowaniem 4K przez kilka miesięcy. Bo za chwilę prawdopodobnie będziesz miał nowe generacje GPU które pociągną całkiem sprawnie 4K. Do tego powinny mieć HDMI 2.1 i w opcji zakupowej ekranów pojawi się OLED 4K 48" 120Hz z HDMI 2.1 i puścisz sobie 4K 120Hz 10bit HDR na porządny ekran.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przekonaliście mnie :E

 

@Monitor nowy, z US ;)

 

Nie wiedziałem, że obraz 2k na monitorze 4k może wyglądać słabo. Tak, teraz mam FHD, ale wcześniej (kilka lat przerwy od PC) grałem tylko w 2k (gtx680 i poźniej 780 dawał radę). Ten miał być przejściowy na czas remontu.

 

OK, to poszukam czegoś w WQHD (wcześnie też miałem ROG Swift i byłem bardzo zadowolony).

 

Do 2k wymienie zatem na 2080 super. Dopłata niewielka (tak jak przyrost mocy :D )

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zapewne masz/macie rację i tak byłoby najrozsądniej. ALE.

 

1. Niektóre gry da radę grać spokojnie w 4k.

2. Monitor wymieniam co kilka lat. Karty znacznie częściej :E

3. Na monitorze 4k mogę przecież grać w 2k, prawda?

 

Tylko właśnie Ad.3 jak to się ma w praktyce? Duże straty?

We wszystko pograsz w 4k na spokojnie, gram w RDR2 na nastawach od hardware Unboxed i nie spada ponizej 50fps w najbardziej wymagajacych miejscach a wiekszosc czasu jest i tak wiecej fps, reszta gier wystarczy zjechac oczko nizej z Ultra na Wysokie i spokojnie ogarniesz kazda gre. Jesli ktos jest swiadom zeby jeden preset zjechac w dol lub jedna opcje typu wolumetryczna mgla to ograsz na dzis kazda gre bez problemu w 4k.

 

1440p 144hz to bardzo fajny kompromis na dzis z dobrym IPS bajka.

Edytowane przez Phoenixsuple

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...