Skocz do zawartości
yampik

NVIDIA (GTX) rly RTX 30x0

Rekomendowane odpowiedzi

2 godziny temu, Tornado3 napisał:

Dropów nie będzie, ale z racji nie załadowania HDpacka jakośc tekstur jest gorsza

cytuje z purepc:

"Testy wykonane bez HD Textures - różnice możecie zobaczyć w treści, natomiast żeby w podstawowych pomiarach nie kombinować, zostawiłem tekstury standard. U mnie po odpaleniu HD na RTX 3070 nie było jednak spadków w 4K Ultra DXR ON."

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

12GB VRam dla nowych wymagających graficznie gier to ciągle będzie mało  , 16GB Vram powinno być standardem  ,a do  4k Ultra  20-24GB Vram .

  • Haha 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
26 minut temu, Bemx2k napisał:

16GB Vram powinno być standardem  ,a do  4k Ultra  20-24GB Vram

ta i potem nasrane niekompresowanych tekstur trawy 8192x8192, gierka waży 512TB i wygląda jak gówno bo tekstury ultra ostre ale oświetlenie do dupy.

  • Like 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jacy gracze takie gry, nawalić tekstur w 16k + HDR i większość już zadowolona a że kod AI mieści się w 640KB..ale kto by tam szukał grania w grach, od znacznika do znacznika i podziwiać 4k HDR :D

Edytowane przez Wu70
  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, sideband napisał:

Jak developer ma guano zamiast mózgu to na pewno.

Ubi i EA to żadni developerzy :E

 

7 godzin temu, kaTus napisał:

Dobrze, że 3080Ti wyszło

Najbardziej zje...e Ti w historii, ale spoko :lol2:

To forum bez błaznów już chyba wąchało by kwiatki od spodu. ?

 

Edytowane przez DisconnecT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie kroci cię skorzystać z tak super okazji, by zrobić darmowe upgrade na kartę za ponad 8 tys zł ? ?

 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, DisconnecT napisał:

To forum bez błaznów już chyba wąchało by kwiatki od spodu. ?

 

Mógłbyś zachować kulturę jako potężny guru z długim stażem na forum a nie od razu wyzwiska :E może chłop sie nie zna albo nie jest głęboko w temacie i wcale nie troluje ? szanujmy się panowie :group_h:

 

Edytowane przez Send1N
  • Like 2
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, DisconnecT napisał:

Najbardziej zje...e Ti w historii, ale spoko :lol2:

 

coo ??? na jakiej podstawie tak twierdzisz ?

3080ti energetycznie jest 7-10% bardziej wydajne od zwykłego 3080, więc jak dla mnie całkiem spoko. Owszem cenowo jest odjechana, ale wszystko w tej chwili ma dziwne ceny. Sam produkt jest fajny.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zazwyczaj jesli jakies studio wspolpracuje z ktoryms producentem to dostaje od niego algorytm do zaimplementowania w celach optymalizacyjnych, np w przypadku amd wyglada on tak:

if (amd_title)
    vram_alloc(12GB +1)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, ODIN85 napisał:

Jak kupiło się w 3080 w cenie premierowej to jeszcze szło zarobić na przesiadce na 3080Ti.

I ja tak właśnie zrobiłem ;)

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, kaTus napisał:

Czemu najbardziej zwalone Ti w historii?

Chodzi o to że modele z Ti oferowały zawsze znacznie większy skok wydajności niż oferuje 80Ti względem 80 w ampere, w tym przypadku jest tylko 10% 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Send1N napisał:

Chodzi o to że modele z Ti oferowały zawsze znacznie większy skok wydajności niż oferuje 80Ti względem 80 w ampere, w tym przypadku jest tylko 10% 

Do 16%, a skoro 3090ti mają się pojawić to 3080ti nie będzie najgorsza w historii ?

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No nie zartuj bo akurat 2080ti a 3080 jest przepaść ? 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Send1N napisał:

No nie zartuj bo akurat 2080ti a 3080 jest przepaść ? 

Dokładnie, ja bym 2080ti ustawił tak bardziej z 3070-3070ti

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, kaTus napisał:

Na 2080Ti po OC wyciskałem w Time Spy ponad 17k, a 3080 wyciskają ok. 19.5k.

Cyferki w benchmarkach w dodatku starych nie mają przełożenia na rzeczywistą wydajność w grach ? 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, IceMan75 napisał:

coo ??? na jakiej podstawie tak twierdzisz ?

3080ti energetycznie jest 7-10% bardziej wydajne od zwykłego 3080, więc jak dla mnie całkiem spoko. Owszem cenowo jest odjechana, ale wszystko w tej chwili ma dziwne ceny. Sam produkt jest fajny.

A znasz różnicę poprzednich generacji, bo skoro 7-10% jest rarytasem, to nic tylko czekać na 4-6%, też będzie lux. ?

Wcześniej xx80 było kaleką przy xx80Ti, dzisiaj jest na odwrót Ti jest kaleką, ale wizerunkową ;)

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, kaTus napisał:

ale 3070 to daleko w dupalu za 2080Ti.

tylko w 3dmarku

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 godzin temu, kaTus napisał:

Chyba, że mówimy o tych legendarnych testach z premiery Ampere, gdzie 2080Ti latało z zegarem ~1750MHz. 

nie, mówimy o tych z przed max kilku miesięcy jak Metro Enhanced edition lub FarCry 6 z przed tygodnia

Far Cry 6 2560x1440 / Ultra / DXR ON

VwbdTuK.png

Metro 2560x1440 / Ultra / RT Ultra / DLSS Q / HW ON / PhysX ON

6chUCE8.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

55 minut temu, Tornado3 napisał:

nie, mówimy o tych z przed max kilku miesięcy jak Metro Enhanced edition lub FarCry 6 z przed tygodnia

No i jaki zegar w 2080ti masz na wykresie? 1700Mhz.

Inna sprawa że żeby w 2080Ti zrobić 2100+ MHz to mówimy o selekcie na wodzie, a w 3070 osiągnąć zegary rzędu 2100+ to można w średnich kartach na powietrzu zrobić. 

Fakt, nie będzie to wydajność 1:1, ale generalnie idą łeb w łeb, pod warunkiem że ktoś umie podkręcić Ampere tak żeby trzymało stały zegar a nie tylko suwaczek +200mhz a realne OC 15mhz bo power limit xD 

Edytowane przez assire

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Akurat zegar nie musiał być taki bo tuaj są podane po prostu wartości fabryczne jak w gpu-z a każda karta z tych wykresików zapewne boostowała wyżej i tak ;) 

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Jednak nie nazywałbym składek (ZUS, NFZ) podatkami. Można mówić o kosztach pracy, ale jednak ich naliczanie czy przeznaczenie jest inne i nie mieszajmy pojęć.
    • Witam, pytanko mam, A320 Fenix, brak u mnie strzałek góra/dół przy pokrętłach mam tylko łapkę, tak ma być czy coś nie tak jest?
    • Podpierałem się nie jakimś liptonem bo podstawowa zasada jest taka że jutjuberom nie wierzymy gdyz mówią to za co dostaną pieniądze tylko: a: informacjom z paru źródeł że z zasady matx mają gorsze sekcje zasilania niezależnie od marki (więc jedynym argumentem za kupnem plyty matx jest ilość miejsca w obudowie, domu) b: wiedzy sprzed lat o czym już pisałem. Zawsze na początku jakiejś podstawki ludzie polecają asrocki bo są tanie, później polecajki zmieniają się na normalne płyty w stylu msi gigabyte czy Asus. Może moje uprzedzenie jest błędne ale ASRock kojarzy mi się z takimi płytami ECS (ciekawe czy ktoś pamięta to barachło) które byky dobre bo były tanie i na tym się ich wspaniałość kończyła. 2-3 lata i kondensatory sie wylewały, zaczynały się restartu i bsody z dupy.  Oczywiscie nie jestem super znawca i fachowcem dlatego nie idę w zaparte że ASRock to barachło, natomiast twierdzę że 350zl dziś to nawet nie jest pełny bak paliwa więc wydaje mi się głupotą nie dołożyć takich pieniędzy do płyty lepszej firmy. Natomiast znów, NAJWAŻNIEJSZE żeby osoby które czytają ten post nie brały jako pewnik polecajek jutjuberom, polecajek na forach tylko uzyly głowy, zebrały informacje i wybrały produkt który DLA NICH będzie najlepszy.  Ja nigdy nie kupuje najtańszych produktów bo z zasady co tanie to drogie i co tanie to kiepskie i nie uwierzę ze takie tanie płyty główne (tanie porównując do innych marek) będą takie same jakościowo.     
    • Tutaj masz listę oficjalnych sklepów i keyshop'ów. Ja kupiłem tą grę w GameBillet.
    • Masz rację. Spojrzałem na datę testu "premierowego" na jednym z portali co nie oznaczało premiery karty. Faktycznie w czasie górki krypto wiele kart było testowanych ze sporym poślizgiem na części portali. Doszła do tego siła sugestii czyli RX 6700 którego posiadam debiutował w 2022 i obligatoryjnie założyłem że RX 6600 też🥵
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...