Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

Tomek398

8GB VRAM do FHD?

Rekomendowane odpowiedzi

10 godzin temu, tomcug napisał:

RT to nie tylko odbicia ;)

Wuj Jensen uznał inaczej, a Tobie pozostaje ten stan zaakceptować, albo w ramach protestu grać wyłącznie w gry wymagające 12+ GB VRAM (w których też nieraz niezłe mydło na teksturach się trafia :E). Choć coś w temacie drgnęło, skoro w tej generacji dali 12 GB dla 4070 i 4070 Ti, gdzie przez kilka poprzednich GPU z tej numeracji dostawały 8 GB.

Parę dni temu seria 3000 obchodziła 3cie urodziny większość tych kart już w zasadzie powinna być wymieniana , ale odwalił się covid, firmy skapowały, że ludzie zapłacą po 5-6k za gpu i mamy co mamy.

Na dzisiaj taki 3080 to 300W grzejnik o wydajności 4070 (które powinno nazywać się 4060ti realnie)

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Eltik napisał:

swego czasu tez byly opinie ze po co kupowac 3080 12GB ...ja taka kupilem i mysle ze w momencie jak ci z 10gb wersja zaczna miec jakies klopoty to ja bede spokojnie gral bez problemow.

Zapewne tak będzie.

1 minutę temu, Eltik napisał:

 U nvidii jest tak ze daja 16GB do 4060 Ti a do sporo mocniejszego 4070 Ti 12GB

No wiadomo, czemu tak jest: bo w AD106 zamiast dać 6 kontrolerów po 32 bit, to wyżłobili tylko 4 ... w wówczas mogli dać 8GB, następnie zaczęło się wycie (w pełni uzasadnione) że taka ilość to śmiech na sali i w takiej sytuacji mogli dać tylko do wyboru 8 lu 16GB.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jest nawiasem mówiąc uzasadnienie dla mcm. Kontroler pamięci wymaga dużo tranzystorow i powierzchni rdzenia na połączenie ścieżek. Z kolei nie musi on być w nie wiadomo jakim procesie. Kontroler w procesie starszym niż rdzeń dobrze działa w kilku generacjach ryzenow, w rdna3... Ztcp w intelu już też od s1700? Więc mcm z kontrolerem w starszym procesie może być kluczem dla rozwiązania tej chorej sytuacji u nv. Chociaż oczywiście jeszcze musi być taka wola. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, Pioy napisał:

Kontroler pamięci wymaga dużo tranzystorow i powierzchni rdzenia na połączenie ścieżek.

Pamiętam zdjęcia rdzeni Polaris, chyba 470 jeszcze i tam kontroler VRAM (jedna sztuka miała po 32bit) mało powierzchni zajmował. No teraz jak patrzę na to foto, to może nie tak bardzo mało, ale czy tak znowu dużo ... no i jak by to wyglądało w dzisiejszych czasach, gdzie GPU maja więcej tranzystorów do liczenia (na foto chyba stary Polaris):

2d813c4b3a239.jpg

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak już sobie zadałeś ten trud to teraz wrzuć takie samo zdjęcie 4060 i 4070.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Pioy Bardzo bym chciał oczywiście zobaczyć takie zdjęcie AD106 i AD104, ale się z takowym nie spotkałem. Natrafiłem natomiast na AD102:

4123d6ed-8c41-4f64-a8b6-b85e3f94adb4_329

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No, największy chip ma miejsce na 12x32 (384 bit) po wszystkich krawędziach. Niestety ale nie jestem specjalnie zdziwiony, że 4070, 4070ti, ztcp będące po powierzchni około połową tego chipu, nie ma miejsca np na 8x32 (256 bit). A 4060 to już w ogóle jest malutkie. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, Pioy napisał:

A 4060 to już w ogóle jest malutkie. 

... w przypadku opartego na istotnie maleńkim AD107 modelu RTX 4060 oczywiście zrozumiałe jest zastosowanie 4 kontrolerów po 32 bit. Jednak w większym AD106 (RTX 4060Ti) sądzę, że 6 sztuk by się zmieściło na krawędziach części obliczeniowej chipa - oczywiście przez te 2 dodatkowe kontrolery AD106 byłby minimalnie jeszcze większy (więc i minimalnie jeszcze droższy).

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, Pioy napisał:

No, największy chip ma miejsce na 12x32 (384 bit) po wszystkich krawędziach. Niestety ale nie jestem specjalnie zdziwiony, że 4070, 4070ti, ztcp będące po powierzchni około połową tego chipu, nie ma miejsca np na 8x32 (256 bit). A 4060 to już w ogóle jest malutkie. 

Sądzę, że by się jednak spokojnie zmieściło. Kontrolery też się kurczą wraz z mniejszym procesem, choć w nieco mniejszym zakresie. Poza tym pamiętam jak malutkie chipy miały kontroler 128-bit. Te obrazki są nieco uproszczone a poza tym zawsze mogli pójść bardziej w szerokość kontrolera a nie długość ;-)

Seria 4000 wygląda jak wygląda bo Nvidia postanowiła wykorzystać swoją technologiczną przewagę tym razem przede wszystkim na zwiększenie marż.

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Assassin napisał:

Sądzę, że by się jednak spokojnie zmieściło. Kontrolery też się kurczą wraz z mniejszym procesem, choć w nieco mniejszym zakresie. Poza tym pamiętam jak malutkie chipy miały kontroler 128-bit. Te obrazki są nieco uproszczone a poza tym zawsze mogli pójść bardziej w szerokość kontrolera a nie długość ;-)

Seria 4000 wygląda jak wygląda bo Nvidia postanowiła wykorzystać swoją technologiczną przewagę tym razem przede wszystkim na zwiększenie marż.

Ale że musisz podłączyć 32 druty na każdy segment to nie ominiesz. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jak to drzewiej bywało, że taki GeForce 3 miał 128 mm2 i kontroler 4x32bit?

Poza tym pamiętać trzeba pamiętać o podstawach geometrii - chip o wymiarach 25x25 mm będzie miał powierzchnię 625 mm2 a chip o wymiarach 16x16 mm- 256 mm2. Różnice w obwodzie są znacznie mniejsze niż w powierzchni, więc miejsca na kontroler pamięci tudzież druty jest jakby sporo.

Edytowane przez Assassin

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, Kyle_PL napisał:

Jednak w większym AD106 (RTX 4060Ti) sądzę, że 6 sztuk by się zmieściło na krawędziach części obliczeniowej chipa

Technicznie na etapie projektowania GPU można to spokojnie upchnąć, problem w tym że to nie ma sensu - szyna pamięci to najmniej przycięty element w stosunku do 4090 i cała reszta układu jest tak pocięta że ta większa przepustowość pamięci i tak by nic nie dała. Dla 4060 Ti szynę w stosunku do 4090 masz 128 vs 384 bit = 33%, shadery 4352 vs 16384 = 26%, ROPy 48 vs 176 = 27%.

Masz obrazowo cały problem z tą generacją:

obraz.png.efc4f7a76d23dca2094854f1ae4ef335.png

obraz.png.85ae5e184222387cbaac03500b7d48d4.png

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
15 godzin temu, kochan4 napisał:

Ponad dwie dekady temu tak bylo, pamietam jakąs karte cirrus logic mialem i z 512 KB 1 MB zrobilem, ( 512 kość sie dokupowalo)

 

15 godzin temu, Kyle_PL napisał:

S3 Virge 3D ... standardowo 2MB, ale można było kostkami 0,5MB dołożyć do 4MB.

Miałem ATi Rage Pro 8MB (+ 8MB SGRAM chyba NEC) w czasach świetności Voodoo 1 , potem dwójeczka w SLi ........ bardzo miło wspominam ten czas (tachanie kompów na LAN PartY , wymiana Niemieckimi CDkami z demkami gier , czekanie w kolejce aby dostać się na giełdę w Katowicach , ..... .

Swiv 3D , Tomb Raider , TES 2 , Quake 1 , Croc Legenda Gobos czy coś takiego , pierwsze włączenie powodowało zbieranie szczęki z podłogi , wtedy przeskok sprzętowy / graficzny był konkretny , obecnie grafika niemal stoi w miejscu , fizyka leży i kwiczy (lub jej nie ma) , interakcja nie pozwala na dużo --- odgrzewanie kotletów niewiele wnoszących w temacie , obarczone wymaganiami z kosmosu.

 

Co do VRAM , niewiele osób ma pojęcie jak jest przenoszona/przechowywana tekstura (HDD->CPU->RAM->CPU->GPU) , myląc przy okazji jej rzeczywisty rozmiar , nie wspominając o kompresji (jakości) która to służy tylko i wyłącznie do szybszego jej przetransportowania z punktu A do B.

PRZYKŁAD (TES/FALLOUT w bardzo dużym uproszczeniu):

plik .nif (model) ma wewnątrz 8/10 miejsc na tekstury .dds / .tiff (poniżej) i wszystkie odpowiadają za coś innego

  • Diffuse map
  • Normal map
  • Glow map
  • Bump map
  • Cube map
  • Environment Mask
  • Inner layer map
  • Subsurface Tint / Specular / Backlight map

Pojedyncza tekstura (np. NORMAL MAP) wielkości 1024x1024 zajmuje na HDD 65KB (kompresując ją nawet do 1KB) , przy otwarciu jej zawsze zajmie 3MB w pamięci RAM (tak samo tyczy się VRAM).              

W zależności czego oczekujemy , wykorzystując wszystkie wolne sloty mamy już zajęte 24/30MB RAM/VRAM na 1 model (możemy się ratować np. zmniejszając niektóre MAPy).

Wszystko zależy od silnika i obsługiwanego formatu ( np. MAPy mogą być łączone).

 

Osobiście jestem zdania że obecnie 8GB to jest minimum (1080p) jeżeli planujemy grać w naj-nowsze i nadchodzące tytuły (gnioty optymalizacyjne).

Edytowane przez Yahoo86

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Widzę że dyskusja w tym wątku jest nie tylko ciekawa ale robi się też coraz bardziej merytoryczna. Super. 

Mam w związku z tym pytanie, które właściwie padło wcześniej, ale chyba bez odpowiedzi.

Czy techniki takie jak DLSS ograniczają wymagania co do VRAM czy też nie? A jeżeli nie, to dlaczego, skoro obraz renderowany jest w mniejszej rozdzielczości. Po prostu jestem tego bardzo ciekaw tzn: czy DLSS może pomóc kartom w kwestii VRAM.  

Edytowane przez Tomek398

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przeczytałem też ten art: A Deeper Look At VRAM On GeForce RTX 40 Series Graphics Cards | GeForce News | NVIDIA

Nie wiem na ile to co piszą ma odzwierciedlenie w rzeczywistości, a ile z tego to ściemnianie, ale z ich punktu widzenia ma to wszystko spory sens, tzn. 

Do 4K jest 4090/4080

Do 1440 jest 4070Ti/4070

Do 1080 jest 4060Ti/4060 8GB 

Jeżeli chcesz używać programów lub nielicznych gier które potrzebują więcej niż 8GB VRAM (w 1080) to kupujesz 4060Ti 16GB

Oczywiście na to wszystko nakłada się kwestia ceny,  która z punku widzenia użytkowników jest chyba największym problemem. 

Nie można też zapominać o Frame Generation. Widziałem to 'coś' w akcji (Flight Simulator) i na prawdę jestem pod wrażeniem. Obraz idealny pod względem jakości a procentowy przyrost FPS bardzo duży. Wiem że Flight Simulator jest specyficzny, ale w necie jest mnóstwo pozytywów na temat FG w kontekście innych gier. 

 

Edytowane przez Tomek398

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, Tomek398 napisał:

Czy techniki takie jak DLSS ograniczają wymagania co do VRAM czy też nie?

Jeśli przy rozdzielczości przykładowo 3840x2160 włączysz DLSS, w tryb przykładowo performance, to obniża się nieco zapotrzebowanie na VRAM (wszak bazowa rozdzielczość to wówczas 1920x1080). Z kolei jak włączasz FrameGenerator, to zwiększa się użycie VRAM - były już testy.

2 godziny temu, MassTA napisał:

Technicznie na etapie projektowania GPU można to spokojnie upchnąć, problem w tym że to nie ma sensu - szyna pamięci to najmniej przycięty element w stosunku do 4090 i cała reszta układu jest tak pocięta że ta większa przepustowość pamięci i tak by nic nie dała. Dla 4060 Ti szynę w stosunku do 4090 masz 128 vs 384 bit = 33%, shadery 4352 vs 16384 = 26%, ROPy 48 vs 176 = 27%.

Nie chodzi tylko o zwiększenie wydajności, ale też zwiększenie ilości VRAM, do bardziej rozsądnych 12GB (16GB na 128bitach wymagało dosyć problematycznych rozwiązań, a 8GB z kolei to pomyłka w dzisiejszych czasach, przy karcie o wydajności 4060Ti), natomiast wzrost wydajności również byłby - weź pod uwagę, że poza szyną jest jeszcze przepustowość samych kostek, a z tego co mi wiadomo, to RTX 4090 ma szybszą kostkę VRAM od RTX 4060Ti. Poza tym RTX 4060tI nie wykorzystuje wszystkich procesorów "CUDA" z układu AD106. Także moim zdaniem odblokowanie reszty procesorów i użycie 1,5x szybszego VRAM (te same kostki co obecnie, ale na 1,5x szerszej szynie), dałoby wzrost wydajności w RTX 4060Ti - oczywiście to wszystko gdybanie, bo jest co jest i nVidia nie da 192bit szyny w AD106 bo to już niemożliwe.

Godzinę temu, Tomek398 napisał:

Do 1080 jest 4060Ti/4060 8GB

Nie szufladkował bym w ogóle tak kart ... tak czy inaczej widać jak to 8GB się sprawdza w 1920x1080 na RTX 4060Ti ... znowu linkuję ten sam film:

 

Edytowane przez Kyle_PL
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z dedykacją dla kart z 8G i przyszłych gierek, robionych już myślą o wersji pro konsol i portach pc:szczerbaty::

zDv1Jyq.jpg

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie przesadzaj w drugą stronę, tak jakby nie istniał świat gier bez suwaka ustawionego na ULTRA. 

Na zachodzie europy różnica między 4060Ti i 4070 to około 200 euro a więc 2 doby w średnim hotelu. Nie są jakieś ogromne pieniądze biorąc pod uwagę to, jak długo korzysta się z takiej kary. 

A jeżeli chodzi o szufladkowanie, to karty szufladkują  się same swoimi osiągami. Moim innym hobby są motocykle i tam też są podziały, głównie na podstawie pojemności. Jak chcesz szybko to bierzesz 1000cc ale musisz więcej zapłacić. Jeżeli nie potrzebujesz to kupujesz 600cc. Jest może wolniej, ale nie zawsze potrzebujesz tej maksymalnej szybkości

Nie rozumiem dlaczego z kartami miałoby być inaczej. Zresztą tak już jest od dawna. Oczywiście upraszczam, ale ale tak to wygląda. 

 

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, MassTA napisał:

Technicznie na etapie projektowania GPU można to spokojnie upchnąć, problem w tym że to nie ma sensu - szyna pamięci to najmniej przycięty element w stosunku do 4090 i cała reszta układu jest tak pocięta że ta większa przepustowość pamięci i tak by nic nie dała. Dla 4060 Ti szynę w stosunku do 4090 masz 128 vs 384 bit = 33%, shadery 4352 vs 16384 = 26%, ROPy 48 vs 176 = 27%.

Masz obrazowo cały problem z tą generacją:

obraz.png.efc4f7a76d23dca2094854f1ae4ef335.png

obraz.png.85ae5e184222387cbaac03500b7d48d4.png

Ale dochodzi jeszcze kwestia, co jest wąskim gardłem RTX 4090. Bo jak przepustowość pamięci to wcale nie jest wykluczone, że i słabsze modele zyskałyby na szerszej szynie. Porównując specyfikację i teoretyczną wydajność 4060Ti względem 3070, ta pierwsza powinna być wyraźnie mocniejsza. Nie jest i stawiam na szynę jako główny powód. Podejrzewam, że hipotetyczny 4060Ti z szyną 192-bit spokojnie dawałby rade w pojedynku z 3070Ti.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Tomek398 napisał:

Nie przesadzaj w drugą stronę, tak jakby nie istniał świat gier bez suwaka ustawionego na ULTRA.

Nie trzeba Ultra. Tutaj akurat wystarczą wysokie tekstury w The Last Of Us, streaming przyznaję najszybszy (przynajmniej tekstury ostre jak się obracam), detale pozostałe "custom", rozdzielczość bazowa 1920x1080 (4K DLSS performance) i jest problem przy 8 GB VRAM, który znika na 16GB VRAM w 4060Ti.

W ogóle ja rozważałbym kwestię ilości VRAM, jako dodatkowy problematyczny czynnik. Bo czynniki są dwa: wydajność GPU (której brakuje wiecznie) i ilość VRAM (którego może brakować). Lepiej mieć po prostu jeden problem (niskawa wydajność rdzenia) niż dwa problemy (wydajność rdzenia + braki VRAM).

Zmierzam do tego, że nVidia przynajmniej nie powinna spuszczać na swoich klientów dodatkowo problemu małego VRAM. Klienci i tak będą wymieniać GPU z powodu wydajności rdzenia, więc po co im uprzykrzać życie dodatkowo?

4 minuty temu, Assassin napisał:

Podejrzewam, że hipotetyczny 4060Ti z szyną 192-bit spokojnie dawałby rade w pojedynku z 3070Ti.

No jak już tak spekulujemy, to obstawiam, że byłby właśnie na poziomie RTX 3070Ti.

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Yahoo86 napisał:

Pojedyncza tekstura (np. NORMAL MAP) wielkości 1024x1024 zajmuje na HDD 65KB (kompresując ją nawet do 1KB) , przy otwarciu jej zawsze zajmie 3MB w pamięci RAM (tak samo tyczy się VRAM).

Tak działa tylko w momencie gdy nie stosujesz kompresji tekstur. Dla przykładu co podałeś - pliki w formacie .dds ( DirectDraw Surface ) to są pliki tekstur w skompresowanym (stratnie) formacie, który może być wrzucony bez zmian do pamięci karty graficznej i dekoduje ona wtedy całą, bądź dowolny fragment takiej tekstury w locie za pomocą dedykowanych jednostek, tak że pełna postać istnieje jedynie w obrębie GPU i nie zajmuje pamięci VRAM, ani nie marnuje przepustowości pamięci na przesyłanie jej w pełnej postaci.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wydaje mi się, że przy wyświetlaniu, to jednak trzeba tak czy siak teksturę zdekompresować w VRAM.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Kyle_PL napisał:

Nie trzeba Ultra. Tutaj akurat wystarczą wysokie tekstury w The Last Of Us, streaming przyznaję najszybszy (przynajmniej tekstury ostre jak się obracam), detale pozostałe "custom", rozdzielczość bazowa 1920x1080 (4K DLSS performance) i jest problem przy 8 GB VRAM, który znika na 16GB VRAM w 4060Ti.

Ale do 4K, mimo DLSS, potrzeba znacznie więcej VRAM niż do native FHD, jak to ktoś tu wcześniej zauważył. Wiec takie wnioski w wątku o FHD idą moim zdaniem za daleko. 

Czy przy native 1080 też są problemy? Pytam, bo oczywiście mogą być. Sama NVIDIA przyznaje że jest 'garstka' gier którym może brakować 8GB VRAM  w 1080 i wtedy zalecają zakup wersji 16GB :-) Serio 

Jeżeli 4060Ti byłaby szybsza i miała przy tym 16GB VRAM to kto kupiłby  4070 12 GB? 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Tomek398 napisał:

Ale do 4K, mimo DLSS, potrzeba znacznie więcej VRAM niż do native FHD, jak to ktoś tu wcześniej zauważył. Wiec takie wnioski w wątku o FHD idą moim zdaniem za daleko.

Ciężko w sumie powiedzieć, czy to 4K czy FHD ... od strony wymagań może jak 2560x1440.

2 minuty temu, Tomek398 napisał:

Jeżeli 4060Ti byłaby szybsza i miała przy tym 16GB VRAM to kto kupiłby  4070 12 GB?

W tym czasie AD 104, na którym oparty jest RTX 4070, powinien mieć "doprojektowane" też 2 kontrolery więcej (czyli sumarycznie miałby szynę 256bit więc 16GB VRAM). Także wszystkie te GPU by się wydajnościowo trochę podniosły do góry, ale zyskałyby stosunkowo dużo (stosunkowo więcej) ilości VRAM.

4 minuty temu, Tomek398 napisał:

Czy przy native 1080 też są problemy?

Ja nie testowałem w tak niskiej rozdzielczości.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Kyle_PL napisał:

Wydaje mi się, że przy wyświetlaniu, to jednak trzeba tak czy siak teksturę zdekompresować w VRAM.

Format jest tak zrobiony że karta dekoduje dowolny potrzebny fragment (dajmy na to 8x8 pikseli) tekstury, który bez problemu mieści się w cache L1 karty graficznej i po jego zrasteryzowaniu do postaci wyświetlanej na ekranie może być zastąpiony kolejnym fragmentem. Format tej kompresji jest dosyć prosty i dekodowanie tego w locie jest praktycznie darmowe, a nawet przyśpiesza generowanie grafiki, bo mniej przepustowości pamięci zużywa, niż jakby miał przesłać 3-4x większą teksturę bez kompresji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się

Komentowanie zawartości tej strony możliwe jest po zalogowaniu



Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • @sideband Samsunga miałem jednego u siebie, no może 2 licząc jakiś bardzo stary mój pierwszy LCD. Też cewkami to wyło. Pobawię się z 2 tygodnie testując pewne rzeczy i się zobaczy... Chyba zwrócę i ewentualnie może coś się kupi ciekawego na promocjach za 2-4 miesiące na fakturę vat. Te monitory w ostatnich miesiącach czy ponad roku nawet strasznie szybko spadają z cen. Widać, że ten MSi co mam już standardowa cena, to jest 2699 zł w x-kom. ME też ma na promocji też za 2399. Kto wie... styczeń czy luty uda się to wyrwać za magiczne 1999 zł. No ale te cewki... Mi to przeszkadza. Kable te wystające to samo. Chyba bym wolał powłokę satynową, a nie glossy, ale jak to z tymi refleksami będzie, to się dowiem na dniach, a szczególnie jak będzie mocne słońce.  Też każdy straszy tymi samo rysującymi się powłokami tego QD-OLED... Często jem przy kompie, a co z tym idzie często czyszczę matrycę... Chyba, ze spróbować jeszcze jakiegoś W-OLED może...   W ogóle ktoś ma jakąś mało agresywną powłokę lub satynową czy same bardzo agresywne matowe lub glossy? Chyba Ty wspominałeś, że jest jakiś QD-OLED z gorilla glass, ale to w ogóle jest już na rynku?
    • @Grandal Jeszcze nie... https://youtu.be/iDVuQi4gdtk?t=53 
    • To już pora na wpisywanie... "Byłem tu - Waldek z Ciechanowa"? 
    • W sumie 32"(321UPX) jest większa to pewnie dlatego nie widać zasilającego ewentualnie jest inny. Tutaj dołączyli z taką krótką końcówką. Całe sterowanie matrycy to wszystko na pewno jest od Samsunga i lub zrobione na zlecenie Samsunga. Resztę flaków to też dla nich ktoś pewnie zrobił. Może w tych tańszych modelach od MSI przyoszczędzono jeszcze bardziej i mają jeszcze większą tendencje do hałasowania. U mnie wszystko jest ustawione max agresywnie w opcjach od wypalania i mam włączone wyłączanie ekranu po 3min bez aktywności. Tak opcja 16h o to chodziło inaczej będzie Ci wyskakiwała plansza co 4h. Jak nie wyczyści po wyłączeniu np. odetniesz zasilanie to i tak Cię zmusi na siłę po 16h  To akurat jest dobre dla niepełnosprytnych. Normalne treści w internetach, filmy czy gry to najlepiej używać w trybie sRGB. Ale jak lubisz przesycone kolory i gorzej odwzorowane to może używać na pełnym gamucie monitora co kto woli. Myślisz, że przypadkowo LG TV OLED lecą w trybie PC na sRGB 
    • Myślałem, że się doczekam swojego 20-lecia na forum(maj 2026) a tu nagle decyzja o zamknięciu. Spodziewałem się tego ale nie tak z buta. 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...