Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

Tomek398

8GB VRAM do FHD?

Rekomendowane odpowiedzi

Od czasu premiery 4060Ti jest mała (albo i duża ;-) ) burza w internecie na temat tego czy 8GB VRAM wystarczy do FHD. 

Nie jestem grafikiem 3D itp. i nie znam się na tworzeniu gier 3D, ale zastanawiam się skąd te obawy. Przecież jeżeli chodzi o rozdzielczość to FHD dzisiaj to będzie to samo co FHD za 5 lat. Ja rozumiem że więcej tekstur potrzebuje więcej pamięci i takie tam, ale po pierwsze te nowe gry które ledwo się mieszczą w tych 8GB wcale nie wyglądają jakoś tak rewelacyjnie, a po drugie to 8GB pamięci to na prawdę sporo, w tym sensie że w 8GB można zmieścić  ponad godzinę filmu 4K HDR (np. Netflix 15Mbit).  To jest 1 godzina 10 min oglądania!!! :-)  

Wiem, że strasznie to wszystko upraszczam, ale po prostu nie bardzo rozumiem po co developerom tak dużo pamięci w sytuacji gdy gry wcale nie wyglądają tak dużo lepiej od tych ,które potrzebują tej pamięci dużo mniej. 

Pytanie. Czy 8GB do FHD to rzeczywiście takie duże ograniczenie, biorąc pod uwagę przyszłość (3-4 lata)?

 

 

Edytowane przez Tomek398

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, Tomek398 napisał:

 Przecież jeżeli chodzi o rozdzielczość to FHD dzisiaj to będzie to samo co FHD za 5 lat.

Nowe gry często pobierają więcej VRAM, a rozdzielczość nie ma tu pierwszorzędnego znaczenia (choć oczywiście też wpływ na użycie VRAM ma). Problem czasem brzydko objawia się po dłuższej grze (przykładowo kilkadziesiąt minut w jakieś Halo Infinite i tekstury rozmydlone)

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiem że to wszystko jest dużo bardziej skomplikowane, ale z drugiej strony np. przepustowość PCI Express 3.0 x16 to 15,754 GB/s

PCI Express – Wikipedia, wolna encyklopedia

Co sekundę można przesłać 2 godziny filmu 4K HDR :-)

 

 

 

Edytowane przez Tomek398

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, Tomek398 napisał:

Ja rozumiem że więcej tekstur potrzebuje więcej pamięci i takie tam, ale po pierwsze te nowe gry które ledwo się mieszczą w tych 8GB wcale nie wyglądają jakoś tak rewelacyjnie, a po drugie to 8GB pamięci to na prawdę sporo, w tym sensie że w 8GB można zmieścić  ponad godzinę filmu 4K HDR (np. Netflix 15Mbit). 1 godzina 10 min oglądania!!! :-)  
 

... no ale co z tego? :) Jest jak jest. Optymalizacja gier jest taka jaka jest i ilość materiału video jaki mieści się w 8GB nie ma tutaj znaczenia. :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na moim laptope mam 4GB Vram i full HD z odświeżaniem 144hz rzeczywiście gra Cyberpunk spada poniżej do 30fpsów i to z raytracingiem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, Tomek398 napisał:

Wiem że to wszystko jest dużo bardziej skomplikowane, ale z drugiej strony np. przepustowość PCI Express 3.0 16 to 15,754 GB/s

PCI Express – Wikipedia, wolna encyklopedia

Co sekundę można przesłać 2 godziny filmu 4K HDR :-)

... no ale co z tego, skoro obraz potrafi nieźle szarpać przy tak niskiej przepustowości jak ~16GB/s? :)

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, Kyle_PL napisał:

 ilość materiału video jaki mieści się w 8GB nie ma tutaj znaczenia. :)

Wiem. Z tym materiałem wideo to był tylko przykład aby sobie uświadomić że 8GB pamięci to na prawdę sporo.  Oczywiście VIDEO i 3D to inne bajki. 

Teraz, Kyle_PL napisał:

... no ale co z tego, skoro obraz potrafi nieźle szarpać przy tak niskiej przepustowości jak ~16GB/s? :)

Wiem. Dlatego zastanawiam się gdzie tu jest problem bo w wielu miejscach można znaleźć info że prędkość PCI E jest w tej chwili więcej niż wystarczająca nawet dla najszybszych kart. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Tomek398 napisał:

prędkość PCI E jest w tej chwili więcej niż wystarczająca nawet dla najszybszych kart. 

... nie dla bufora ramki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tego co kojarzę widziałem testy 4090 na PCI E x16 i  x8  i w grach  nie było wielkich różnic. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, Tomek398 napisał:

Z tego co kojarzę widziałem testy 4090 na PCI E x16 i  x8  i w grach  nie było wielkich różnic. 

Nic dziwnego, skoro te karty mają 24GB VRAM i nie muszą podczas gry trzymać kluczowych dla każdej ramki danych w RAM głównym komputera (dzięki czemu po tej wolnej magistrali PCI-E mało danych musi być przesyłanych ... bo to co możliwe siedzi już w pamięci karty graficznej, a skoro tak, to nie ma większego znaczenia czy mamy PCI-E x16 4.0 czy x8 4.0).

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, Tomek398 napisał:

 

Wiem, że strasznie to wszystko upraszczam, ale po prostu nie bardzo rozumiem po co developerom tak dużo pamięci w sytuacji gdy gry wcale nie wyglądają tak dużo lepiej od tych ,które potrzebują tej pamięci dużo mniej. 

 

 

 

Sporo zalezy od tego ile faktycznie miejsca gra potrzebuje na tekstury a ile na inne ficzery graficzne. Dla przykladu taki Resident Evil 4 Remake jak ustawisz preset pod 8 gb vram to pokazuje ze na tekstury wykorzystuje "tylko" 2gb a reszta na inne rzeczy. Wiec nie tylko o tekstury tu chodzi a one maja bardzo duzy wplyw na to jak gra wyglada. Stad wnioskuje  ze gry nie wygladaja duzo lepiej niz pare lat temu a wymagaja wiecej vram bo maja napchane mase innych ficzerow ktore niewiele wnosza w grafike gry jako taką

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Problemy z 8G vramu zauważyłem u siebie już prawie dwa lata temu przy okazji cyberpunka i greedfall - objawy takie same - na najwyższych teksturach z czasem gry narastały coraz bardziej przycinki, które ustępowały po resecie gry. Czyli zapchany vram lub wycieki pamięci ze strony gry. Po zejściu z tekstur szczebelek niżej problem też ustępował. Po wymianie karty (na znacznie mocniejszą z 2x większą pamięcią) oczywiście problemów brak. Już nie jedna gra w 2023 pokazała, że czas kart z 8G dawno minął. Dochodzi też do komicznych prób napraw przez developerów, gdzie w takim Hogwarcie po prostu nie ładuje się część tekstur, gdy robi się źle w temacie z pamięcią.

To jest pułapka - pakowanie się w kartę z taką ilością pamięci w roku 2023. To nie jest kwestia rozważenia czy za 3-4 lata będzie dobrze, źle, czy umiarkowanie - to jest praktycznie pewne, że to będzie udręka grać na karcie 8G w takim okresie czasu w jakąkolwiek sensowną grę AAA. 

Edytowane przez Kelam
  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Kyle_PL napisał:

Nic dziwnego, skoro te karty mają 24GB VRAM i nie muszą podczas gry trzymać kluczowych dla każdej ramki danych w RAM głównym komputera (dzięki czemu po tej wolnej magistrali PCI-E mało danych musi być przesyłanych ... bo to co możliwe siedzi już w pamięci karty graficznej).

ten argument ma sens. Tak czy inaczej, w dalszym ciągu nie bardzo rozumiem po co więcej pamięci VRAM do FHD w przyszłości. 

Jestem fanem CoD WWII  i ta gra wygląda dla mnie bardzo fajnie i zadowala się bardzo małą ilością VRAM w porównaniu do nowszych produkcji. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Tomek398 napisał:

Tak czy inaczej, w dalszym ciągu nie bardzo rozumiem po co więcej pamięci VRAM do FHD w przyszłości.

Więcej, bardziej złożonych obiektów (tekstur, efektów i innych danych) w grach przyszłości + optymalizacja na większą ilość VRAM.

5 minut temu, Tomek398 napisał:

Jestem fanem CoD WWII  i ta gra wygląda dla mnie bardzo fajnie i zadowala się bardzo małą ilością VRAM w porównaniu do nowszych produkcji. 

W CoD WWIII lub IV będzie z pewnością inaczej 🤭

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Tomek398Tylko twoja wrażenia nie mają nic do rzeczy. Liczy się ogólny trend wśród czołowych developerów i dużych marek. Teraz wajcha ewidentnie jest w trakcie przesuwania z 8G na 12G jeżeli chodzi o 1080p. I to samo będzie już niedługo z kartami z 12G +- do 1440p. Też ludzie z 4070/ti zostaną z ręką w nocniku. O tych z 10G, to szkoda gadać - taki rtx 3080 moc ma, żeby popykać w 1440p, ale już zaczyna robić pod siebie, bo dali tylko 10G vramu.  Nvidia specjalizuje się w ubijaniu całych generacji swoich kart z powodu vramu. Raz jeden z Pascalami wyszło im inaczej i długo tego żałowali, bo za dobrze i przyszłościowo wyszły tamte karty - jak znakomity budżetowy 1060 6G, na którym ludzie grali całymi latami w godnych detalach na 1080p czy gtx 1080ti. Ale cyk - obmyślili pompowanie balonika RT i problem z głowy. Także teraz mamy dwa limitery ubijające perspektywiczne zakupy tego komponentu - vram i rt. Huang musi być przeszczęśliwy. 

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiem że będzie inaczej. Obserwuję świat komputerów i gier komputerowych od czasu Amigi 1200 :-)

Po prostu nie rozumiem dlaczego lecąc w Flight Simulator nad miastem gdzie są tysiące obiektów, drzewa, inne samoloty itd. wszystko jest super i zużycie pamięci jest na poziomie 6.5GB, a w innej grze idę sobie ciemnym korytarzem w którym niewiele się dzieje i są problemy z teksturami które się nie wyświetlają lub są jakieś przycięcia.   

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Lenistwo programistów i już wiesz czemu VRAM brakuje, przykład - masz sześcian oteksturowany i drugi tak samo oteksturowany w tej samej jakości, z tym że jeden sześcian ma  6 poligonów a drugi 60 i już masz większe użycie pamięci, a w grze poligonów nie zobaczysz.

Czasem jest to nieudolność a czasem jak gra jest popularna i wielce wyczekiwana to dostroją ją tak aby magicznie miała 60fps na najdroższych GPU.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Żeby była jasność.... Nie jestem wrogiem większej ilości VRAM. Gdyby budżet mi pozwolił to kupiłbym sobie kartę z 32GB VRAM :-)  i nie zawracał głowę takimi tematami. Ale żyjemy w takich okolicznościach w jakich żyjemy i 99% z nas ma ograniczony budżet  i zastanawia się na jakie kompromisy i ograniczenie musi się zgodzić. I właśnie jednym z takich ograniczeń jest ilość VRAM. Wynika to, jak zauważyliście, z polityki firm, w tym przypadku głównie z NVIDIA.

O ile widzę wyraźnie różnice w jakości  rozgrywki pomiędzy kartą która generuje 25-30 fps i taką która generuje 50-60 fps to dużo trudniej mi dostrzec te wszystkie wizualne korzyści które wynikają z tego że karcie potrzeba więcej niż 8GB VRAM (w FHD). 

Do tego dochodzi jeszcze DLSS. Jeżeli gra jest renderowana w niższej rozdzielczości to oczywiście potrzebuje mniej a nie więcej VRAM. 

A tak swoją drogą, to byłoby idealnie, gdyby ilość VRAM można było rozszerzać dokupując kolejny moduł, tak jak to jest z RAM'em

Edytowane przez Tomek398

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Tomek398 napisał:

Do tego dochodzi jeszcze DLSS.

Choć co ciekawe, jeśli dorzucimy do tego DLSS dodatkowo FakeGenerator (a może Frame Generator - jakoś tak) to wymagania wzgl. VRAM rosną. ... jak na ironię losu, biorąc pod uwagę, że to rozwiązanie, ma "pomagać".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Rozszerzanie VRAMu już było - jakies 30 lat temu .. Problem w tym że za chwilę będą GDDR7 - gdzie takie kupisz ? Jak je schłodzisz ? Aktualnie kości montowane są w standardzie BGA - tu trzeba by większej zabawy 

Jesli opróczy wyświetlania klatki , masz ją jeszcze analizować to dlaczego ilość użytego VRAMu ma spadać ? Zakladam że FG jest robiony na poziomie karty a nie GPU >> CPU >> GPU

 

Edytowane przez Yedi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, Kyle_PL napisał:

Choć co ciekawe, jeśli dorzucimy do tego DLSS dodatkowo FakeGenerator (a może Frame Generator - jakoś tak) to wymagania wzgl. VRAM rosną. ... jak na ironię losu, biorąc pod uwagę, że to rozwiązanie, ma "pomagać".

a to jest ciekawe, bo jak napisałem powyżej generowanie klatki w niższej rozdzielczości powinno zużywać mniej VRAM. Oczywiście same te techniki w sobie na pewno potrzebują pamięć, ale ogólny bilans powinien być taki że DLSS obniża wymagania co do VRAM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Za 3-4 lata może być tak, że gry będą działać na medium na kartach 8 GB. Może być też tak, że Nvidia wyda DLSS 4 z Neural Texture Compression i będą działać na ultra, tyle że pewnie wyda tylko dla Ady, bo przecież ludzie z Ampere i Turingiem muszą kiedyś kupić nowe karty, prawda? :D

W przypadku AMD na pewno nie brałbym karty z 8GB VRAM, obecnie gry używają/alokują o jakieś 10% więcej VRAM na Radeonach.

Edytowane przez Krisol
  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chyba największym przegranym jest rtx 3070, karta w miare wydajna i do 1440p bylaby jak znalazł, ale te 8gb bardzo boli 😏

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@kochan4 Pamiętam jak się wszyscy śmiali, że 3060 z 12GB RAM to u zielonych overkill, jednak po czasie wychodzi, że ratuje trochę tą kartę. Jak ktoś kupił RTX 3070/3070ti do 1440p w okresie kiedy gpu były drogie, pewnie mocno sobie pluje w brodę.
Z nowych kart RTX 4060/4060ti 8GB i RX 7600 to już taki DoA niestety. Jedynie obniżka cen 7700XT 12GB, wprowadzenie 7600XT 10GB i 12GB i wymuszenie na zielonych obniżkę cen 4060ti 16GB może naprawić średni segment.

Najbardziej szkoda mi ludzi co desperacko wzięli 6500XT 4GB w okolicach 1000-1500zł.

Edytowane przez Lameismyname
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jest bardzo mocna przesada co napisałeś.

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się

Komentowanie zawartości tej strony możliwe jest po zalogowaniu



Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • @sideband Samsunga miałem jednego u siebie, no może 2 licząc jakiś bardzo stary mój pierwszy LCD. Też cewkami to wyło. Pobawię się z 2 tygodnie testując pewne rzeczy i się zobaczy... Chyba zwrócę i ewentualnie może coś się kupi ciekawego na promocjach za 2-4 miesiące na fakturę vat. Te monitory w ostatnich miesiącach czy ponad roku nawet strasznie szybko spadają z cen. Widać, że ten MSi co mam już standardowa cena, to jest 2699 zł w x-kom. ME też ma na promocji też za 2399. Kto wie... styczeń czy luty uda się to wyrwać za magiczne 1999 zł. No ale te cewki... Mi to przeszkadza. Kable te wystające to samo. Chyba bym wolał powłokę satynową, a nie glossy, ale jak to z tymi refleksami będzie, to się dowiem na dniach, a szczególnie jak będzie mocne słońce.  Też każdy straszy tymi samo rysującymi się powłokami tego QD-OLED... Często jem przy kompie, a co z tym idzie często czyszczę matrycę... Chyba, ze spróbować jeszcze jakiegoś W-OLED może...   W ogóle ktoś ma jakąś mało agresywną powłokę lub satynową czy same bardzo agresywne matowe lub glossy? Chyba Ty wspominałeś, że jest jakiś QD-OLED z gorilla glass, ale to w ogóle jest już na rynku?
    • @Grandal Jeszcze nie... https://youtu.be/iDVuQi4gdtk?t=53 
    • To już pora na wpisywanie... "Byłem tu - Waldek z Ciechanowa"? 
    • W sumie 32"(321UPX) jest większa to pewnie dlatego nie widać zasilającego ewentualnie jest inny. Tutaj dołączyli z taką krótką końcówką. Całe sterowanie matrycy to wszystko na pewno jest od Samsunga i lub zrobione na zlecenie Samsunga. Resztę flaków to też dla nich ktoś pewnie zrobił. Może w tych tańszych modelach od MSI przyoszczędzono jeszcze bardziej i mają jeszcze większą tendencje do hałasowania. U mnie wszystko jest ustawione max agresywnie w opcjach od wypalania i mam włączone wyłączanie ekranu po 3min bez aktywności. Tak opcja 16h o to chodziło inaczej będzie Ci wyskakiwała plansza co 4h. Jak nie wyczyści po wyłączeniu np. odetniesz zasilanie to i tak Cię zmusi na siłę po 16h  To akurat jest dobre dla niepełnosprytnych. Normalne treści w internetach, filmy czy gry to najlepiej używać w trybie sRGB. Ale jak lubisz przesycone kolory i gorzej odwzorowane to może używać na pełnym gamucie monitora co kto woli. Myślisz, że przypadkowo LG TV OLED lecą w trybie PC na sRGB 
    • Myślałem, że się doczekam swojego 20-lecia na forum(maj 2026) a tu nagle decyzja o zamknięciu. Spodziewałem się tego ale nie tak z buta. 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...