Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

Tomek398

8GB VRAM do FHD?

Rekomendowane odpowiedzi

1 godzinę temu, MassTA napisał:

Tak działa tylko w momencie gdy nie stosujesz kompresji tekstur. Dla przykładu co podałeś - pliki w formacie .dds ( DirectDraw Surface ) to są pliki tekstur w skompresowanym (stratnie) formacie, który może być wrzucony bez zmian do pamięci karty graficznej i dekoduje ona wtedy całą, bądź dowolny fragment takiej tekstury w locie za pomocą dedykowanych jednostek, tak że pełna postać istnieje jedynie w obrębie GPU i nie zajmuje pamięci VRAM, ani nie marnuje przepustowości pamięci na przesyłanie jej w pełnej postaci.

Sorry napisałem z rozpędu chodziło o .tiff (sam sporadycznie używam .dds ale tylko i wyłącznie bez kompresji jak wrzucam coś na nexus-a).

 

.DDS jest kontenerem (chyba jedynym) który ma możliwość zapisu jako stratny (DXT , BC) oraz bezstratny (A*RGB*A) , gdzie dane siedzące już w pamięci są skompresowane (tylko DXT i BC w stosunku 8/6/4:1 4x4 bloki) a GPU w locie pobiera sobie np. fragment tego czego w danym momencie potrzebuję z pojedynczego pliku.

Jednym słowem rozdziera naszą teksturę na strzępy usuwając większą część danych (w zależności od kompresji tyle danych utracimy) i tworzy małą kupkę danych "Block Compression" który w momencie użycia jest odtwarzany przez algorytm GPU (oczywiście dane tracimy bezpowrotnie) , (ustawienia jakości tekstur gry/sterownika - określają jaką otrzymamy jakość do której dostosuję się algorytm).

 

NVIDIA Neural Texture Compression , jakiś czas temu była wzmianka jak to zieloni zrobią dobrze posiadaczom GPU z mniejszą ilością pamięci (chodzi o poprawę algorytmu i nowy BC sorry NEURAL) - który pewnie g*wno da jeżeli dana gra nie będzie miała tekstur zapisanych przy użyciu tej kompresji.

 

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mój stan wiedzy na ten temat jest przedpotopowy, ale zawsze było tak że kompresja tekstur i danych (pasma) to dwie osobne kwestie, choć tej ostatnią mogły też podlegać tekstury.

Kompresja tekstur jest zazwyczaj stratna, pozwala oszczędzić miejsca we VRAM-ie. Pierwszym powszechnie stosowanym algorytmem takiej kompresji był S3TC (po "uwolnieniu" go przez S3 zwany także DXTC).

Kompresja danych, po raz pierwszy szeroko zastosowana w GF3, pozwala z kolei zaoszczędzić na przepustowości pamięci (ale już nie na pojemności). Implementacja dość wyraźnie zwiększa budżet tranzystorów układu. Jest zazwyczaj bezstratna.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

S3TC należał do S3 (openGL) -> Microsoft (przepisany pod DX .dds) , jest algorytmem stratnym (DXT , BC) .

Najczęściej chyba używanymi bezstratnymi algorytmami (w przypadku grafiki) są RLE , LZ* (+ pochodne/autorskie) , minusem jest poświecenie miejsca , dane po kompresji zajmują w pamięci (RAM/VRAM) taką samą ilość miejsca jak przed kompresją (tak samo jest w przypadku nie kompresowania).

Przykładowo wielka tekstura z całym kompletem pancerza , a używamy tylko butów i rękawic - zostanie załadowana cała tekstura .

W przypadku .dds (stratne) wielkim plusem jest pobranie tylko i wyłącznie potrzebnych danych z pliku (tylko buty i rękawice pomijając resztę) , kosztem zarżnięcia palety kolorów .

 

Jako osoba korzystająca z Wacom-a Cintiq 16 i tworząca odręcznie również tekstury (4/8K) , poświęcając czasami setki godz. na pojedynczą , nie wyobrażam sobie użycia kompresji w przypadku DDS-ów .

plik 2048x2048 24bit (diffuse map) 

  • format (kompresja) , czas otwarcia , ilość miejsca zajmowanego ns HDD/VRAM , ilość kolorów
  • .dds/tiff (bez kompresji) 16ms , 12/12MB , 496781
  • .tiff (LZW) 47ms , 3,5/12MB , 496781
  • .dds (BC7 DX11) 63ms , 4/4MB , 503244 <--- magicznie paleta kolorów się powiększyła
  • .dds (BC3 DXT5) 31ms , 4/4MB , 101025
  • .dds (BC1 DXT1) , 15ms , 2/2MB , 96732

Przy okazji pozdrawiam wszystkich dawnych posiadaczy GPU od S3/ATi/ViA/3dFX pamiętających o tamtych czasach i sprzęcie .

Edytowane przez Yahoo86

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 26.09.2023 o 18:30, Assassin napisał:

Ale dochodzi jeszcze kwestia, co jest wąskim gardłem RTX 4090. Bo jak przepustowość pamięci to wcale nie jest wykluczone, że i słabsze modele zyskałyby na szerszej szynie. Porównując specyfikację i teoretyczną wydajność 4060Ti względem 3070, ta pierwsza powinna być wyraźnie mocniejsza. Nie jest i stawiam na szynę jako główny powód. Podejrzewam, że hipotetyczny 4060Ti z szyną 192-bit spokojnie dawałby rade w pojedynku z 3070Ti.

4090 przepustowość nie jest wąskim gardłem nawet w 4320p ;) Raz już nie wykorzystuje się MSAA w grach i dwa Ropy w grach mają znacznie mniej do roboty w grach niż kiedyś. Dlatego cały czas stosunek ALU do ROP powiększa się. Poza tym do do rozmiaru L2 przepustowość pamięci na 4090 wynosi ~2.2x, czyli ok 2000MB/s wszystko sprawdzane u mnie w praktyce ;)

Kręcenie pamięci praktycznie daje takie samego kopa w niskiej jak i w bardzo wysokiej rozdzielczości także to wynika ze spadku czasu dostępu do pamięci ,a nie braku przepustowości ;)

Ale jak odpalisz coś na starszym silniku i wysokie MSAA to 4090 to przepustowość pamięci jak najbardziej stanowi wąskie gardło i wydajność praktycznie liniowo skaluje się z oc pamięci.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gdyby tylko twórcy gier powiązali rozdzielczość tekstur z rozdzielczością renderowania i zmniejszali rozdzielczość tekstur o 75% dla 1080p względem 4k przy ustawieniu ultra to ilu ludzi miałoby łatwiejsze życie. Nagle 8GB by starczyło na wszystko w 1080p, ludzie mogliby mieć na kartach ze średniego segmentu wszystkie suwaczki na ultra przy tej rozdzielczości. Ale jednak producenci wolą zostawić wolny wybór graczom co powoduje tyle problemów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 minut temu, Divton napisał:

Ale jednak producenci wolą zostawić wolny wybór graczom co powoduje tyle problemów.

Jest dobrze, jak jest. Jak ktoś chce, to sobie zoptymalizuje ustawienia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Divton napisał:

Gdyby tylko twórcy gier powiązali rozdzielczość tekstur z rozdzielczością renderowania ...

Problemem jest to że tekstury są g*wnianej jakości.

Wystarczy tylko poświęcić więcej czasu/pracy a tekstury w 2k będą ostre jak żyleta w porównaniu nawet do 8k (oczywiście wybierając też jak najlepszą jakościowo kompresję - np. zapis w DXT1 i robi się nam kupa).

 

Rozdzielczość , miejsce bez i z kompresją zajmowane w RAM/VRAM

  • 2048 , 12MB , 4MB (BC7 DX 11)
  • 4096 , 48MB , 16MB (BC7 DX 11)
  • 8192 , 192MB , 64MB (BC7 DX 11)
Edytowane przez Yahoo86

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dwie sprawy - jaja z pamięcią wychodzą po dłuższym czasie. Czasem trzeba pograć godzinkę, dwie, żeby zaczął się narastający dramat. Pobieżne testy po kilka, kilkanaście minut, to można sobie w buty wsadzić. A tak zwykle testują testerzy - przebieg swojej miejscówki, może powtórka po resecie gry i tyle. Dwa - przykład Hogwartu, który rzekomo śmiga na 8G.  Ciekawe czy szanowny redaktorek sprawdził, czy ładują się wszystkie tekstury w odpowiedniej, wysokiej jakości po dłuższej rozgrywce. Pewnie nie sprawdził;). I tyle z jakości głosu benchmark.pl. 

Edytowane przez Kelam
  • Sad 1
  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 @Kelam Żaden redaktor nie będzie tak sprawdzał sprzętu, jakbyś sobie tego życzył. Oni zwyczajnie, przy nawale swojej pracy - NIE MAJĄ na to aż tyle czasu. Wiesz ile trwał by test kilku kart graficznych, gdyby każdą testować po 2-3h w jednej grze? No właśnie. Trzeba tuja znaleźć jakiś kompromis i tyle. Inaczej się nie da. I nie bronię tu redaktorów z Benchmark.pl - podchodzę zwyczajnie zdroworozsądkowo do tematu. Ale jak to w Polsce - dyskutuje trzech a opinii jest pięć.

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale wypadałoby do tematu podejść na poważnie, skoro to ruszyli i badają nie wydajność, ale konkretnie temat 8G vram. Takie testy po łebkach nie mają sensu, bo żaden gracz nie resetuje gry co kilkanaście minut, żeby czasem vram za szybko się nie zapchał. Czyli test jest uwalony już na samym starcie przez wadliwą procedurę. 

Edytowane przez Kelam
  • Confused 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, Crypt napisał:

 @Kelam Żaden redaktor nie będzie tak sprawdzał sprzętu, jakbyś sobie tego życzył. Oni zwyczajnie, przy nawale swojej pracy - NIE MAJĄ na to aż tyle czasu. Wiesz ile trwał by test kilku kart graficznych, gdyby każdą testować po 2-3h w jednej grze? No właśnie. Trzeba tuja znaleźć jakiś kompromis i tyle. Inaczej się nie da. I nie bronię tu redaktorów z Benchmark.pl - podchodzę zwyczajnie zdroworozsądkowo do tematu. Ale jak to w Polsce - dyskutuje trzech a opinii jest pięć.

Skoro nie mają czasu na rzetelne przeprowadzenie testu, to na jakiej podstawie prezentują wniosek: 8GB jest ok?

Idąc o krok dalej z taką logiką - istnieją wirusy wykrywane tylko przez najlepsze programy antywirusowe, np. tylko ESET, Kaspersky, itp. Myślisz, że jakakolwiek firma testująca bezpieczeństwo oceni szkodliwe oprogramowanie jako bezpieczne bo "nie mieliśmy czasu ani możliwości na przetestowanie wszystkich skanerów, ale Avast nie wykrył wirusa więc instaluj śmiało"? Nie, żeby przedstawić wniosek, trzeba mieć do tego podstawy. A w większości testów pod kątem ewentualnych problemów z VRAM tych podstaw nie ma, a błędne wnioski są.

p.s. Przyjmiesz bez obaw medykament testowany tylko przez tydzień i wyłącznie na szczurach laboratoryjnych bo producent nie ma czasu na długoletnie badania? No właśnie, po prostu olejesz takie wyniki testów :cool:

Edytowane przez wahoo
  • Confused 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Lekarstwa przyrównywać do gpu. Jak gra ma wycieki pamięci(jeśli vram rożnie i rośnie bez powodu) robisz save i wracasz, zanim zeżresz lek save nie zrobisz:)

To, że 8gb vram wystarcza pokazuje to ze nie ma nigdzie krzyku i płaczu, że nie wystarcza. Bo jak się coś pojawi to zaraz wszyscy sensacji szukają (zwłaszcza jak AMD grę sponsoruje to tam się vram nie przejmują;)

https://www.techspot.com/article/2661-vram-8gb-vs-16gb/

Później załatają bugi i nagle 8gb vram wystarcza:)

https://www.eurogamer.net/digitalfoundry-2023-the-last-of-us-part-1-is-much-improved-on-pc-but-big-issues-remain-unaddressed

Edytowane przez wrobel_krk

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się

Komentowanie zawartości tej strony możliwe jest po zalogowaniu



Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • @sideband Samsunga miałem jednego u siebie, no może 2 licząc jakiś bardzo stary mój pierwszy LCD. Też cewkami to wyło. Pobawię się z 2 tygodnie testując pewne rzeczy i się zobaczy... Chyba zwrócę i ewentualnie może coś się kupi ciekawego na promocjach za 2-4 miesiące na fakturę vat. Te monitory w ostatnich miesiącach czy ponad roku nawet strasznie szybko spadają z cen. Widać, że ten MSi co mam już standardowa cena, to jest 2699 zł w x-kom. ME też ma na promocji też za 2399. Kto wie... styczeń czy luty uda się to wyrwać za magiczne 1999 zł. No ale te cewki... Mi to przeszkadza. Kable te wystające to samo. Chyba bym wolał powłokę satynową, a nie glossy, ale jak to z tymi refleksami będzie, to się dowiem na dniach, a szczególnie jak będzie mocne słońce.  Też każdy straszy tymi samo rysującymi się powłokami tego QD-OLED... Często jem przy kompie, a co z tym idzie często czyszczę matrycę... Chyba, ze spróbować jeszcze jakiegoś W-OLED może...   W ogóle ktoś ma jakąś mało agresywną powłokę lub satynową czy same bardzo agresywne matowe lub glossy? Chyba Ty wspominałeś, że jest jakiś QD-OLED z gorilla glass, ale to w ogóle jest już na rynku?
    • @Grandal Jeszcze nie... https://youtu.be/iDVuQi4gdtk?t=53 
    • To już pora na wpisywanie... "Byłem tu - Waldek z Ciechanowa"? 
    • W sumie 32"(321UPX) jest większa to pewnie dlatego nie widać zasilającego ewentualnie jest inny. Tutaj dołączyli z taką krótką końcówką. Całe sterowanie matrycy to wszystko na pewno jest od Samsunga i lub zrobione na zlecenie Samsunga. Resztę flaków to też dla nich ktoś pewnie zrobił. Może w tych tańszych modelach od MSI przyoszczędzono jeszcze bardziej i mają jeszcze większą tendencje do hałasowania. U mnie wszystko jest ustawione max agresywnie w opcjach od wypalania i mam włączone wyłączanie ekranu po 3min bez aktywności. Tak opcja 16h o to chodziło inaczej będzie Ci wyskakiwała plansza co 4h. Jak nie wyczyści po wyłączeniu np. odetniesz zasilanie to i tak Cię zmusi na siłę po 16h  To akurat jest dobre dla niepełnosprytnych. Normalne treści w internetach, filmy czy gry to najlepiej używać w trybie sRGB. Ale jak lubisz przesycone kolory i gorzej odwzorowane to może używać na pełnym gamucie monitora co kto woli. Myślisz, że przypadkowo LG TV OLED lecą w trybie PC na sRGB 
    • Myślałem, że się doczekam swojego 20-lecia na forum(maj 2026) a tu nagle decyzja o zamknięciu. Spodziewałem się tego ale nie tak z buta. 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...