Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

Tomek398

8GB VRAM do FHD?

Rekomendowane odpowiedzi

Teraz, Pioy napisał:

To jest bardzo mocna przesada co napisałeś.

Co dokładnie Cię zabolało?


Pamiętam moment jak nowe 3070 chodziły bliżej 5k i na promkach x-koma z ograniczoną liczbą sztuk miałem "okazję" wziąć RTX 3070 od Gigabyte (z tego co pamiętam 3 wentylatorowy Gaming OC) za 3800zł. Gdybym to zrobił, pewnie bym teraz żałował.
Odpuściłem jednak i na innej "promce" kupiłem MSI 6600XT Gaming X z x-koma za 2899zł którego po jakimś pół roku pogoniłem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To, że napisałeś jakby na GPU 8 GB to w ogóle nie szło grać (określenie DoA), co jest wielką nieprawdą. Da się, po dostosowaniu ustawień. Są ograniczenia, ale wielce przesadzasz pisząc że nie idzie, a przecież to jest temat o FHD, gdzie już w ogóle to nieprawda. Akurat w karcie za 1300 ziko mnie to nie boli. Co innego w takiej za 2k, ale to ogólnie wchodzimy w dyskusję o spi...ni rynku GPU.

A kto kupił GPU, jak kosztowały 3x więcej niż powinny, to ogólnie może sobie pluć w brodę, na to jak bardzo spadły one z ceny. Używany 3070 to teraz pewnie ciężko za 1,5k sprzedać? A 6600XT za 1k?

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie można wpaść w pułapkę i zakładać że świat gier to są wyłącznie te tytuły które aktualnie testują testerzy. Świat gier jest bardzo duży i różnorodny i całe masy ludzi grają w tytuły których nie ma na wykresach tzn. są mniej wymagające. Steam jest pełen gier, a te pojedyncze sztuki które sprawiają problemy w ULTRA to tylko promil całości. 

  • Like 2
  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
19 minut temu, Pioy napisał:

To, że napisałeś jakby na GPU 8 GB to w ogóle nie szło grać (określenie DoA), co jest wielką nieprawdą. Da się, po dostosowaniu ustawień. Są ograniczenia, ale wielce przesadzasz pisząc że nie idzie, a przecież to jest temat o FHD, gdzie już w ogóle to nieprawda. Akurat w karcie za 1300 ziko mnie to nie boli. Co innego w takiej za 2k, ale to ogólnie wchodzimy w dyskusję o spi...ni rynku GPU.

A kto kupił GPU, jak kosztowały 3x więcej niż powinny, to ogólnie może sobie pluć w brodę, na to jak bardzo spadły one z ceny. Używany 3070 to teraz pewnie ciężko za 1,5k sprzedać? A 6600XT za 1k?

Nie to, że nie idzie grać na 8GB nawet w 1440p z pewnymi kompromisami. Sam mam 5700XT 8GB czyli kartę o wydajności zbliżonej do 6600XT. Cyberpunk 2077 v2.0 na 1440p High + FSR Q śmiga ładnie 55-75 FPS zależnie od lokalizacji, na Phantom Liberty ponoć ma być to samo i jeszcze FSR 3.0 z FG na horyzoncie więc pożegnałem się jeszcze z myślą o upgrade. Gram jeszcze w CS 2.0 bo dostałem jakiś czas temu dostęp do bety i też nie narzekam na wydajność. Poczekam jeszcze powiedzmy do obniżek cen 7700XT lub wprowadzenia 7600XT i może się skuszę na coś.
Rozsądnie by było gdyby 8GB było w kartach za ok. 1k, 10 i 12GB w kartach od ok. 1500zł, a 16GB od ok. 2000zł, potem sky is the limit. Niestety to zieloni w nowych seriach najbardziej januszują na szynach i ramie - karta za 2k i 8GB, karta za 3k i 12GB? Trochę lipa.

A ceny rzeczywiście były powiedzmy 3 krotnością. Takie były realia, co zrobisz. Ktoś miał farta i łeb na karku to na żąglowaniu kartami jeszcze nieźle zarobił albo fajnego upgrade zrobił.

Podsumowując: Mimo wszystko nawet do FHD na dzień dzisiejszy wolałbym pójść przyszłościowo przynajmniej w 10-12GB. Ramożernych tytułów jest coraz więcej więc trend będzie tylko rósł i coś co dzisiaj wystarcza za rok może nie wystarczać.
A karty, które określiłem jako DoA określają też cenieni recenzencji, więc chyba nie ma co podważać ich autorytetów.

Edytowane przez Lameismyname
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, kochan4 napisał:

Chyba największym przegranym jest rtx 3070

RTX 3070Ti ;) Chyba najszybsze GPU z 8GB VRAM.

Swoją drogą, pamiętam czasy świetności RTX 3070. Pamiętam wersję ASUS Noctua RTX 3070, która za jakoś 4200zł chodziła - wspaniała karta. Nie przypominam sobie, by się wówczas patrzyło krzywo na 8 GB VRAM. To była karta kompletna. W sumie widzę analogię do dzisiejszych RTX 4070/4070Ti - dzisiaj super są te karty.

Godzinę temu, Lameismyname napisał:

A karty, które określiłem jako DoA określają też cenieni recenzencji,

Na kartach 8GB będzie się dało oczywiście grać, tylko ten maławy VRAM będzie trochę jak kamień w bucie - uwierał. Im szybsze GPU (RTX 3070Ti, RTX 4060Ti) tym to uwieranie większe.

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ponad dwie dekady temu tak bylo, pamietam jakąs karte cirrus logic mialem i z 512 KB 1 MB zrobilem, ( 512 kość sie dokupowalo)

Edytowane przez kochan4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@kochan4 Coś tam było. Do akceleratorów Voodoo też z tego co pamiętam dało się w ten sposób "dołożyć".
                     Zaraz inni użytkownicy będą na nas patrzeć jak na pecetowych emerytów 😄
                     Na strychu jakbym się uparł wygrzebałbym jeszcze jednostkę z prockiem 286 - nie pamiętam co za GPU tam było.
 

Edytowane przez Lameismyname

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Coz poradzic, latka lecą ale hobby ciezko zmienic 😏

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@kochan4 Sentyment jest na pewno, jednak człowiek nabiera dystansu innego, no i na utylizację gotówki są też inne hobby/wydatki.
Wiedziałem, że mam do czynienia z człowiekiem innej daty jak postawiłeś szlaban przy cenie GPU - wiele ludzi teraz tego nie rozumie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
35 minut temu, Kyle_PL napisał:

Swoją drogą, pamiętam czasy świetności RTX 3070. Pamiętam wersję ASUS Noctua RTX 3070, która za jakoś 4200zł chodziła - wspaniała karta. Nie przypominam sobie, by się wówczas patrzyło krzywo na 8 GB VRAM.

Ja patrzyłem od początku na tą kartę jak na totalny crap. Ale praktycznie wszyscy przymknęli oko bo to :respect: Nvidia :respect: i jak hamują rozwój tekstur w grach to nikomu nie przeszkadza. Mamy mydło na ścianach ale w kałużach przyszłość gamingu.... ehhh :respect:

Edytowane przez Melitarny

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cyberpunk wygląda dużo lepiej z RT niż z modem HD Reworked Project, jak dla mnie idą w dobrym kierunku.

Edytowane przez Krisol

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
18 minut temu, kochan4 napisał:

Ponad dwie dekady temu tak bylo, pamietam jakąs karte cirrus logic mialem i z 512 KB 1 MB zrobilem, ( 512 kość sie dokupowalo)

S3 Virge 3D ... standardowo 2MB, ale można było kostkami 0,5MB dołożyć do 4MB.

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, Melitarny napisał:

Ja patrzyłem od początku na tą kartę jak na totalny crap. Ale praktycznie wszyscy przymknęli oko bo to :respect: Nvidia :respect: i jak hamują rozwój tekstur w grach to nikomu nie przeszkadza. Mamy mydło na ścianach ale w kałużach przyszłość gamingu.... ehhh :respect:

No ale broni Ci ktoś kupno karty z większym VRAM, żeby sobie teksturki wymaksować zamiast oglądać odbicia w kałużach? Ach te narzekania, jakby gry nie miały RT jako opcji, tylko obowiązek :lol2:

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawi mnie co będzie z RT w bardziej przygnębiających i brudnych tytułach np. S.T.A.L.K.E.R 2... zwiększanie detali w RT spowoduje, że w kałuży będzie widać większy muł, "wywar" z petów i psie szczochy? 😁😁😁

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, tomcug napisał:

No ale broni Ci ktoś kupno karty z większym VRAM, żeby sobie teksturki wymaksować zamiast oglądać odbicia w kałużach? Ach te narzekania, jakby gry nie miały RT jako opcji, tylko obowiązek :lol2:

Devi równają do najpopularniejszej karty, a jak ma mało pamięci to tekstury są kiepskie jak w Cyberku. Zamiast zadbać o podstawy od zarania dziejów znaną czyli teksturki, a potem dodac te kałurze.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
23 minuty temu, Melitarny napisał:

a patrzyłem od początku na tą kartę jak na totalny crap. Ale praktycznie wszyscy przymknęli oko bo to :respect: Nvidia :respect:

No i nie miałeś racji bo karta nie ma nic wspólnego z crapem. Od lat gram w 1440P na 8GBVRAM i gra się spoko, przeważnie wpełni płynnie. Nie grałem we wszystkie gry, ale te czołowe popularne które odpala większośc z nas ograłem bez żadnego problemu, żadnych tam zacinek. Mogę z ręką na sercu powiedzieć, że 8GB do 1440P sprawowało i sprawuje się bardzo dobrze. 

Jednocześnie zawsze mówiłem i będę mówił, że 8GB na karcie tej klasy to od początku była pomyłka i NV dalej dając 8GB na obecne karty robi lipę i musi zbierać joby od graczy.

 

I odrazu zaznaczam, żeby mi tu nie pisać o stutteringach i wszelkich odmianach tych pierdół co prześladują tylko ludzi na forach. Ja mam wolną głowę od waszych urojeń i wiecznych grzebaniach w ustawieniach graficznych. Ja gram w gry, nie we wpatrywanie się w licznik FPS i 30 parametrów z Riva tuner na ekrany gry.  Na 8GB + 1440P do tej pory zawsze gralo mi się wystarczająco dobrze. Taki jest fakt.

 

Ale zaznaczam, dawanie 8GB na kartę tej klasy było karygodne i jest karygodne, że znowu tyle dali na RTX4060. 

 

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
23 minuty temu, Lameismyname napisał:

Ciekawi mnie co będzie z RT w bardziej przygnębiających i brudnych tytułach np. S.T.A.L.K.E.R 2... zwiększanie detali w RT spowoduje, że w kałuży będzie widać większy muł, "wywar" z petów i psie szczochy? 😁😁😁

RT to nie tylko odbicia ;)

20 minut temu, Melitarny napisał:

Devi równają do najpopularniejszej karty, a jak ma mało pamięci to tekstury są kiepskie jak w Cyberku. Zamiast zadbać o podstawy od zarania dziejów znaną czyli teksturki, a potem dodac te kałurze.

Wuj Jensen uznał inaczej, a Tobie pozostaje ten stan zaakceptować, albo w ramach protestu grać wyłącznie w gry wymagające 12+ GB VRAM (w których też nieraz niezłe mydło na teksturach się trafia :E). Choć coś w temacie drgnęło, skoro w tej generacji dali 12 GB dla 4070 i 4070 Ti, gdzie przez kilka poprzednich GPU z tej numeracji dostawały 8 GB.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
41 minut temu, Lameismyname napisał:

widać większy muł, "wywar" z petów i psie szczochy?

Widać? Będziesz czuł jakbyś się przytulał do pana Mariana pod wiatą śmietnikową.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@tomcug Nie tylko, a też, masz tu jeden z przykładów. Np. porównując CP2077 i Stalkera 2, pewne efekty w jednym tytule mogą być "chciane", w drugim "niechciane". Są screeny, zapowiedzi, jakiś pokazowy gameplay - zobaczymy czy nie będzie jakaś cukierkowatość razić po to aby pokazać ficzery RT. Póki co razi mnie holywoodzkie podejście, postacie z perfekcyjnym brytyjskim/amerykańskim angielskim, wtf? Język tam zawsze można zmienić na UA + napisy. Z resztą się zobaczy.

@crush 😁😁😁 Hobo Tracing od zielonych i woń brudnych skarpet oraz bimbru w ciemnych alejkach.

Edytowane przez Lameismyname

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, Lameismyname napisał:

Stalkera 2

Ta gierka to się może w 2024 ukaże. Z naciskiem na może :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 godzin temu, Melitarny napisał:

Ja patrzyłem od początku na tą kartę jak na totalny crap. Ale praktycznie wszyscy przymknęli oko bo to :respect: Nvidia :respect: i jak hamują rozwój tekstur w grach to nikomu nie przeszkadza. Mamy mydło na ścianach ale w kałużach przyszłość gamingu.... ehhh :respect:

3080 wyszła z 10Gb vramu, więc te 8Gb na 3070 i 3060ti wydawało się naturalne. Nie przypominam sobie, żeby te 3 lata temu ktoś robił z tego problem. Ale plus dla ciebie, że byłeś taki dalekowzroczny. :)

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@tomcug Czekam od 2009 roku (S:CoP) na kolejną część, więc wolę chwilę dłużej poczekać niż dostać niedopracowany produkt.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, 5hogun napisał:

3080 wyszła z 10Gb vramu, więc te 8Gb na 3070 i 3060ti wydawało się naturalne.

... ale 12GB w RTX 3060 i 8 GB w RTX 3060Ti, 3070 i 3070Ti, a nawet 10GB w 3080 wyglądało "nienaturalnie".

Dawniej, chyba producenci tak nie "pitrasili" z tym VRAM. nVidia mogłaby przy RTX 3xxx wrzucić 16GB w choćby 3070 (tak, to byłoby dużo jak na tamte czasy), ale skoro mogli dać 12GB w "tanim" 3060, to 16GB w 3070, 3070Ti, a nawet 3060Ti by tak wiele cenowo nie zmieniło. ... ew. mogli dać wybór, czyli wypuścić wersje 8GB i 16GB i niech rynek zdecyduje (tylko nie z tak dużą dopłatą jak na początku przy 4060Ti)

1 godzinę temu, 5hogun napisał:

Nie przypominam sobie, żeby te 3 lata temu ktoś robił z tego problem.

No właśnie ja też nie. Tylko pisali, że 12GB VRAM w 3060 to niepotrzebnie dużo.

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

swego czasu tez byly opinie ze po co kupowac 3080 12GB ...ja taka kupilem i mysle ze w momencie jak ci z 10gb wersja zaczna miec jakies klopoty to ja bede spokojnie gral bez problemow. U nvidii jest tak ze daja 16GB do 4060 Ti a do sporo mocniejszego 4070 Ti 12GB

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się

Komentowanie zawartości tej strony możliwe jest po zalogowaniu



Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • @sideband Samsunga miałem jednego u siebie, no może 2 licząc jakiś bardzo stary mój pierwszy LCD. Też cewkami to wyło. Pobawię się z 2 tygodnie testując pewne rzeczy i się zobaczy... Chyba zwrócę i ewentualnie może coś się kupi ciekawego na promocjach za 2-4 miesiące na fakturę vat. Te monitory w ostatnich miesiącach czy ponad roku nawet strasznie szybko spadają z cen. Widać, że ten MSi co mam już standardowa cena, to jest 2699 zł w x-kom. ME też ma na promocji też za 2399. Kto wie... styczeń czy luty uda się to wyrwać za magiczne 1999 zł. No ale te cewki... Mi to przeszkadza. Kable te wystające to samo. Chyba bym wolał powłokę satynową, a nie glossy, ale jak to z tymi refleksami będzie, to się dowiem na dniach, a szczególnie jak będzie mocne słońce.  Też każdy straszy tymi samo rysującymi się powłokami tego QD-OLED... Często jem przy kompie, a co z tym idzie często czyszczę matrycę... Chyba, ze spróbować jeszcze jakiegoś W-OLED może...   W ogóle ktoś ma jakąś mało agresywną powłokę lub satynową czy same bardzo agresywne matowe lub glossy? Chyba Ty wspominałeś, że jest jakiś QD-OLED z gorilla glass, ale to w ogóle jest już na rynku?
    • @Grandal Jeszcze nie... https://youtu.be/iDVuQi4gdtk?t=53 
    • To już pora na wpisywanie... "Byłem tu - Waldek z Ciechanowa"? 
    • W sumie 32"(321UPX) jest większa to pewnie dlatego nie widać zasilającego ewentualnie jest inny. Tutaj dołączyli z taką krótką końcówką. Całe sterowanie matrycy to wszystko na pewno jest od Samsunga i lub zrobione na zlecenie Samsunga. Resztę flaków to też dla nich ktoś pewnie zrobił. Może w tych tańszych modelach od MSI przyoszczędzono jeszcze bardziej i mają jeszcze większą tendencje do hałasowania. U mnie wszystko jest ustawione max agresywnie w opcjach od wypalania i mam włączone wyłączanie ekranu po 3min bez aktywności. Tak opcja 16h o to chodziło inaczej będzie Ci wyskakiwała plansza co 4h. Jak nie wyczyści po wyłączeniu np. odetniesz zasilanie to i tak Cię zmusi na siłę po 16h  To akurat jest dobre dla niepełnosprytnych. Normalne treści w internetach, filmy czy gry to najlepiej używać w trybie sRGB. Ale jak lubisz przesycone kolory i gorzej odwzorowane to może używać na pełnym gamucie monitora co kto woli. Myślisz, że przypadkowo LG TV OLED lecą w trybie PC na sRGB 
    • Myślałem, że się doczekam swojego 20-lecia na forum(maj 2026) a tu nagle decyzja o zamknięciu. Spodziewałem się tego ale nie tak z buta. 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...