Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

Temat został przeniesiony do archiwum

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

szefons

Użycie CPU, GPU, a FPS

Rekomendowane odpowiedzi

Witam.

 

Męczy mnie pewna kwestia i chciałbym to raz na zawsze rozwiązać.

 

Problem tyczy się braku maksymalnego użycia cpu i/lub gpu w kontekście niskiej wartości fps.

 

Zestaw testowy to c2d e4500 @ ~2,64 Ghz, gf 8600 gt (ge).

 

Gra testowa to nowy hitman.

 

Chodzi mi o to, że na takim zestawie fps mocno się waha w zależności od sceny i tego gdzie akurat patrzymy np. 20 - 50 fps. (ustawienia min)

 

Interesuje mnie natomiast co jest przyczyną tego, że mimo iż cpu ma zużycie na poziomie nie maksymalnym np. 50 - 70 % i gpu podobnie, to fps wynosi np 23 i nie rośnie już, mówiąc inaczej, pełna moc komponentów nie jest wykorzystywana, a fps jest raczej mierny.

 

Co jest tego przyczyną?

 

Ja uważam, że to sprawa optymalizacji, czy mylę się jeżeli uważam, że gdy gra jest dobrze zoptymalizowana (silnik właściwie) to wydajność (w uproszczeniu fps) powinna nie rosnąc już gdy albo cpu ma zużycie 100% albo gpu, lub idealnie oba 100%.

 

Dodam, że wartości sprawdzam tandemem msi afterburner (fps) + hwinfo (cała reszta).

 

Co ciekawe, gdy w hitmanie spojrzy się w miejsce gdzie jest ponad 50 fps, zarówno zużycie cpu i gpu rośnie, prawie do 100%, ale wracając do widoku z 23 fps zużycie spada.

 

To by potwierdzało tezę o optymalizacji.

 

Co sądzicie? Mylę się, czy jednak coś mam racji?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie wierzę, nikt się nad tym nie zastanawiał, ktoś ma na ten temat zdanie?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przy tym sprzęcie nie ma co wymagać cudów... I raczej nic więcej nie wyciśniesz... nawet po mocnym OC CPU i GPU...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W takim wypadku sprawdziłbym, czy gra w momencie, gdy jest 20 fps, siedzi na cpu, czy na gpu.

Jeśli zależy od cpu, to w tej samej scenie przy niższym taktowaniu cpu, fps powinien być jeszcze niższy. (odkręcić szynę, wymusić mnożnik 6)

Jeśli gra siedzi na gpu, to fps powinien się różnić w zależności od taktowania gpu.

Jest jeszcze jedna możliwość: przepustowość pamięci w karcie graficznej albo jej zbyt mała ilość. Wtedy przecież użycie gpu jak i cpu nie musi być maks, skoro to przepustowość hamuje. Jeśli to sprawa przepustowości, to analogicznie, jak w przypadku "testów" na cpu i gpu, kombinowałbym z szybkością pamięci na grafice.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@ szefons - przypomnij mi się proszę jutro. Pochylę się nad Twoim problemem :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wielokrotnie pisałem nie sugerować się wskazaniami monitoringu , obciążenie cpu z menedżera praktycznie nie przydatne , w przypadku gpu troche bardziej , ale w przypadku bamboli nic ciekawego nie wywnioskuje się. Bambol siedzi na sterze , a obciążenie czyta ze stera(nvapi).

 

Tak naprawdę wykorzystanie gpu z monitoringu nie wiele mówi , będziesz miał 100% gpu w jednej grze gpu ssie 100wat , w drugiej ssie 130wat i masz te same 100%. Także o d.. o tłuc takie coś. Gdzie jest dokładnie problem to można znaleźć za pomocą specjalnych oprogramowań , które udostępniają nv i amd.  Jest pokazane wykorzystanie sp , rop , tmu etc można poprawić optymalizacje od strony gry czy sterownika.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Temat do rozwinięcia, dobry byłby również na technologiczny artykuł obrazujący dlaczego traktować z przymrużeniem oka monitory w celu wywnioskowania czegokolwiek.

Mało to wpisów typo: "w tej grze procek się nudzi, bo wykorzystanie każdego rdzenia jest tylko 60%".

Albo opinie, że karta się nudzi- wykorzystanie poniżej 100%. A GPU składa się z różnych jednostek.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Więc może po kolei.

 

@henus7

Kompletnie mi o to nie chodzi, dobrze wiem, że ten sprzęt jest leciwy, nie chcę tego wiedzieć, aby podkręcić gpu czy cpu, interesuje mnie tylko dana zależność i dlaczego tak jest.

 

@WDK

Co do pierwszego komentarza.

 

To raczej nie do końca o to mi chodzi, gdyż jak pisałem, na teraz mam tezę, że to optymalizacja silnika może być problemem, więc na potrzeby testu powinno starczyć jedno taktowanie.

 

Po prostu skomplikowana scena wymusza na silniku użycie skomplikowanych algorytmów, które nie są zoptymalizowane i powodują, że ani cpu, ani gpu nie mogą rozwinąć skrzydeł, gdy jednak spojrzymy w niebo lub podłogę, pewne algorytmy nie są potrzebne i te prostsze maja większy udział, a jak są proste to i dobrze zoptymalizowane, to akurat pasuje do mojego opisu, gdzie podłoga czy niebo to wzrost fps i wzrost zużycia cpu oraz gpu.

 

Ogólnie jestem programistą i użycie cpu, gpu, nazywam raczej utylizacją, można napisać zły program i utylizacja będzie np. 50%, a można napisać lepszy i utylizacja wyniesie 100%, ale i wydajność wzrośnie, tylko gdyby utylizacja była np. 50% to znaczy, że wszystkie inne rzeczy, które czekają na dane z tych obliczeń muszą czekać dłużej.

 

Dlatego uważam, że jeżeli cpu i gpu nie osiągają 100% a fps staje, to coś jest z softem (grą w tym przypadku), zdaję sobie sprawę, że to wiele czynników może być, ale co możne powodować, że utylizacja nie może być większa, ale spoglądając w mniej skomplikowany widok nagle dość widocznie się poprawia.

 

Nie sądzę, aby to była sprawa przepustowości ramu gpu, to jest test stojąc w miejscu hitmanem, nic tam raczej nie wymaga doładowywana czy coś.

 

Co do komentarza drugiego to się zgadzam, właśnie chodzi mi o takie coś, że cpu czy gpu się nudzi i z czego to wynika, oczywiście ci co tak piszą to raczej chwalą się swoim sprzętem zazwyczaj, mi specyficznie chodzi o sytuację, gdy utylizacja staje, a fps nie rośnie, choć jest zapas mocy, przynajmniej tak wygląda.

 

 

@focus - zdecydowanie się odezwę, bardzo cię ostatnio chwalą za testy, ja także widzę dobre testy na pclab w twoim wykonaniu i byłoby świetnie gdybyś się tym "problemem" zajął, wiesz nie chodzi mi o mnie, a o to zjawisko, jako tako, gdzieś musi być problem, chce to raz na zawsze rozwiązać, bo to wydaje się obecnie nielogiczne.

 

 

@sideband

No ok, ale czymś zbadać trzeba, cpu nie biorę z menadżera tylko z hwinfo, nie wykluczam oczywiście problemów w optymalizacji stera pod daną grę, aczkolwiek nie stawiałbym na to, w ogóle nie zakładałbym z góry, że to musi być coś związane z gpu czy cpu na bank.

 

Pewno bym cię zapytał o lepsze oprogramowanie, ale skoro focus się wmieszał to poczekam, aż się przypomnę i zobaczymy co z tego wyjdzie, nie ukrywam, że na pewno redakcja ma lepsze narzędzia i doświadczenia, aby to gruntownie zbadać i raz na zawsze rozwiązać.

 

 

 

Po prostu masakrycznie mnie to interesuje czemu tak jest, jakoś musi się to dać sprawdzić.

 

Zapewne wyniki mogą być mocno zależne od danej konfiguracji, ale coś mi mówi, że i na innych zestawach, będzie się działo tak samo, utylizacja w pewnym momencie stanie, a fps nadal nie będzie wskazywał 60.

 

U mnie na teście, przyznam niezbyt specjalnie dobierałem miejsce, ale nie osiągnąłem 60 fps, wtedy prawdopodobnie utylizacja byłaby bliska 100%, przynajmniej patrząc ile było w okolicach 54 fps.

 

A może jak macie hitmana, jakie są wasze wyniki, na waszym sprzęcie, też zauważyliście takie coś?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Interesuje mnie natomiast co jest przyczyną tego, że mimo iż cpu ma zużycie na poziomie nie maksymalnym np. 50 - 70 %

piszesz o obciazeniu jedengo rdzenia/watku, czy srednio calego cpu. bo to robi roznice.

 

i gpu podobnie

podobnie tutaj. piszesz o obciazeniu poszczeolnych modulow gpu - shadery, kontroler pamieci, jednostki teksturujace, rasteryzujace? bo srednia wartosc tak jak w przypadku cpu kompletnie nic nie mowi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W HWinfo można ustawić podczas gry pokazywanie... użycia/temp każdego rdzenia/wątku oraz całego CPU mniej więcej w czasie rzeczywistym czym jednak 100ms odświeżania nie jest ale daje jakiś wgląd ;) Osobiście sam używam tego do TEMP rdzeni i CPU i użycia całego CPU.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pisalem w sumie juz o tym kilka razy, ale dalej nie rozumiem czym kieruja sie tworcy testow, ktorzy wykorzystuja gry i FPS do pomiarow wydajnosci. Rozumiem, ze gry reprezentuja "przyklad z zycia wziety", i moga byc uzyte do stwierdzenia czy dana konfiguracja sprzetowa nie sprawia problemow przy danej grze(Odpowiada na pytanie "czy pojdzie mi ... ?"). Jednak gry nie nadaja sie do pomiarow wydajnosci poszczegolnych komponentow bo FPS jest wartoscia skladowa, ktora nie dostarcza zadnych charakterystyk sprzetu.

 

Ale do rzeczy:

 

Na przykladzie gry takiej jak hitman problemow obciazonego procesora i spiacej karty graficznej moze byc kilka:

- Gra nie wspiera wielowatkowosci

- Algorytmy wielowatkowe sa zle zaimplementowane(zaglodzenie watku renderujacego)

- Gra ma problemy z batchowaniem(tworzeniem paczek zadan dla karty graficznej)

- Symulacja tlumow jest slabo zoptymalizowana(przez co patrzenie na duze grupy ludzi powoduje drop fps)

- Symulacja tlumow jest super optymalna, ale przerasta mozliwosci procesora

 

Z Twoim wnioskiem zgodze sie polowicznie: Charakterystyka zuzycia zasobow zalezy w ogromnej mierze od oprogramowania(nie tylko gry, ale i samego windowsa, DXa oraz sterownikow GPU), ale nie swiadczy w zadnym razie o poziomie "optymalizacji" danego elementu - z punktu widzenia uzytkownika mamy za malo wiedzy by oceniac takie rzeczy.

 

Prawdziwe sa tez powyzsze komentarze na temat tego, ze narzedzia monitorujace nie dostarczaja wystarczajacych danych(co w ogole oznacza, zuzycie procka w 100%?). Do badania charakterystyk i identyfikowania problemow nalezy stosowac profilery, ktore dostarcza wizualne zestawienie czasow jakie spedzil cpu, gpu oraz sterownik na wyrenderowanie kazdej klatki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

piszesz o obciazeniu jedengo rdzenia/watku, czy srednio calego cpu. bo to robi roznice.

 

Piszę na oko o obu rdzeniach, monitor pokazuje oba, mniej więcej mają takie samo obciążenie, choć zdaje się, że czasami nieco więcej jeden, ale to raczej standard.

 

I nie, w przypadku gpu, hwinfo pokazuje gpu load, cokolwiek by to znaczyło, nie biorę pod uwagę pamięci i ich taktowania, bo nie uważam, że mają wpływ w tym teście, liczy się tylko ile proc gpu da radę przetworzyć, tak w skrócie.

 

 

 

Ale do rzeczy:

 

Na przykladzie gry takiej jak hitman problemow obciazonego procesora i spiacej karty graficznej moze byc kilka:

- Gra nie wspiera wielowatkowosci

- Algorytmy wielowatkowe sa zle zaimplementowane(zaglodzenie watku renderujacego)

- Gra ma problemy z batchowaniem(tworzeniem paczek zadan dla karty graficznej)

- Symulacja tlumow jest slabo zoptymalizowana(przez co patrzenie na duze grupy ludzi powoduje drop fps)

- Symulacja tlumow jest super optymalna, ale przerasta mozliwosci procesora

 

...ale nie swiadczy w zadnym razie o poziomie "optymalizacji" danego elementu - z punktu widzenia uzytkownika mamy za malo wiedzy by oceniac takie rzeczy.

 

Prawdziwe sa tez powyzsze komentarze na temat tego, ze narzedzia monitorujace nie dostarczaja wystarczajacych danych...

 

A ja jeszcze raz napiszę, ja nie sprawdzam wydajności, nie chcę tych informacji, aby poprawić swój fps czy coś, chcę po prostu się dowiedzieć skąd takie wyniki.

 

Fajnie, że wymieniłeś listę, ale ona nic nie tłumaczy, niektóre rzeczy trudno sprawdzić, po za tym przeczysz sam sobie, to co wymieniłeś to sprawa optymalizacji silnika, a potem piszesz, że nie świadczy to o poziomie optymalizacji, to się zastanów w końcu, bo jak byk widać, że nie masz racji i to właśnie świadczy o optymalizacji.

 

Po za tym ostatnie 2 punkty nie są możliwe, gdyż wtedy cpu powinien być 100%, a nie jest. Czy ty nie zrozumiałeś tego co napisałem, fps spada, ale ani cpu, ani gpu nie jest użyty w 100%, zużycie nawet ROŚNIE, gdy patrzę w niebo lub podłogę.

 

Nie zgadzam się też co do opinii o tym, że monitory nie dostarczają wystarczających danych, bo jak widać dostarczyły, tylko w hitmanie jest takie coś.

 

I w o ogóle ludzie zauważyli, że ten silnik jest tak dziwny, że różnice low czy maks. są bardzo małe, a w wydajności sporo spada.

 

Jako kontrast dodam, że w assasins creed 3 oraz mass effect 3, nie ma takiego czegoś, w obu grach fps przestaje rosnąć, gdy utylizacja cpu sięga 100%, znaczy, że już nie wyrabia i gpu albo też dochodzi 100% albo niżej z uwagi, że cpu nie pozwala wykorzystać już więcej gpu.

 

Jak ktoś może to proszę was, sprawdźcie sobie hitmana sami i zobaczymy co wam wyjdzie, bo ja jestem mocno za tym, że to optymalizacja silnika powoduje iż nie można użyć w 100% dostępnej mocy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiem, ze nie obchodza Cie benchmarki, ale poruszasz temat, ktorego bez przeprowadzenia pomiarow i interpretacji nie da sie zglebic.

 

Slaba architektura silnika != slaba optymalizacja.

 

Pytasz czy Twoja sytuacja swiadczy o tym, ze silnik jest zle zoptymalizowany. Odpowiadam zatem, ze moze swiadczyc, ale nie musi bo koncowy uzytkownik nigdy tego nie rozpozna.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Generalnie Sideband i WDK powiedzieli praktycznie wszystko co konieczne w tym temacie.

 

Uzupełniając, czy nawet powielając co napisał Sideband - to, że masz takie a nie inne obciążenie GPU nie świadczy że nie "siedzimy na grafice". Nie mam bladego pojęcia co dokładnie jest mierzone, ale jestem pewien, że nie należy się tego bezkrytycznie trzymać. Dlaczego? W karcie graficznej masz shadery, które w miarę równomiernie między sobą rozkładają zadania (pixel shader, vertex shader czy inne), ale masz też jednostki teksturujące, jak i kontroler pamięci. Te elementy (ich liczba, taktowanie itd.) są do siebie dopasowane tak, by GENERALNIE wydajność była na jakimś poziomie. Jednak sytuacja, w której jednostki teksturujące pracują na 100% i shadery też jest w zasadzie niemożliwa, a przynajmniej tak rzadko spotykana, że wręcz pomijalna. Zatem jeśli np. akurat w tym momencie brakuje TMU, to nie dowiemy się tego dopóki nie zmienimy taktowania TMU względem shaderów.

 

Dokładnie to samo tyczy się procesora i karty graficznej. To co zasugerował WDK jest oczywiście właściwe, ale są prostsze sposoby - zmień rozdzielczość na niższą. Jeśli wydajność nie wzrośnie to wiesz już dobrze, co Cię trzyma - z artykułu to bezpośrednio wynika.

 

Oczywiście są możliwe sytuacje, w których w dwóch różnych rozdzielczościach będziesz miał ten sam wynik a potem po zmianie częstotliwości CPU też będziesz miał ten sam wynik - to przepustowość PCI-E. Taka sytuacja występowała w NFS ProStreet na płytach PCI-E 1.1 - praktycznie ta sama wydajność niezależnie od rozdzielczości, wydajności grafiki oraz... taktowania procesora. Dopiero gdy, włożyłem wszystko do płyty głównej PCI-E 2.0 z kartą PCI-E 2.0 okazało się, że jest ZNACZNIE szybciej.

 

To co powinieneś zrobić to w pierwszej kolejności sprawdzić jak zachowuje się FPS po zmianie rozdzielczości. W drugiej kolejności sprawdź wpływ taktowania procka.

 

 

I na koniec komentarz dotyczący optymalizacji itd. itd.

Jako programista powinieneś wiedzieć jak trudno zaprogramować coś na wiele rdzeni. Pamiętaj, że w przypadku gry nie wiemy co stanie się w trzech następnych klatkach, nie mówiąc o kolejnych sekundach. Nie pierwsza to i nie ostatnia gra, która będzie miała większy problem z wykorzystaniem wielu rdzeni - bo najpewniej ma to właśnie miejsce w Hitmanie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dziękuję na odpowiedź, tak ja pisałem, w sprawy mocno sprzętowe zbytnio nie wierzę (choćby ten przykład o pci), bo w innych grach, które zdecydowanie jakoś mniej wymagające nie są, efekt nie występuje.

 

To co napisałeś na końcu ma największe znaczenie dla mnie, może być tak, że hitman nie umie wykorzystać w pełni kilku rdzeni, to powoduje niższą utylizację i tym samym gpu nie może popracować więcej.

 

Cóż, ogólnie jednak optymalizacja, ale mam zamiar zbadać to bardziej.

 

Także na pewno sprawdzę fps w różnych rozdzielczościach, a potem wpływ taktowania proca.

 

Co prawda nie jestem pewien czy zmiana rozdzielczości na niższą jest stosownym testem, bo patrząc w tłum to pewne algorytmy mogą i tak powodować to co opisałem, a nie być w ogóle związane czy zależne od rozdzielczości.

 

Zdecydowanie porobię więcej testów, a jak to nic nie da to sięgnę po cięższe programy, jakiś profiler albo coś w tym stylu.

 

Ale na bank coś jest nie tak z tym silnikiem, ktoś może potwierdzić, że ma tak samo w tej grze?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja tak mam jak odpalę Global Illumination. Wszystko na max, prócz GI i chodzi jak cud , miód :) Ale wiem że u mnie grafa niedomaga.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@ szefons - w grach niemal zawsze jest tak (wyłączając różnego rodzaju limitery typu v-sync), że masz tyle FPS, na ile pozwala najwolniejszy element. Tym wolnym elementem może być procesor, karta graficzna, złącze PCI-E, lub jeden z elementów wcześniej wymienionych podzespołów (np. ROPy karty graficznej). Daj znać, jak zrobisz testy - zadbaj jednak o wysoką powtarzalność pomiarów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiem, ale hitman przeczy tej zasadzie bardziej niż inne gry, gdyż niewyobrażalne dla mnie jest takie marnotrawstwo zasobów, gdzie mając 20 fps, utylizacja podzespołów jest tak niska, że spokojnie można by to było wykorzystać i zyskać sporo wydajności (teoretyzując), dlatego spojrzałem w stronę optymalizacji silnika, bo coś musi sprawiać, że cpu i gpu nie jest w pełni wykorzystywane, a mogłoby.

 

Ogólnie muszę też zbadać samo zjawisko w innych grach, czy mi się tylko zdaje, czy tak jest też gdzie indziej, a dotąd tego nie zauważałem, a może po prostu zjawisko to występuje zawsze mniej lub bardziej, a w hitmanie jest bardzo widoczne, tak czy siak, nie wierzę, że innych to by nie irytowało i nie zachodziliby w głowę, czemu gra nie wykorzystuje w pełni tego co ma.

 

Po za tym sam to napisałeś, tyle na ile pozwala najwolniejszy element, a to chyba oznacza, że ten najwolniejszy element nie domaga i osiągnął 100% swoich możliwości więc reszta musi na niego czekać, ale tym elementem przynajmniej z monitorów w hitmanei nie wydaje się być ani cpu, ani gpu, zakładając oczywiście, że to nie wina kiepskiej optymalizacji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Ciekawy filozoficzny post, ja to odbieram inaczej - 9800X3D potrafi być 30% szybszy od 7800X3D i to przyrost w 18 miesięcy. Jeżeli upgrade dokonujesz w tej samych "widełkach" wydajnościowych zmieniajac starsze i5 na nowsze i5 to przyrost potrafi być przez 2 lata mniejszy niż nawet 5% za to energetycznie bywa że jest 30% lepiej, ostatecznie jest to jakaś ewolucja - pamiętaj że rozwój technologii jest iteratywny i polega na małych przyrostach które ostatecznie składają się na coś wielkiego ale ostatecznie masz rację - i7-2600 do dzisiaj może stanowić podstawę użytecznego komputera biurowego, skylake posłuszy pewnie i do 2030 w takich celach. Rasteryzacja w kartach graficznych faktycznie stoi nieco w miejscu, nVidia próbuje zrewolucjonizować rynek vendorlockowymi technikami jak swoje DLSSy, ostatecznie doprowadzi to do stagnacji gdzie bez zamydlonego ekranu nie pogramy w 4K, silniki graficzne też nie rozwijają się w oczekiwanym tempie - unity rozpadło się przez kiepski zarząd, unreal engine 5 to król mikroopóźnień, od zakończenia akceleracji sprzętowej dźwięku w windows vista (okolice 2007) nie było w audio żadnej rewolucji a wręcz ewolucji - id Tech to do dzisiaj jedyny engine który potrafi wyrysować łuk a nie koła z nakładanych trójkątów... Także sygnałów że branża kuleje nigdy nie brakowało - grunt to realizować swoje cele i jak tak jak ja od lat 2000 celujesz w średnią półkę cenową - szukać takich upgrade które faktycznie coś dają no i mieć świadomość że rtx 5090 to będzie 600w potwór z gddr7 i ceną na poziomie 12000 pln, takiej wydajności w kartach do 2000zł nie zobaczymy do 2030r. Pamiętam WOW jakie zrobił na mnie Teoria Chaosu splinter cella (mądrze zaprogramowana gra działająca również na konsolach) Far Cry 1 (był nieziemski na premierę) Crysis wyrywał z butów (8800gtx ledwo dawał radę), wszystko potem to sidegrade z momentami które pokazywały że 200 mln usd budżetu może dać jakościowy tytuł jak Red Dead 2, przez ostatnie 20 lat dobrych gier pctowych nie brakowało ale większość to ciągły sidegrade niepotrzebujący najmocniejszych sprzętów, dobieranie timingów pamięci to zawsze była nieco sztuka dla sztuki
    • Na ITH podobna wolność słowa jak na X/Twitterze. No cóż, trzeba będzie po prostu listę ignorowanych wydłużyć  
    • Tak, ale są związane z usługą udostępnienia platformy z ramienia podmiotu X. W tym wypadku RASP. Jeśli treść, nawet przerobioną na anonimową, przetwarzać zacząłby ktoś inny, nie wiem czy przypadkiem nie potrzeba uzyskać ponownie zgody na przetwarzanie wtórne/dziedziczne. Być może bezpośrednio z RASP, ale już stwierdzono, że nie ma takiej opcji. Głośno myślę jedynie, nie wczytywałem się tak głęboko w przepisy. Ok, ale co jeśli posty zawierają informacje mogące przyczynić się do ustalenia tożsamości piszącego/piszących? Tu już robi się niestety grubiej.    
    • Ja odpowiem bo nie wybieram się na tamto forum. Zależy czy masz boxy, gwarancję i jak szybko chcesz sprzedać ale coś koło 2100.
    • Polecam zapytać na Forum ITHardware.pl tutaj już raczej nikt ci nie odpowie, to forum się zamyka i wszyscy przeszli na ith.   @MuziPL .
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...