Skocz do zawartości
Reganarq

Rozdzielczość 1440p a mniejsza rola procesora?

Rekomendowane odpowiedzi

Może mi ktoś wytłumaczyć parę rzeczy, które nurtują mnie od jakiegoś czasu?

 

1. Dlaczego mówi się że w 1440p procesor ma mniejsze znaczenie i nie liczy się tak, jak w 1080p? Rozumiem, karta ma o wiele więcej roboty, ale procesor chyba powinien mieć jej tyle samo co w 1080p, nie mniej.

2. Mówi się że procesory powinno się testować w 720p, tak robi np. blackwhitetv. Czyli to by potwierdzało, że nie zależnie od rozdzielczości, procesor robi tyle samo. Czy jest to prawda?

3. Jeśli jakaś gra mi nie domaga, to moge sprawdzić kto jest winny zmieniając rozdzielczość na np. 480p i patrząc na ilość FPS? Jeśli w 480p jest 90fps, to mogę założyć że procesor pozwoli mi na tyle, a winna jest tutaj karta graficzna?

4. Czy ustawienia Low/High dają takie samo obciążenie procesorowi? Pewnie twórcy gier uzależnili od tych ustawień też trochę ilość przechodniów itp. Np. ustawiam Low, to zmniejsza detale a jednocześnie usuwa trochę przechodniów (ale raczej jak już, to w predefiniowanych), czy raczej zawsze jest to jako osobna opcja?

5. Jeśli podczas gry, np. w Fortnite, użycie GPU wynosi 60% a CPU 50%, a FPS jest na poziomie 70FPS, oczywiście z wyłączoną synchronizacją, to co jest tutaj nie tak. Co sprawia że nie mogę wycisnąć więcej FPS?

 

To by było chyba na tyle, mam nadzieję że ktoś będzie w stanie mi pomóc

Edytowane przez Reganarq

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

procesor ma tyle samo do roboty a karta ma wiecej pixeli do obrobienia w wyzszej rozdzialce dlatego gpu przyjmuje wieksza role ale jak masz slaby procek to wtedy dlawi karte i na odwrot

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1. Im więcej klatek do wyświetlenia tym bardziej CPU jest obciążony.

2. Po co testować procesor w 720p jak nikt nie gra w takiej rozdzielczości, strata czasu. Testy robi się w 1080p, bo to jest minimum.

3,5. Jak użycie GPU jest mniejsze jak 98% to CPU ogranicza GPU.

4. Sam sobie odpowiedziałeś.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

2. Po co testować procesor w 720p jak nikt nie gra w takiej rozdzielczości, strata czasu. Testy robi się w 1080p, bo to jest minimum.

Po co porównywać procesory w 1080p, kiedy czasami w niektórych grach wszystkie dają identyczny fps? (bo GPU jest wąskim gardłem) Także CPU testuje się w 1280x720 (a nawet niżej) po to, by sprawdzić który procesor jest szybszy. Porównywanie CPU w 1080p tylko i wyłącznie zwiększa ryzyko wąskiego gardła na GPU, przez co wyniki będą zakłamane . Minimalizuje się to używając do testów GPU pokroju RTX2080Ti, dzięki czemu w 1080p test CPU ma jakikolwiek sens. Ale jak widzę jak ktoś porównuje na GTX1060 procesory w 1920x1080, to wiem, że to wcielenie kaylo lubiące robić coś, co nic nie daje (wyniki te same dla wolnych jak i szybkich CPU)

 

Testy nie służą do tego byś se sprawdził "przy jakiej rozdzielczości się gra", tylko do tego, by przy zakupach wiedzieć który procesor jest szybszy (test CPU), która karta graficzna jest szybsza (test GPU). Także test kart graficznych w 1080p jest równie bezsensowny, jak test CPU w tej rozdzielczości.

 

Testy GPU w 1920x1080 i 2560x1440 i 3840x2160 to też strata czasu, bo jeśli CPU nie jest wąskim gardłem (i ilość VRAM), to proporcje/różnice wydajności między GPU są zachowane i procentowo będą takie same w każdej rozdzielczości, wiec przy zakupach wiadomo, które GPU jest szybsze, po jednym teście na każdą grę np. w 2560x1440.

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Po co porównywać procesory w 1080p, kiedy czasami w niektórych grach wszystkie dają identyczny fps? (bo GPU jest wąskim gardłem) Także CPU testuje się w 1280x720 (a nawet niżej) po to, by sprawdzić który procesor jest szybszy.

 

Procesory testuje się z najmocniejszymi kartami (2080Ti) która potrafi być dławiona przez CPU nawet w 1440p a co dopiero w 1080p. Także nie ma mowy o wąśki gardle ze strony GPU.

 

No i jaką wartość mają takie testy w 1280x720 stricte pod gry jak nikt nie używa takiej rozdzielczości? Testy dla testów, brak praktycznego zastosowania.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No i jaką wartość mają takie testy w 1280x720 stricte pod gry jak nikt nie używa takiej rozdzielczości? Testy dla testów, brak praktycznego zastosowania.

Chcę wiedzieć które CPU jest szybsze. Test w 1280x720 da mi NAJMNIEJ PRZEKŁAMANĄ odpowiedź (mniej niż w 1920x1080/2560x1440 czy 3840x2160, albo 5120x2880) - jak można nie rozumieć takich podstaw to ja nie wiem.

 

W sumie w takim teście konkretna ilość FPS jest nie istotna ... wystarczy podanie samej różnicy procentowej i już wiem, który CPU jest szybszy i co mam wybrać jak jestem w sklepie - na tym polega PRAKTYCZNE zastosowanie tych testów.

 

Procesory testuje się z najmocniejszymi kartami (2080Ti) która potrafi być dławiona przez CPU nawet w 1440p a co dopiero w 1080p. Także nie ma mowy o wąśki gardle ze strony GPU.

Karta nie jest "dławiona", tylko po prostu nie jest w pełni wykorzystywana w niskiej rozdzielczości - I O TO CHODZI PRZY PORÓWNYWANIU CPU !!! - to jest podstawa porównywania CPU ... PODSTAWA

 

 

Innymi słowy jak ktoś chwilowo ma wykorzystanie GPU ponad 90%, kiedy porównuje procesory (a większość jest takich zrąbanych testów na Youtube, w 1080p właśnie, dzięki nie dość szybkiej karcie graficznej) to może sobie wsadzić te testy w ...

 

Powtórzę jeszcze raz - jak ktoś porównuje procesory mając RTX2080Ti po OC w 1080p to jest jeszcze OK, bo ryzyko wąskiego gardła na GPU jest niskie. Co nie zmienia faktu, że test w 720p na RTX2080Ti OC, jak porównujemy procesory też nie jest złym pomysłem. Natomiast porównywanie CPU w 1080p na GTX1060 to już głupota i spokojnie można się przy takiej karcie, przy testowaniu CPU ratować 720p, czego "genialni youtuberzy" często nie robią, bo wolą tylko zaśmiecać internet testami bezwartościowymi i wprowadzającymi w błąd. ... no chyba, że ich celem było pokazanie, że powyżej pewnego poziomu wydajności CPU, jeszcze szybszy CPU, z daną kartą, w danej rozdzielczości nic nie daje.

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

wąśki

Oplułem monitor... Co to za słowo... Za dużo Killera hahaha

Edytowane przez AndrzejTrg

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie dogadacie się :lol2:

Będę pilnie obserwował wątek i zobaczę, któremu puszczą nerwy :E

 

Dobranie rozdzielczości do testów CPU nie jest taka prosta.

Trzeba dobrać odpowiedniej wydajności kartę do odpowiedniej gry.

Ustawić taka rozdzielczość, żeby przy testach CPU spadki FPS były powodowane przekroczeniem obciążenia CPU, a nie GPU.

Wtedy na podstawie różnic FPS pomiędzy procesorami można wybrać coś dla siebie.

 

Przy zbyt dużej rozdzielczości, GPU będzie zakłamywać prawdziwe możliwości CPU, za to przy niskiej rozdzielczości, grafika nie będzie miała wpływu na możliwości CPU i to jest poprawny wybór rozdzielczości do testowania CPU.

Dla tego przy testach CPU, wszystkie szanujące się portale dają niskie rozdzielczości.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Od siebie dodam, że sama rozdzielczość to nie wszystko przy testach procesorów. Przede wszystkim potrzebna jest odpowiednia powtarzalna lokacja testowa, która kładzie nacisk na procesor.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

za to przy niskiej rozdzielczości, grafika nie będzie miała wpływu na możliwości CPU

Przy niskiej rozdzielczości, grafika nie będzie "hamować" CPU (no chyba, że będzie to bardzo wolna karta). Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

3,5. Jak użycie GPU jest mniejsze jak 98% to CPU ogranicza GPU.

Ale wtedy chyba CPU powinno iść na 100%. A skoro CPU ma obciążenie 50% i GPU 60%, to by wskazywało na co?

 

1. Im więcej klatek do wyświetlenia tym bardziej CPU jest obciążony.

Aha, czyli procesor ma tyle samo do liczenia co miał wcześniej (co było dla mnie jasne), a jedyne ODciążenie go, polega na tym, że ma mniej klatek do wyświetlenia. Co on robi z tymi klatkami, to GPU je generuje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Aha, czyli procesor ma tyle samo do liczenia co miał wcześniej (co było dla mnie jasne), a jedyne ODciążenie go, polega na tym, że ma mniej klatek do wyświetlenia. Co on robi z tymi klatkami, to GPU je generuje.

Ma mniej do liczenia ponieważ generuje mniejszą ilość klatek na sekundę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

skoro CPU ma obciążenie 50% i GPU 60%, to by wskazywało na co?

Na to, że CPU jest (powiedzmy) w 100% obciążone (w sumie to pojedynczy wątek jest w 100% obciążony), tylko procesor ma więcej rdzeni/wątków, niż potrafi efektywnie, równolegle wykorzystać dana gra/program (hamulcem tutaj jest wydajność pojedynczego rdzenia/wątku w CPU).

 

Innymi słowy, jeśli sytuacja wystąpiła przy porównywaniu różnych CPU, to jest to sytuacja prawidłowa, bo GPU nie jest tutaj wąskim gardłem (bo jest obciążone przy 60%).

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Aha, czyli procesor ma tyle samo do liczenia co miał wcześniej (co było dla mnie jasne), a jedyne ODciążenie go, polega na tym, że ma mniej klatek do wyświetlenia. Co on robi z tymi klatkami, to GPU je generuje.

Przy założeniu, że wydajność GPU w żadnej rozdzielczości nie stanowi wąskiego gardła dla CPU to obciążenie CPU w raz z rozdzielczością może co najwyżej wzrosnąć.

 

Ale w praktyce wraz z wzrostem rozdzielczości GPU staje się coraz większym wąskim gardłem i spada ilość klatek. A skoro spada ilość klatek to i spada liczba draw calls to przekłada się na niższe obciążenie CPU, a więc CPU ma mniej do roboty.

 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czym większa rozdzielczość tym większe znaczenie ma karta graficzna. Czyli załóżmy że mając rtxa 2080 i testując wydajność w grach między i3/i5/i7 w 720p, różnica będzie widoczna gołym okiem. Natomiast czym wyżej podbijasz detale i rozdzielczość tym różnice w wydajności pomiędzy i3 a i5 i i7 się zacierają, bo do gry wchodzi większe obciążenie/znaczenie karty graficznej. Nas najbardziej obchodzić będzie scenariusz od 1080p w górę. Testy w 720p tak naprawdę są bez sensu, bo mało kto zamierza grać w takowej. Mnie osobiście nie obchodzi zbytnio wydajność różnych CPU w 720p, bo zwyczajnie mam monitor 1080p i nie mam zamiaru grać w niższej niż natywna, więc whatever.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1. Dlaczego mówi się że w 1440p procesor ma mniejsze znaczenie i nie liczy się tak, jak w 1080p? Rozumiem, karta ma o wiele więcej roboty, ale procesor chyba powinien mieć jej tyle samo co w 1080p, nie mniej.

[/Quote]

 

Wcale, nie, ale jak koledzy zauważyli im wyższa rozdziałka tym obie części (GPU i CPU) mają więcej do zrobienia

 

2. Mówi się że procesory powinno się testować w 720p, tak robi np. blackwhitetv. Czyli to by potwierdzało, że nie zależnie od rozdzielczości, procesor robi tyle samo. Czy jest to prawda?

 

Dla mnie to bzdura. Chcesz testować procesor to testuj jakieś Cinebench, czy AES czy czas obrabiania 3DStudio Max, ale test procesora w 720p z powodu gier jest tak potrzebny jak piasek na Saharze w/g mnie...

 

3. Jeśli jakaś gra mi nie domaga, to moge sprawdzić kto jest winny zmieniając rozdzielczość na np. 480p i patrząc na ilość FPS? Jeśli w 480p jest 90fps, to mogę założyć że procesor pozwoli mi na tyle, a winna jest tutaj karta graficzna?

 

Jak gra nie domaga to znaczy, że :

a) patrzysz czy RAMu Ci nie brakuje

b) patrzysz na obciążenie GPU i odzwierciedlenie w detalach i ewentualnie tniesz do Twojej natywnej w monitorze rozdzielczości, gdy jednak masz mocne GPU dużo RAMu i czujesz, że coś tu jest nie tak, wtedy na pewno wiesz, że CPU jest wąskim gardłem na czuja

 

4. Czy ustawienia Low/High dają takie samo obciążenie procesorowi? Pewnie twórcy gier uzależnili od tych ustawień też trochę ilość przechodniów itp. Np. ustawiam Low, to zmniejsza detale a jednocześnie usuwa trochę przechodniów (ale raczej jak już, to w predefiniowanych), czy raczej zawsze jest to jako osobna opcja?

 

Z mojego punktu widzenia jako lotnika w X-Plane 11 gdzie mój sprzęt nawet nie wyrabia mogę powiedzieć tak z mojej obserwacji, że procesor się włącza do obliczania gdy karcie graficznej zaczyna brakować VRAMu do przechowywania scenerii (im wyższa rozdzielczość scenerii, która na dodatek jest rozbudowana i zróżnicowana i więcej geometrii (budynki itp) tym większe zużycie VRAM), 11GB VRAM w RTX2080Ti zatknane nagle chwilowy drop to 2FPSów ( przy lataniu na dużej wyskości to nie ma znaczenia taki drop na reload scenerii do lądowania za 30min aby na 5-10s zatkać się na 2-4FPSy), procesor 99% i za chwilę znowu 60FPSów gdy karta wymieni sobie tekstury w VRAMie lub na M2 stworzy plik wymiany, którą obrabia już procesor bo karta nie daje rady i pokazuje 18GB textur załadowanych a więc 11GB w VRAMie i 7GB w pliku wymiany na M2, którą zarząda procesor (co widać w skokach z obciążenia CPU z 20% na np. 60%), ale X-Plane 11 to istny killer. Innej zależności nigdy nie zaobserowałem, żeby procesor męczył się pomiędzy low/high detail gdy karta graficzna wyrabia i przetwarza dane, ale to bardzo ciekawe pytanie jest i warto się nad nim pochylić.

 

5. Jeśli podczas gry, np. w Fortnite, użycie GPU wynosi 60% a CPU 50%, a FPS jest na poziomie 70FPS, oczywiście z wyłączoną synchronizacją, to co jest tutaj nie tak. Co sprawia że nie mogę wycisnąć więcej FPS?

 

To trochę pytanie z kategorii czemu na moim i9-9900K@5.1Ghz 32GB ramu 4133Mhz i RTX2080Ti na 1815Mhz mam przycinki do 2FPSów w XPlane11 i czemu więcej nie mogę wycisnąć, a podczas gry karta ma 60% obciążenia procesor 20-30% cały czas.

Może Fortnite tak jak XPlane 11 ma sporo tekstur i im większe wykorzystanie VRAMu tym mało da się z tym zrobić. Sporo na XPlane 11 się nauczyłem, że to VRAM w karcie graficznej ma ogromne znaczenie.

Edytowane przez _File_

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla mnie to bzdura. Chcesz testować procesor to testuj jakieś Cinebench, czy AES czy czas obrabiania 3DStudio Max, ale test procesora w 720p z powodu gier jest tak potrzebny jak piasek na Saharze w/g mnie...

Tylko, że ja jako konsument, między innymi gier, chcę wiedzieć który procesor jest szybszy w grach, a nie 3D Studio max. I nie chcę by test został przekłamany przez kartę graficzną. Im wyższa rozdzielczość, tym ryzyko bottleneck na GPU większe. (czyli im wyższa rozdzielczość, tym porównywanie CPU w grach ma mniejszy sens :])

 

Nas najbardziej obchodzić będzie scenariusz od 1080p w górę.

... nadal nie rozumiesz o co chodzi. "Scenariusz" nie ma sensu, choćby z tego powodu, że nie masz w domu RTX 2080Ti . Po prostu doszukiwanie się "scenariusza" czyli podobnej konfiguracji co Twoja, w jakimś teście porównawczym CPU, w jakiejś grze jest bez sensu. Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko, że ja jako konsument, między innymi gier, chcę wiedzieć który procesor jest szybszy w grach, a nie 3D Studio max.

 

Rozumiem Cię, ale sam bawie się w to ok 20 lat i powiem jedno. Kupowanie mocnej karty graficznej za np. 5000zł i siedzenie na procesorze 3 epoki wstecz to jak kupno BMW5 z silnikiem 1.4L i mocą 120KM bez klimy, choć w/g mnie posiadanie procesora z doświadczenia 2 epoki w tył nie ma OBECNIE żadnego wpływu na 99% gier jeżeli chodzi o performance. Natomiast wielowątkowe procesory nie są stworzone i nigdy nie były do gier tylko do skomplikowanych prac, renderingu itp. Śledze już wiele lat wyniki i wpływ CPU na "gry", choć gram tylko w jedną i zaobserwowałem, że jest marginalny od momentu gdy skończył się przyrost Mhz a zaczął się przyrost rdzeni.

 

Mnie złapało ograniczenie VRAM - to wtedy procesor musi włazić do zabawy a nie stać z boku i wspierać kartę graficzną. To stwierdzam z pełnym przekonaniem.

 

Poza tym zwróćcie uwagę, że procesory się już kończą. Praw fizyki nie da się oszukać. Jeszcze kiedyś mówiło się, że co 2-3 lata procesor podwaja swój zegar. Teraz nie ma tego od wielu lat, bo atomu podzielić się nie da oraz nie jest realne odprowadzanie ciepła w normalnych warunkach.

Edytowane przez _File_

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Rozumiem Cię, ale sam bawie się w to ok 20 lat i powiem jedno. Kupowanie mocnej karty graficznej za np. 5000zł i siedzenie na procesorze 3 epoki wstecz to jak kupno BMW5 z silnikiem 1.4

... szczególnie jak procesor z trzeciej epoki się nudzi, a najnowocześniejsza karta za 5000zł nie wyrabia, bo grasz np. w 5120x2880 :)

 

Mnie złapało ograniczenie VRAM - to wtedy procesor

Jak masz ograniczenie VRAM, to do gry wchodzi przepustowość PCI-E. Generalnie zawsze PCI-E jest wolniejsze od VRAM, wiec do takich sytuacji się po prostu nie dopuszcza (kup se radeon 7 z 16GB VRAM, skoro masz takie problemy, a nie szybsze CPU, bo to nie pomoże na ścinki wynikające z przerzucania danych, w sumie konkretnie tekstur, przez magistralę PCI-E między RAM a VRAM ... oczywiście nie pliku strony, bo to już całkiem byłaby tragedia) Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Heh no mniej więcej z tym 5120x2880 ;)

 

Dlatego siedze na M2 970, bo niestety Radeonów z zasady jak i AMD nie uznaje ... Natomiast w moim przypadku nadzwyczaj krótkie sią te przycinki do 2FPsów, więc nadrabiam dyskami M2 z PCIX i szybkim procesorem aby zminimalizować te 2FPSowe zwiechy, co mi kompletnie nie przeszkadza ... ;) Sporo w życiu przegrałem w gry ale zawsze trzymałem się zasady, że upgradowałem kartę graficzną #1 i procesor co 2gi 3ci update karty graficznej. Od ok 4 lat trzymam się też zasady 32GB RAMu.

 

Cała moja filozofia, choć wiem, że ekspercko nie odpowiedziałem na Twoje dociekliwe pytania :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Kyle_PL Nie muszę mieć rtxa 2080 ti by stwierdzić czy ma to sens czy nie. Po prostu lepiej jest testować w rozdziałce mainstreamowej, daje to mniej więcej obraz jak się zachowa taka konfiguracja rtx 2080 z różnymi procesorami. Równie dobrze możnaby procesory testować w 800x600 by mieć 100% pewności że karta nie ograniczy, tylko pytanie kogo będzie interesowało takie porównanie. Graczy najbardziej obchodzi 1080 i 1440p obecnie i w takich rozdzielczościach moim zdaniem należy testować procesory oraz też karty graficzne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Równie dobrze możnaby procesory testować w 800x600 by mieć 100% pewności że karta nie ograniczy, tylko pytanie kogo będzie interesowało takie porównanie.

Każdego kto kupuje CPU do gier i chce po prostu wiedzieć, który będzie szybszy w dowolnej rozdzielczości.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...