Skocz do zawartości
Zimi96

Intel I5 11400F vs Ryzen 5 7500F - ciekawe porównanie z kartą RTX 4070

Rekomendowane odpowiedzi

Napisano (edytowane)

Cześć,

Od razu zaznaczam, że w żadnym wypadku nie chcę podbić oglądalności kanału na yt tego gościa. Jakiś randomowy gość ale robi ciekawe porównania. Do rzeczy. Chciałbym sobie złożyć komputer do grania na 27 monitorze w 1440p, ale nie znam się na tym czy AMD czy Intel, kartę dostałem w prezencie Inno3D RTX 4070 iChill. No i zacząłem szukać filmików czytać jakieś porównania itd. Natrafiłem na filmik, w którym wychodzi na to, że mój obecny procesor 11400F we wszystkich testowanych (RDR2, Cyberpunk) w tym filmie grach wypada lepiej lub podobnie niż Ryzen 5 7500F. Jedynym wyjątkiem jest Hogwarts Legacy, w którym dużo lepiej radzi sobie Ryzen. Czy możecie mi wyjaśnić o co chodzi?

 

Chciałem sobie sprawić kompa, żeby grać sobie w 1440p mając oczywiście jak najwięcej FPS. Budżet to 3000 zł (ze wszystkim - dyski, obudowa itd.) BEZ jedynie karty graficznej. 

Po obejrzeniu tych dwóch filmików nabrałem dużych wątpliwości czy to kupowanie AM5 i ddr5 ma sens.

Mój obecny komp:

image.png.2adb7d1ffd5660af2f39530fef3604d0.png

Co myślicie po zobaczeniu tych dwóch filmików (oczywiście niby może być to bullshit ale gościu pokazuje wszystkie ustawienia grafiki itd.)

Edytowane przez Zimi96

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

No to ładne testy, słowa nie ma o configach, ustawieniach platform nic :) Ogólnie nie wiem jakim cudem takie wyniki tam są,

7500f jest około 9 % szybszy od i13400f w 1080p, 10% w 1440p

A tu w tm teście wychodzi, że jest na równi z i5 11440f 🙃

Ale tu tęz sparowane jest z inną kartą jak co, testy pokazują wydajność procesorów w 100%.

A to co ty dałeś pokazuje wyniki z rtx 4070, pytanie co jest wąskim gardłem w nich cpu czy gpu :)

 

Jak już patrzysz na testy na you bazuj na ludziach co podają dokładne informacje jak testują i co testują :)

 

Edytowane przez Pietro1988

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Tam w opisie jest na jakich komponentach jest testowane.

Rozumiem, tylko kiedy właśnie chodzi o to, że ja tego kompa będę używał z 4070 przez najbliższe kilka lat. Też mi coś z nie gra tym testem no ale przecież podgląd klatek jest niby na żywo podczas grania.

Edytowane przez Zimi96

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pomijając to czy jest dobrze, czy źle wykonany test (nawet nie oglądałem)...jadąc ciągle na limicie GPU (podejrzewam, że właśnie na limicie leci) wiadomo, że różnice między CPU nie wyjdą ;)

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli tak naprawdę lepszy procesor niż 11400F nie jest potrzebny do rtx 4070 w 1440p? Pytanie jest zasadne, bo zastanawiam się czy otrzymam więcej FPS jeżeli zmienie wszystkie pozdespoły na nowsze? Karta graficzna 4070 musi zostać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Tego nie da się tak ogólnie określić, to zależy od danej gry, każda ma inne wymagania odnośnie procesora i karty graficznej, nawet same ustawienia mogą dużo zmienić, np. włączenie RT.

Edytowane przez SebastianFM
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
40 minut temu, Zimi96 napisał:

Czyli tak naprawdę lepszy procesor niż 11400F nie jest potrzebny do rtx 4070 w 1440p? Pytanie jest zasadne, bo zastanawiam się czy otrzymam więcej FPS jeżeli zmienie wszystkie pozdespoły na nowsze? Karta graficzna 4070 musi zostać.

To jak już zauważył @SebastianFMbędzie zaleźeć od konkretnego tytułu ;) Wrzuć kartę na to co masz, pograj z włączonym monitoringiem obciążenia GPU, jeśli nie będzie 100% to znaczy że CPU nie  nadąża za GPU w grach w które grasz ;) 

 

W RDR2 czy cyberku będziesz miał 100% na GPU ;) 

  • Like 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zależy w jakich fps grasz, czy musisz mieć 100fps+ czy nie itd i to co najważniejsze, gry, w jakie gry gramy,  zresztą ten test od HU, tylko przykład Hogward Legacy różnice ok 3fps, gdy Spider-man, Fortnite, Tomb Raider czy inne gry mogą mieć większą przepaść.
Czasem bywa, że lokacja mocniej ciśnie procka, a kilka kroków dalej mocniej leci po GPU.

Jak stać na mocniejszego procka, mamy taką możliwość to warto przy takiej grafice mieć lepszy proc.

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie musze mieć kompa top of the top. Chodzi mi o to, że chciałem sprawdzić jak się gra na monitorze z większym odświeżaniem. Zawsze grałem na 60 Hz. No i teraz mam dylemat czy jakbym sprzedał tego kompa co mam na 11400F i kupił powiedzmy AM5 czy intela 13 albo 14 to czy otrzymam nagle ogromny przyrost wydajności? Karta 4070 zostaje. Gram tylko w gry single player, głównie RPG lub czasami jakieś strzelanki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Zimi96 napisał:

Tam w opisie jest na jakich komponentach jest testowane.

Rozumiem, tylko kiedy właśnie chodzi o to, że ja tego kompa będę używał z 4070 przez najbliższe kilka lat. Też mi coś z nie gra tym testem no ale przecież podgląd klatek jest niby na żywo podczas grania.

Napisane na jakich komponentach to fakt, ale nie ma słowa o niczym nawet taktowaniu ramu nie ma podanego, opóźnień itp. A nawet na tym jednym parametrze można wygenerować różnicę 5-10% :P O to mi chodziło, takie pokazówki serio można w buty wsadzać :) Jak już bazować to na czymś zrobionym dokładnie  dobrze.

 

A druga sprawa,  Pytanie czy masz problemy z w spadkami fps,  Bo jak nie to szkoda sobie głowę zawracać tym.

Miałem podobną sytuację do ciebie ale gorszą, posiadałem i5 10400f na b460 gdzie ram szedł na 2666, sparowane z rtx 4070.

Grając w 3440-1440 w grach typu cyberpunk, the last of as, procesor i ram był ograniczeniem platformy, było 60-100 klatek to fakt ale były dropy i miejsca gdzie procesor szedł na 100% a grafika nie,  sam zrobiłem zmianę na am5, 7600 + ddr5 cl 30/6000 i jest bardzo duża różnica w komforcie grania i ogólna poprawa fps :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Więc skoro piszesz, że masz w domu to:

15 godzin temu, Zimi96 napisał:

image.png.2adb7d1ffd5660af2f39530fef3604d0.png

 

oraz to:

15 godzin temu, Zimi96 napisał:

kartę dostałem w prezencie Inno3D RTX 4070 iChill.

Więc nie widzę przeszkód, by wyjąc z kompa 3060ti, wrzucić 4070 i zacząć grać. Sam jesteś w stanie sprawdzić czy FPS się zgadza, czy są spadki spowodowane CPU, jeśli tak to czy te spadki są duże i Ci przeszkadzają, czy GPU się w ogóle w danej grze nudzi etc ;) 

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • No wlasnie problem w tym ze dzis HDR sam w sobie jest wyswietlany dynamicznie no chyba ze masz kontent ktory zostal zmasterowany do 1000 nitow, no ale wlasnie zobacz jaki masz blagan z tym HDR. Dlatego jedyna sposb zeby to wszytko "dzialao" to wystwietlacz ktory miesci sie w maksimum tego co moze pokazc HDR. A taki wyswietlacz nie istenieje w swerze komercyjej i nawet nie wiem czy ogolnej, ale ktorys z procudentow, chyba Sony albo Samsung pokazal kiedys na jakis targach wyswietlacz ktory osigal 10000 nitow. Nie wiem nawet czy to przypadkiem nie byl MicroLED.
    • Dla tego nie używam trybów dynamicznych, ani dla sdr, ani dla HDR. Niestety każdy producent wali swoje implementacje HDR do tego tryby dynamiczne i różne fikołki mające robić pseudo wrażenia. Dolby Vision ma swój system i dla mnie działa to ok czy tam przyzwoicie na oledach wspierających DV.  A do gierek używam HGiG, albo po prostu off wszystkie wzmacniacze HDRu, ale HGIG na LG lepiej się sprawdza. Do tego gierka musi mieć dobrze ten HDR zaimplementowany bo z tym bardzo różnie bywa. Więc z HDR tylko w małą część gierek grywam. A jakieś AutoHDRy to już w ogóle padaka Nie dość, że wszystko się rozjeżdża w obrazie to jeszcze w tych grach nie można przyciemnić HUDów i te walą bezsensownie po oczach.
    • 6 sztuk 14900K, 1 sztuka 14900KS. Każdy zachowywał się identycznie. Wybacz, aż takiego pecha nie mam Właśnie zamontowałem i skończyłem sprawdzać 14700K. Włożyłem, ustawiłem RAM. Od strzała, bez limitów mocy, przeszedł wszystkie testy i nigdzie się nie wysypał.  302W miał w peak i dał 89 stopni. I9 14 przy 300W były już po przywitaniu się z pierwszą setką A hitem jest to, że w R23 uzyskałem wynik wyższy niż wczoraj na 14900KS z nowymi ustawieniami Intela Plan był taki, że jak i7 by wariował, to bym wziął i5 albo spróbował AMD
    • No właśnie nie jest ok, sygnał HDR ma znacznie większą rozpiętość tonalna niż te certyfikaty czy możliwości dzisiejszych ekranów, to ze ty sobie to "ustawisz" i skompresujesz sygnał kompletnie przeczy idei sygnału HDR. Jestem przekonany ze tylko ekrany które są w stanie wycisnąć z danego sygnału HDR 100% bez żadnych "sztuczek" pokazują jak ten obraz faktycznie powinien wyglądać i zapewne nie będzie tez przy nich żadnego zmęczenia wzroku czy innych problemów. A dziś jest tak ze włączasz HDR i odrazu wali po oczach jak nie zbyt nasyconymi barwami które są nienaturalne to oślepia cie w peakach bo muszą kompresować sygnał do tego co potrafi ekran. Chyba najlepszym przykładem jak źle to wszytko działa są tryby dynamicznego mapowania metadanych (nie mylić z metadanymi Dolby Vision) które TV tworzą w czasie rzeczywistym czy tam monitory ale przy tym rozjeżdża się cala dynamika obrazu bo wszytko nagle staje się dwa razy jaśniejsze nie wiadomo po co i co to ma wspólnego z dobrej jakości HDR. To jak z trybami demo w sklepach, wszystkim się podobają i nawet ludzie potem tak w domach oglądają ale dobra lub poprawna jakością obrazu nie ma to nic wspólnego. I nie mowie żeby się zaraz trzymać wytycznych jak od linijki ale włączając HDR odrazu widzę ze coś z tym obrazem jest nie tak, problem ten jest znacznie mniej widoczny przy materiałach Dolby Vision ale jako ze ekrany nadal maja zbyt słabe jasności maksymalne aby odpowiednio wyświetlić pełny zakres HDR to nawet DV jest mocno kompresowany przez co męczy wzrok. Oczywiście można sobie taka matryce przyciemnić tylko ze leci w dół wszytko a nie tylko peak wiec z HDR zostaje jeszcze mniej. I tak człowiek dochodzi do wniosku ze wali go ten cały HDR i zostaje przy SDR, który jest stały i wygląda wszędzie prawidłowo, nie trzeba nic za każdym razem kalibrować jak chcesz w coś grac albo coś ogladac.
    • Jak to może być plaskacz dla Sony? Przecież Sony jest wydawcą i chyba zależy im na dobrej sprzedaży 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...