Skocz do zawartości
Smutny83

Ryzen 3300X vs i9 10900K

Rekomendowane odpowiedzi

Porównanie tylko tych dwóch procesorów, polecam obejrzeć od 06:29

 

 

:)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Znowu odkryli, że gry nie używają tylu rdzeni? :D To tylko na forach najważniejsze żeby procesor był PRZYSZŁOŚCIOWY :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
Porównanie tylko tych dwóch procesorów, polecam obejrzeć od 06:29

 

https://www.youtube....h?v=9YS66zOryIc

 

:)

 

Na co dokładnie zwracać uwagę?

 

142 vs 202 fps?

 

Wiadomo że w 4k ograniczeniem jest gpu, nawet przy słabszych procesorach.

 

"4C/8T to już przeszłość, liczy się tylko więcej rdzynióf" - XD.

 

A tak serio to 3300x w połączeniu z 2060 S to optymalna opcja.

Edytowane przez kubinek83bb

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na co dokładnie zwracać uwagę?

 

142 vs 202 fps?

 

Wiadomo że w 4k ograniczeniem jest gpu, nawet przy słabszych procesorach.

Ograniczenie ograniczeniem, ale 3300X wygrywa o te 5% w dwóch z trzech gier w 4K, ale w 1080 na Ultra różnica praktycznie żadna. Radeon VII to nie RTX 2060 przecież.

 

To teraz jak rozumieć ten test? Ze do 3300X mam sobie kupić dobry monitor 4K a do 10900K jakiś 720p żeby było więcej fpsów? :)

 

a chodzi o to, że dobry ten mały Ryzenik daje radę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No ameryki nikt nie odkrył tym testem. Oczywiste jest to że jeśli zależy Ci na grach to kupujesz maksymalnie dobrą grafikę i dobierasz procesor który po prostu da radę ją wykarmić no i ma jednak minimum 4c/8t. Oczywiście jest jeszcze 1% low oprócz średniego fps ale zawsze lepsze wyniki w grach dostaniesz oszczędzając kasę na procku i inwestując w lepszą grafikę (w granicach rozsądku rzecz jasna).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak pewnie testują procka jak lipton z youtube. GPU na 100% i mówi że nie ma żadnej różnicy. z tym 4k to blad musi być bo to sensu nie ma.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie rozumiem tego porównania - to są 2 procki z zupełnie innej półki cenowej, przez co będą parowane z zupełnie innymi GPU. Przy budowaniu zestawu powiedzmy za 10k nikt o zdrowych zmysłach nie będzie pchać 3300x - chociaż on w wielu zastosowaniach daję radę.

 

Sam posiadam 3900X, który w grach będzie lepszy od 3300x o co najwyżej 10 - 15%. Lubię zagrać, ale głównym kryterium wyboru mojego CPU są zastosowania wielowątkowe. Praca nad większymi projektami (częste kompilacje), konieczność przeprowadzania długich testów (uruchamianie wielu usług na raz) i w praca z programami i wirtualkami jednocześnie jest przyjemnością. Więcej rdzeni w zastosowaniach gamingowych jedynie zabezpiecza przed wąskim gardłem ze strony CPU.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

albo nie blad tylko że nie zostały odtworzone dokładnie 2 takie same rozgrywki. Różny fps może być w zależności jak się postacia poruszmy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

albo nie blad tylko że nie zostały odtworzone dokładnie 2 takie same rozgrywki. Różny fps może być w zależności jak się postacia poruszmy.

xD to są wbudowane benchmarki w grach

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a chodzi o to, że dobry ten mały Ryzenik daje radę.

 

Jak szukasz procesora do 30 czy 40fps to masz ogromny wybór znacznie tańszych procesorów niż 3300x ;)

 

A może..a może nikt nie gra w 30 czy 40fps na limicie gpu? Nie no skąd, na pewno grają :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja gram na limicie 59-74 mimo iż w wielu grach mam więcej klatek ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Ja gram z limitem 78 fps (tyle wyciąga monitor po OC) oczywiście z G-sync compatible i tu nawet staroć daje radę w fhd z gtx 1070.

Edytowane przez kubinek83bb

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Porównanie tylko tych dwóch procesorów, polecam obejrzeć od 06:29

 

 

:)

Niech pokaże frame-time, 4 rdzenie z HT i gołe 6 rdzeni już zaczynają wymiękać. ;)

Edytowane przez Krisol

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Nic nie zaczyna wymiękać.

6c/6t jest spoko

4c/8t jest bardzo dobre

6c/12 jest idealne

 

ALE TO MUSI BYĆ SZYBKIE A NIE STAR ZŁOM RYZEN 1 GEN

Edytowane przez wallec

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest, te procki nie trzymają już płynności we wszystkich grach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Trzeba patrzeć na konsole bo to pod nie są gry robione. Czyli teraz najlepsze procki do grania to były 8 gołych rdzeni a teraz z wyjściem nowych konsol trzeba kupić 8 rdzeni 16 wątków.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nic się nie zmieni w kwestii wykorzystania rdzeni / wątków przez najbliższe kilka lat.

Konsole mają mieć ich więcej po to by w tle mogło chodzić więcej programów i żebyśmy mogli szybciej między nimi przeskakiwac dokładnie tak jak na pc.

Nie wierzcie w te bzdury bo gdyby tak było to to procki 4c/4t już dawno nie nadawalyby sie absolutnie do niczego a wymiekaja dopiero od niedawna i to w tytulach hiper multiplayer

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

4R/4W już dawno wymiękają w większości gier z otwartym lub po części otwartym światem, czyli tam gdzie procek ma jakiekolwiek znaczenie, np. Wiedźmin 3, Far Cry 4, Rise of the Tomb Raider.

Edytowane przez Krisol

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

4/4 w Assassinach to już totalna padaka, 4/8 musi być mocno wykręcony i z dobrymi RAMami, aby trzymać ~60fps, a i tak nie uniknie się całkowicie spadków na minimalnym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przy kartach pokroju RTX2060/Super/2070/RX5700/XT to serio więcej niż tne R3 3300X nie trzeba.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Do 1080p raczej trzeba.

Edytowane przez Krisol

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niech pokaże frame-time, 4 rdzenie z HT i gołe 6 rdzeni już zaczynają wymiękać. ;)

 

Ty tak na poważnie? Nowszy procesor z 6 rdzeniami i 6 wątkami wygra z każdym który ma 4 rdzenie i 8 wątków, które są popierdółką a nie czymś co może konkurować z prawdziwymi rdzeniami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ty tak na poważnie? Nowszy procesor z 6 rdzeniami i 6 wątkami wygra z każdym który ma 4 rdzenie i 8 wątków, które są popierdółką a nie czymś co może konkurować z prawdziwymi rdzeniami.

A który jest nowy 6/6 ? bo z tego co pamiętam to ostatni był 9400f

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

9600k z wysokim zegarem jeszcze długo będzie dawał radę.

Tak samo jak i3 9350kf 5.1GHz 4/4 jeszcze niejednego by zaskoczył ;)

Edytowane przez Wu70

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...