Skocz do zawartości
Smutny83

Ryzen 3300X vs i9 10900K

Rekomendowane odpowiedzi

Porównanie tylko tych dwóch procesorów, polecam obejrzeć od 06:29

 

 

:)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Znowu odkryli, że gry nie używają tylu rdzeni? :D To tylko na forach najważniejsze żeby procesor był PRZYSZŁOŚCIOWY :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
Porównanie tylko tych dwóch procesorów, polecam obejrzeć od 06:29

 

https://www.youtube....h?v=9YS66zOryIc

 

:)

 

Na co dokładnie zwracać uwagę?

 

142 vs 202 fps?

 

Wiadomo że w 4k ograniczeniem jest gpu, nawet przy słabszych procesorach.

 

"4C/8T to już przeszłość, liczy się tylko więcej rdzynióf" - XD.

 

A tak serio to 3300x w połączeniu z 2060 S to optymalna opcja.

Edytowane przez kubinek83bb

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na co dokładnie zwracać uwagę?

 

142 vs 202 fps?

 

Wiadomo że w 4k ograniczeniem jest gpu, nawet przy słabszych procesorach.

Ograniczenie ograniczeniem, ale 3300X wygrywa o te 5% w dwóch z trzech gier w 4K, ale w 1080 na Ultra różnica praktycznie żadna. Radeon VII to nie RTX 2060 przecież.

 

To teraz jak rozumieć ten test? Ze do 3300X mam sobie kupić dobry monitor 4K a do 10900K jakiś 720p żeby było więcej fpsów? :)

 

a chodzi o to, że dobry ten mały Ryzenik daje radę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No ameryki nikt nie odkrył tym testem. Oczywiste jest to że jeśli zależy Ci na grach to kupujesz maksymalnie dobrą grafikę i dobierasz procesor który po prostu da radę ją wykarmić no i ma jednak minimum 4c/8t. Oczywiście jest jeszcze 1% low oprócz średniego fps ale zawsze lepsze wyniki w grach dostaniesz oszczędzając kasę na procku i inwestując w lepszą grafikę (w granicach rozsądku rzecz jasna).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak pewnie testują procka jak lipton z youtube. GPU na 100% i mówi że nie ma żadnej różnicy. z tym 4k to blad musi być bo to sensu nie ma.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie rozumiem tego porównania - to są 2 procki z zupełnie innej półki cenowej, przez co będą parowane z zupełnie innymi GPU. Przy budowaniu zestawu powiedzmy za 10k nikt o zdrowych zmysłach nie będzie pchać 3300x - chociaż on w wielu zastosowaniach daję radę.

 

Sam posiadam 3900X, który w grach będzie lepszy od 3300x o co najwyżej 10 - 15%. Lubię zagrać, ale głównym kryterium wyboru mojego CPU są zastosowania wielowątkowe. Praca nad większymi projektami (częste kompilacje), konieczność przeprowadzania długich testów (uruchamianie wielu usług na raz) i w praca z programami i wirtualkami jednocześnie jest przyjemnością. Więcej rdzeni w zastosowaniach gamingowych jedynie zabezpiecza przed wąskim gardłem ze strony CPU.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

albo nie blad tylko że nie zostały odtworzone dokładnie 2 takie same rozgrywki. Różny fps może być w zależności jak się postacia poruszmy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

albo nie blad tylko że nie zostały odtworzone dokładnie 2 takie same rozgrywki. Różny fps może być w zależności jak się postacia poruszmy.

xD to są wbudowane benchmarki w grach

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a chodzi o to, że dobry ten mały Ryzenik daje radę.

 

Jak szukasz procesora do 30 czy 40fps to masz ogromny wybór znacznie tańszych procesorów niż 3300x ;)

 

A może..a może nikt nie gra w 30 czy 40fps na limicie gpu? Nie no skąd, na pewno grają :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja gram na limicie 59-74 mimo iż w wielu grach mam więcej klatek ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Ja gram z limitem 78 fps (tyle wyciąga monitor po OC) oczywiście z G-sync compatible i tu nawet staroć daje radę w fhd z gtx 1070.

Edytowane przez kubinek83bb

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Porównanie tylko tych dwóch procesorów, polecam obejrzeć od 06:29

 

 

:)

Niech pokaże frame-time, 4 rdzenie z HT i gołe 6 rdzeni już zaczynają wymiękać. ;)

Edytowane przez Krisol

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Nic nie zaczyna wymiękać.

6c/6t jest spoko

4c/8t jest bardzo dobre

6c/12 jest idealne

 

ALE TO MUSI BYĆ SZYBKIE A NIE STAR ZŁOM RYZEN 1 GEN

Edytowane przez wallec

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jest, te procki nie trzymają już płynności we wszystkich grach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Trzeba patrzeć na konsole bo to pod nie są gry robione. Czyli teraz najlepsze procki do grania to były 8 gołych rdzeni a teraz z wyjściem nowych konsol trzeba kupić 8 rdzeni 16 wątków.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nic się nie zmieni w kwestii wykorzystania rdzeni / wątków przez najbliższe kilka lat.

Konsole mają mieć ich więcej po to by w tle mogło chodzić więcej programów i żebyśmy mogli szybciej między nimi przeskakiwac dokładnie tak jak na pc.

Nie wierzcie w te bzdury bo gdyby tak było to to procki 4c/4t już dawno nie nadawalyby sie absolutnie do niczego a wymiekaja dopiero od niedawna i to w tytulach hiper multiplayer

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

4R/4W już dawno wymiękają w większości gier z otwartym lub po części otwartym światem, czyli tam gdzie procek ma jakiekolwiek znaczenie, np. Wiedźmin 3, Far Cry 4, Rise of the Tomb Raider.

Edytowane przez Krisol

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

4/4 w Assassinach to już totalna padaka, 4/8 musi być mocno wykręcony i z dobrymi RAMami, aby trzymać ~60fps, a i tak nie uniknie się całkowicie spadków na minimalnym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przy kartach pokroju RTX2060/Super/2070/RX5700/XT to serio więcej niż tne R3 3300X nie trzeba.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Do 1080p raczej trzeba.

Edytowane przez Krisol

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niech pokaże frame-time, 4 rdzenie z HT i gołe 6 rdzeni już zaczynają wymiękać. ;)

 

Ty tak na poważnie? Nowszy procesor z 6 rdzeniami i 6 wątkami wygra z każdym który ma 4 rdzenie i 8 wątków, które są popierdółką a nie czymś co może konkurować z prawdziwymi rdzeniami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ty tak na poważnie? Nowszy procesor z 6 rdzeniami i 6 wątkami wygra z każdym który ma 4 rdzenie i 8 wątków, które są popierdółką a nie czymś co może konkurować z prawdziwymi rdzeniami.

A który jest nowy 6/6 ? bo z tego co pamiętam to ostatni był 9400f

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

9600k z wysokim zegarem jeszcze długo będzie dawał radę.

Tak samo jak i3 9350kf 5.1GHz 4/4 jeszcze niejednego by zaskoczył ;)

Edytowane przez Wu70

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Postaram się podrzucić następnym razem, jak będę na miejscu. Jak byłem ostatnio, to tyle pamiętam, że łapało LTE2100 z przekaźnika na odległości niecałych 4 km, a moc sięgała niżej niż -90dBm. Ogólnie tragedia z wczytaniem najprostszej strony internetowej, u 3 operatorów podobnie.   Powiem tak - została ta antena wybrana i zamontowana przez "fachowca" na zlecenie innych domowników. Ja się na tym tak nie znam, ale zanim się dowiedziałem jeszcze co tam w ogóle zostało zamontowane, to czułem już, że to będzie bubel, bo co innego może taki "fachowiec" zamontować. No i widzę, że moje przypuszczenia się potwierdzają. Żadnej poprawy to nie da? Bo trochę teraz ciężko będzie to zdjąć i rozmontować, nie wspominając już o poniesionych kosztach i ewentualnych następnych kosztach zakupu nowej anteny. Czy jesteś w stanie odpowiedzieć na resztę pytań dotyczących routera? Na przykład takie złącza to pewnie i tak zawsze będą te same, więc niezależnie od anteny router chyba można wybrać już teraz (mogę się mylić!). Chciałbym szczerze mieć coś ogarnięte przez majówką, o ile jest to osiągalne.
    • Witam po rocznej przerwie ; -). Odnawiam temat. Jak można łatwo odgadnąć, w poprzednim roku nic nie wyszło z kupna PC. Nic jednak straconego, gdyż jestem aktualnie gotowy do kupna gotowego zestawu lub zbudowania własnego PC. Budżet za samą jednostkę z softwarem (OS + Office) +/- 10000zł. Mogę dołożyć, o ile będzie miało to sens. Na początek, znalazłem taką oto promo w X-KOM: https://www.x-kom.pl/p/1220819-desktop-g4m3r-hero-i7-14700f-32gb-1tb-rtx4070s-w11x.html?sm=lowcygier Czy to dobra oferta? Czy też lepiej zbudować własną maszynę od zera?    
    • Świetne rady, autor tematu gra w 3440x1440, więc jakim cudem warto zmieniać 4070Ti na 4070Ti Super, skoro premiera RTX 5000 jest tak nieodległa ? Zanim braknie mu 12GB VRAM w tej rozdzielczości to będzie premiera RTX 6000. Więc @andriejek69 jak masz zmieniać teraz kartę to albo coś dużo mocniejszego, albo czekaj na nowe RTXy. Chyba, że faktycznie chcesz pograć w Cyberpanka z Path Tracingiem, ale tam nawet 4070Ti Super z 16GB to będzie za mało. Zrobisz ja uważasz, ale osobiście uważam taką zmanię za kompletnie bezsensowną, bo obecna kara Ci wystarczy do tej rozdzielczości, a jak zmieniać to na 4090, żeby faktycznie poczuć różnicę, teraz dostaniesz 10% to wydajności. Jedyna opcja to sprzedaż obecnej karty za dobrą cenę i niewielka dopłata.
    • Trudne się wylosowało... Monitorów z tunerem jest jak na lekartwo a szybszych niz 60hz tym bardziej. Nie ma mowy też o oledzie ani miniledzie z tunerem chyba że chodzi o telewizor to już prędzej coś znajdziesz.  Nie podałeś specyfikacji swojego komputera to też niezbyt można powiedzieć czy poradzi sobie z monitorem 4k np. (Samsung monitor m7 i m8) mają smart tv ale tunera już nie mają... Dodatkowo są na matrycy VA co nie każdemu może przypaść do gustu. Najlepszym rozwiązaniem będzie kupno możliwie najlepszego monitora na miniledzie/oled (jeżeli nadal mówimy o budżecie 4000zł) i jakiegoś smartboxa (googletv) z tunerem i podłączenie go do monitora poprzez HDMI.
    • Witam Proszę o ocenę zestawu do grania w 1440p i ewentualne propozycje zmian, chciałabym żeby wszystko zamknęło się w 7tys. Preferuję połączenie Intel/Nvidia, najlepiej jak najmniej RGB, dyski już posiadam (2 SSD Sata). Procesor i5 14600KF Karta Gigabyte GeForce RTX 4070 Super Windforce OC 12GB Płyta główna MSI B760 Gaming Plus WIFI lub MSI MAG B760 Tomahawk WIFI (wcześniej rozważałam również Gigabyte B760 Gaming X AX) Zasilacz Seasonic Focus GX - 750W Lexar Ares RGB 32GB 6400MHz CL32 Obudowa Genesis Irid 505F Z chłodzeniem mam problem, ponieważ chciałam zakupić Deepcool'a AK620, jednak nie jest dostępny w sklepie komputronika (sklep wybrałam ze względu możliwości odbioru komputera w moim mieście). Niestety ten ma dość ograniczony wybór chłodzeń. Tak samo jak widać mocno zastanawiam się nad płytą główną, jestem otwarta na propozycje.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...