Skocz do zawartości
Assassin

Core i5-5675C - szybki test Broadwella

Rekomendowane odpowiedzi

1. Wstęp

 

Nie będę się rozpisywał. Testy koncentrują się przede wszystkim na wpływie pamięci cache L4 (128MB eDRAM) na wydajność, bo to najciekawsza cecha Broadwella. Jestem otwarty na sugestie co do dodatkowych testów, o ile ich przeprowadzenie nie będzie zbyt czasochłonne (miejsc testowych w grach szukał na pewno nie będę ;)).

 

2. Platforma testowa i ustawienia:

 

Niestety procesor jest bardzo oporny jeśli chodzi o podkręcanie. Da się wycisnąć więcej niż na ustawieniach testowych (co najmniej 4300 MHz), ale wymaga to tak znacznego podnoszenia napięcia, że się wg mnie zupełnie nie opłaca.

 

Core i5-5675C 3,1 GHz @ 4,0 GHz 1,275V (SA, IOA, IOD: offset +0,1V)

NZXT X31 AIO + 2x Corsair SP120 PWM

2x 8GB DDR3-2400 Kingston HyperX Beast @ 2133 MHz CL11-13-13-30-278-2T) 1,6V

Intel HD 6200 (Iris Pro) 1100MHz @ 1250 MHz (offset +0,125V)

MSI Z97S SLI Krait Edition

Super Flower Leadex Gold 750W

 

3. Testy:

 

cache.png

 

L4 cache włączone

 

cache_.png

 

L4 cache wyłączone

 

Co ciekawe, po wyłączeniu pamięci eDRAM w biosie, AIDA64 nadal wykrywa cache L4, ale w rzeczywistości podczas testów wykorzystywany jest RAM systemowy. Niestety demonstracyjna wersja programu nie pozwala na sprawdzenie czasu dostępu cache'u L4, ale wg doniesień internetowych powinno być w granicach 40ns.

 

benchmarki3d.png

 

Szczegółowe wyniki:

 

shogun.png

 

Kolejna ciekawostka: najwyższy wzrost wydajności jest w teście CPU. Potwierdza się, że w grach z serii Total War pojemny cache potrafi zdziałać cuda. W teście CPU obciążenie GPU nie przekraczało 80%, w dwóch pozostałych było praktycznie cały czas 100%.

 

7zip_bench.png

 

7zip.png

 

W teście "real life" kompresowałem paczkę sterowników Nvidii 353.06 (703 różnej wielkości plików) do formatu ZIP z wykorzystaniem algorytmu LZMA.. Ponoć w kompresji cache L4 bardzo się przydaje, więc zapewne w innych scenariuszach użytkowania wzrost byłby jeszcze wyższy.

 

photoworxx.png

 

Serio aż takie różnice wyszły :o

 

Jeszcze z ciekawości zrobiłem test API Overhead w 3DMarku:

 

overhead.png

 

Jak widać Intel jedzie na tym samym wózku co AMD: w DX11 wynik w multi thread jest nawet gorszy od wyniku w single thread, ale za to w DX12 jest bardzo dobrze. Najwyraźniej problemy z narzutem w grach DX11 skutecznie maskowały do tej pory dysproporcje w wydajności między częścią CPU a GPU w Core i5 i i7. Wielkie brawa należą się Intelowi za sterownik DX12.

 

Szczegółowy wynik:

 

Pobór prądu:

 

power.png

 

W odniesieniu do testów GPU trzeba zwrócić uwagę na dość znacznie podniesione napięcie iGPU (+0,125V). Nie bawiłem się w biosie opcjami limitów mocy, test OCCT sugeruje jednak, że domyślnie są one ustawione bardzo "liberalnie" :E No ale przynajmniej nie będzie nigdy throttlingu jak w laptopach.

 

4. Dalsze testy

 

"Core i3" z L4 - test PCLab

 

Cinebench - test CPU i GPU

 

Intel HD 6200 w grach (GTA5, CS:GO, WT)

 

Testy w grach z dodatkową kartą graficzną

Edytowane przez Assassin

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Świetna recenzja :)

Móżna poprosić o dwa dodatkowe testy?

1. Pobór prądu w PRIME95 (stabilnie obciąża sam CPU, IGPU albo dedykowane "śpią sobie w idle 2D").

2. Test w 3DMarku11 (ciekawi mnie składowa "graphics score" bo chyba na tej integrze będzie można naprawdę pograć w starsze albo mniej wymagające gry).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja mam pytanie, czy Broadwell podkręcony do 4.1/4.2 ma przewagę nad Haswellem K podkręconym do 4.3/4.5 (i5)? Z tego co się orientuję nie można ich bezpośrednio porównywać. Zastanawiam się czy jest sens dopłacać 200zł do Broadwella.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@muzi80

W zasadzie masz rację, trudno te procesory bezpośrednio porównywać. Generalnie podkręcony Haswell powinien być szybszy od podkręconego Broadwella, chyba że dana aplikacja wybitnie lubi pojemną pamięć podręczną.

 

@RyszardGTS

Dzięki za sugestie. No to jedziemy:

 

prime%2095.png

 

3DMark11.png

 

Szczegółowe wyniki:

http://www.3dmark.com/3dm11/10124858

 

Sam framerate niestety trochę rozczarowujący, ale patrząc na osiągi sprzętu z tamtego okresu to mamy w zasadzie odpowiednika GTXa 460. Dla porównania absolutny highend z tamtych czasów:

http://www.3dmark.com/3dm11/10032931

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mógłbys sprawdzić Cinebencha (oczywiście tylko test multicore)?

W teście Broadwella na labie piszą że L4 jest dwukrotnie szybszy od RAM na płycie głównej (DDR3). To chyba dlatego nie będzie L4 w Skylake, bo od DDR4 to L4 będzie już niewiele szybszy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Testy w Cinebenchu na ustawieniu 4GHz z L4:

 

vahtkp9m.jpg 1fP1CnNm.jpg

 

Wyniki jak wyniki. Widać, że CB nie korzysta z cache'u L4, a do tego CB15 najwyraźniej bardzo lubi HT. Za to integra zaskakuje, zostawiając w tyle wszystkie modele Quadro z konfiguracji referencyjnych Maxona :D

 

Co do Skylake to jednak się nie zgodzę. Pod względem przepustowości DDR4 może rzeczywiście się zrównać z eDRAM o ile usprawnią trochę kontroler pamięci, ale jest jeszcze czas dostępu. Dobre DDR3 osiągają 50-55ns... dobre DDR2 w zasadzie podobnie. Nie sądzę więc, żeby DDR4 dało jakiś zauważalny postęp w tym zakresie. Przykładowo cache L3 procesorów AMD (Phenom i FX) ma gorszą przepustowość od RAM-u, ale dzięki niskiemu czasowi dostępu coś tam czasem daje. No chyba, że Intel w Skylake'u zdziała jakieś cuda jeśli chodzi o poprawę pracy kontrolera pamięci, ale wtedy zapowiedzi wydania wariantu Skylake z GT4e byłyby nielogiczne (chyba, że eDRAM też by znacznie przyspieszyli).

 

Decyzję, żeby wydać desktopowego Skylake'a bez L4 w pełni rozumiem. To od początku była "cecha specjalna" wybranych procesorów a nie standard. Powiedziałbym, że eDRAM to bardzo nieefektywny sposób zwiększania wydajności procesora (biorąc pod uwagę koszty produkcji), ale jednak działa ;)

Edytowane przez Assassin

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na integrach intela +0.3v nie stanowi problemu, niektórzy dają 0.4v i brak jakichkolwiek problemów. Bez mocniejszego dowoltowania nie ma co liczyć na wysokie oc integy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Takie napięcie wydaje się strasznie wysokie dla układu 14nm, ale ok., powalczę z nią jeszcze. W każdym razie na 0,2V i 1350 MHz sterownik się wywalał.

 

@tomcug

W sumie jakby nawet padł to w ramach wymiany gwarancyjnej mogę trafić tylko lepiej jeśli chodzi o oc ;)

Edytowane przez Assassin

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki wielkie za test mistrzu, potwierdziłeś moje szalone teorie.

 

Pozdrawiam cię i mam nadzieję, że Skylake jednak czymś nas zaskoczy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Korzystając z okazji chciałem dorzucić wyniki testów przeprowadzone przez nas jakiś czas temu symulujące jakby się zachował Core i3 z Iris Pro 6200, gdyby taki powstał. Oczywiście musicie pamiętać, że nie ruszyliśmy taktowania GPU, a to zwykle jest inne w przypadku i3 względem i7. Daje to jednak pewne pojęcie na temat wpływu wydajności CPU na wyniki Iris Pro 6200

 

gta5_fhd.png

gta5_hd.png

w3_fhd.png

w3_hd.png

b4.png

csgo.png

civ5.png

fifa15.png

sc2.png

wot.png

 

I jeszcze pobór energii:

energia_spoczynek.png

energia_civ5.png

energia_fifa15.png

 

No i: bardzo fajny test Assassin! :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki wielkie za test mistrzu, potwierdziłeś moje szalone teorie.

 

Pozdrawiam cię i mam nadzieję, że Skylake jednak czymś nas zaskoczy.

Zaskoczy od strony cpu tylko negatywnie, bo jak ktoś czekał na +5% do hasłela to będzie zadowolony, jedyny ratunek to konieczne WINCYJ RDZENIUFF.

Brodłel po cichutku, bo jest to L4, w mapach jest wyżej od skajlejka, nie przez integrę tylko L4.

Edytowane przez motiff

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Takie napięcie wydaje się strasznie wysokie dla układu 14nm, ale ok., powalczę z nią jeszcze. W każdym razie na 0,2V i 1350 MHz sterownik się wywalał.

Te integry w broadwellu mogą być padaczne, więc i tak napięcie właściwie nic nie da. Na haswellu i ivy da się bujać na 1700mhz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moja idzie spokojnie 1900 mhz. Wyżej też się da ale wydajność JUŻ przy +0.4v spada. Pewnie się coś przegrzewa choć temperatura cpu jest ok, ewentualnie limity prądowe się kończą a na z87 nikt nie przewidział ich zmiany dla igpu. W grid 720p spokojnie działa w ponad 60 fps.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może jakieś porównanie HD 6200 vs 580? :) FHD w wieśku albo GTA V.

Nawet miałem taki pomysł na test. Mój GTX580 to 3-slotowe monstrum, więc samo zestawienie zdjęć przeciwników dawałoby do myślenia :) Patrząc jednak na wyniki 3DMarków to raczej nie ma sensu, przewaga GTX-a jest za duża. Tutaj jeszcze wyniki FireStrike'a:

http://www.3dmark.com/fs/5560501 - HD6200

http://www.3dmark.com/fs/5345683 - GTX580

 

A ten i3 z testów focusa to byłby naprawdę bardzo fajny procesor (APU) w cenie powiedzmy do 600 zł. Pewnie go jednak w desktopach nigdy nie zobaczymy, może dopiero w czasie refreshy Skylake'a powstanie coś podobnego?..

 

Znalazłem jednak nieciekawą przypadłość tej integry. Raportuje ona domyślnie 128 MB pamięci dedykowanej. Niektóre gry, np. Shogun 2, War Thunder i World of Tanks, uzależniają od ilości pamięci dedykowanej jakie opcje graficzne graficzne można włączyć. Wpis w rejestrze "DedicatedSegmentSize" pozwala zmienić ilość raportowanej pamięci w zakresie 0-512MB, co rozwiązuje problemy w WoT. W Shogunie 2 można to naprawić w pliku z zaawansowanymi ustawieniami gry. W przypadku War Thunder nie znalazłem sposobu, żeby ustawić tekstury powyżej poziomu "medium", choć ogólnie gra sprawnie działa na ustawieniach wysokich.

W zasadzie nie jest to wina Intela, a developerów. Karta zupełnie prawidłowo raportuje ilość pamięci dedykowanej na 128MB i ilość pamięci współdzielonej (alokowalnej przez grafikę) na ponad 8GB. Z uwagi na niechlujstwo programistów, którzy starają się być mądrzejsi od użytkownika, mamy jednak to co mamy i mimo wszystko łatwiej to poprawić od strony sterownika (oszukując aplikacje, że układ ma np. 2GB pamięci dedykowanej).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Assassin można prosić printscrena z ustawień CPU użył bym ich u siebie ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Walczyłem z integrą, ale poległem. Nawet ustawienie +0.350V nie pozwoliło na ustabilizowanie częstotliwości 1350 MHz... Za to przy 1400 MHz przywitała mnie w Windows szachownica. Najwidoczniej układ zintegrowany w Broadwellu podkręca się znacznie gorzej od swoich mniejszych braci, choć oczywiście ostatecznie wnioski wymagałyby większej próby procesorów do testów.

 

@Asteroid

Proszę:

https://dl.dropboxusercontent.com/u/82093639/Broadwell/MSI_SnapShot.png

https://dl.dropboxusercontent.com/u/82093639/Broadwell/MSI_SnapShot_00.png

https://dl.dropboxusercontent.com/u/82093639/Broadwell/MSI_SnapShot_01.png

https://dl.dropboxusercontent.com/u/82093639/Broadwell/MSI_SnapShot_02.png

Przy czym bios źle pokazuje Ring Ratio, w rzeczywistości jest 3200 MHz.

Edytowane przez Assassin

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość SunTzu

Bombowo!

 

Czy mógłbyś zrobić testy z dGPU L4/no L4...

 

Co do Integry w cinebenchu. Najnwosze Viewporty poszły mocno w kierunku wydajności na desktopowych kartach, dzieje się tak ponieważ większość klientów np. Maxona siedzi bodaj na Radeonach... Nie Fire/Quadro....

 

Skutkiem tego jest dziwo to, że w wielu scenariuszach masz najwięcej FPSów nie na Quadro czy GFach, a właśnie na integrze Intela relatywnie do mocy jaką uzyskuje się w grach vs quadro/fire pro.

 

Z drugiej strony siedzę na Maya sprzed bodaj 4 lat i mam najwięcej FPSów z moich kart właśnie na Quadro w starych viewportach, podobnie mam z 3dsem jeszcze starszym. Za to wgrywając najnowszego 3ds-a, najnowszą Mayę, używając najnowszych viewportów z moich aktualnych kart najwięcej FPSów mam na nie na Quadro, a na GFie vs Intelu (w zależności od scenariusza), co nie zmienia tego, że i tak mniej niż na starym viewporcie i quadro :)

 

Bardzo dużo zależy od samego scenariusza- ilość obiektów, ile obiekt ma poly i jakie ma mieć wyświetlanie tekstur/światło/cienie. Sytuacja jest dziś tak dynamiczna, że praktycznie nie mam możliwości czasowych jak i sprzętowych, by mieć aktualne dane. Test zrobiony na softcie i sprzęcie z 2015 może być kompletnie nieaktualny w 2016.

 

No ale to już off :)

Edytowane przez SunTzu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki za poświęcony czas na testy ;)

 

+1 za testami dGPU i porównaniem wpływu L4 :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki Assassin przełożę te ustawienia mam nadzieje na swoją płytę. Musi być jakiś powód tego że intel ukrywał testy Brodwella mam nadzieje że przekonamy się 5 tego co i jak.

 

PS

 

Assassin chylę czoła że wykonujesz testy i piszesz konkrety też kiedyś to robiłem pod innym nikiem ale "lenistwo" i ataki forumowiczów przekonały mnie aby tego nie robić.

Edytowane przez Asteroid

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co do testów w grach na dGPU to jak mówiłem nie mam tyle czasu, żeby szukać miejsc testowych, a poza tym obecnie z lepszych grafik mam tylko GTX580 (poza nim tylko GT610, X1900XTX i FX5 800 Ultra, więc te na pewno odpadają ;)).

 

No ale myślę, ze mógłbym przetestować 3-4 gry gdybyście wysłali mi odpowiednie save'y albo we wbudowanych benchmarkach. Wolelibyście full detale w 720p czy średnie w 1080p? (GTX580 ma już swoje lata...) Z gier wchodziłyby w grę takie tytuły jak: GTA 5, pCARS, Crysis 3, FC4, BF4, ARK Survival Evolved, CS:GO, WoT, WoW, War Thunder, Shogun 2, Rome II. Ewentualnie mógłbym jeszcze załatwić AC: Unity, Watch Dogs i Ryse.

 

@Asteroid

Możliwe, że nawet Ciebie kojarzę :) Jak kręci się Twój Broadwell (CPU i GPU)?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Miał ktoś porównanie tego procka taktowanego 4.3ghz do np 4690K z taktowaniem ok 4.5-4.8 ghz?

 

Zastanawia mnie który będzie szybszy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co do testów w grach na dGPU to jak mówiłem nie mam tyle czasu, żeby szukać miejsc testowych, a poza tym obecnie z lepszych grafik mam tylko GTX580 (poza nim tylko GT610, X1900XTX i FX5 800 Ultra, więc te na pewno odpadają ;)).

 

No ale myślę, ze mógłbym przetestować 3-4 gry gdybyście wysłali mi odpowiednie save'y albo we wbudowanych benchmarkach. Wolelibyście full detale w 720p czy średnie w 1080p? (GTX580 ma już swoje lata...) Z gier wchodziłyby w grę takie tytuły jak: GTA 5, pCARS, Crysis 3, FC4, BF4, ARK Survival Evolved, CS:GO, WoT, WoW, War Thunder, Shogun 2, Rome II. Ewentualnie mógłbym jeszcze załatwić AC: Unity, Watch Dogs i Ryse.

 

@Asteroid

Możliwe, że nawet Ciebie kojarzę :) Jak kręci się Twój Broadwell (CPU i GPU)?

 

Chodzi o porównanie integry z l4 włączonym i integry z l4 wyłączonym. Parę osób o to pytało. Dedicated GPU się nie przejmuj.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Muszę Was poprosić o pomoc :) Gram na oledowym monitorze Asusa, 1440p. Jaką powinienem ustawić rozdzielczość w ustawieniach konsoli? Na Auto monitor jakimś cudem przyjmuje obraz 4K, ale wtedy moim zdaniem parametry obrazu są nie takie, jak być powinny. Po manualnym ustawieniu 1440p chyba jest OK. Poniżej dwa zrzuty ekranu, jak to wygląda w menu monitora.  
    • W G7 odpalałeś VRS czy jakos tak w ustawieniach monitora, wtedy problem znikał.
    • @MarcoSimone @calvex Są jeszcze ustawienia które dają niższą latencje. Można zyskać ze 4ns w dół 1Jeżeli macie stabilne pamięci to GDM ustawiacie na off ) jeżeli nie działa 0.01v wyższe VDD może pomóc.  2 Druga opcja to ustawienia nitro. Dla 6000 i 6200  rx data- 1, tx data- 2 , control line- 0. Dla 6400 -1-3-1 no chyba ze ktoś ma super sztuki to może też 1,2,0.  3  wyłączenie memory context restore i power down spadnie latencja ale w zamian długi start kompa Bo ja wiem , te timingi to tylko taki plan minimum.  Ostatnio ktoś na reddicie dokładnie przetestował , Piękny test czarno na białym w jednym obrazku.   BTW patrząc na to przypomniał mi się Sebastianek z purePC i jego sugestie że okolice 7000 1;2 to obecnie optimum dla am5 . To ziemia niczyja,  chyba dla zarżnięcia 5% wydajności platformy w porównaniu do dociśniętego 6200 1;1 lub 7800+1;2 )  
    • Jak to, co daje, Vsync działa tylko przy ilości klatek równej odświeżaniu monitora, jeśli ta ilość jest mniejsza a Vsync nadal działa to zwiększa ci się znacznie inputlag, Gsync to po prostu VRR, czyli synchro które dostosowuje się do zmiennego fps. Dlaczego wam Oledy migają, bo macie po prostu zbyt mało FPS w danym momencie i odświeżanie ekranu tak nisko spada, że zaczyna być to uciążliwe. Nigdy nie kumałem tej ślepej pogoni z VRR jak znacznie lepszy efekt można uzyskać robiąc sztywno locka na 120fps albo więcej lub ostatecznie na 60 fps. Już lepiej wyłączyć całkowicie synca i lecieć na teringu, input lag praktycznie zerowy a jeśli klatek będzie wystarczająco dużo i tak nie zobaczycie rozrywania ekranu.
    • Dlatego ja jestem zdania że jeśli masz potrzebę to i tak warto kupić teraz. Taniej nie będzie, na pewno nie przez X lat. Dlatego też nie pozbywam się mieszkania mimo, że przenosimy się do nowego domu z końcem roku (mam nadzieję). Co prawda gdybym sprzedał mieszkanie do na dom brałbym jakieś 200-300k kredytu tylko, ale za te 15-17 lat jedną z córek będzie miała na start pewne mieszkanie z garażem w naprawdę dobrej lokalizacji.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...