Skocz do zawartości
Assassin

Core i5-5675C - szybki test Broadwella

Rekomendowane odpowiedzi

1. Wstęp

 

Nie będę się rozpisywał. Testy koncentrują się przede wszystkim na wpływie pamięci cache L4 (128MB eDRAM) na wydajność, bo to najciekawsza cecha Broadwella. Jestem otwarty na sugestie co do dodatkowych testów, o ile ich przeprowadzenie nie będzie zbyt czasochłonne (miejsc testowych w grach szukał na pewno nie będę ;)).

 

2. Platforma testowa i ustawienia:

 

Niestety procesor jest bardzo oporny jeśli chodzi o podkręcanie. Da się wycisnąć więcej niż na ustawieniach testowych (co najmniej 4300 MHz), ale wymaga to tak znacznego podnoszenia napięcia, że się wg mnie zupełnie nie opłaca.

 

Core i5-5675C 3,1 GHz @ 4,0 GHz 1,275V (SA, IOA, IOD: offset +0,1V)

NZXT X31 AIO + 2x Corsair SP120 PWM

2x 8GB DDR3-2400 Kingston HyperX Beast @ 2133 MHz CL11-13-13-30-278-2T) 1,6V

Intel HD 6200 (Iris Pro) 1100MHz @ 1250 MHz (offset +0,125V)

MSI Z97S SLI Krait Edition

Super Flower Leadex Gold 750W

 

3. Testy:

 

cache.png

 

L4 cache włączone

 

cache_.png

 

L4 cache wyłączone

 

Co ciekawe, po wyłączeniu pamięci eDRAM w biosie, AIDA64 nadal wykrywa cache L4, ale w rzeczywistości podczas testów wykorzystywany jest RAM systemowy. Niestety demonstracyjna wersja programu nie pozwala na sprawdzenie czasu dostępu cache'u L4, ale wg doniesień internetowych powinno być w granicach 40ns.

 

benchmarki3d.png

 

Szczegółowe wyniki:

 

shogun.png

 

Kolejna ciekawostka: najwyższy wzrost wydajności jest w teście CPU. Potwierdza się, że w grach z serii Total War pojemny cache potrafi zdziałać cuda. W teście CPU obciążenie GPU nie przekraczało 80%, w dwóch pozostałych było praktycznie cały czas 100%.

 

7zip_bench.png

 

7zip.png

 

W teście "real life" kompresowałem paczkę sterowników Nvidii 353.06 (703 różnej wielkości plików) do formatu ZIP z wykorzystaniem algorytmu LZMA.. Ponoć w kompresji cache L4 bardzo się przydaje, więc zapewne w innych scenariuszach użytkowania wzrost byłby jeszcze wyższy.

 

photoworxx.png

 

Serio aż takie różnice wyszły :o

 

Jeszcze z ciekawości zrobiłem test API Overhead w 3DMarku:

 

overhead.png

 

Jak widać Intel jedzie na tym samym wózku co AMD: w DX11 wynik w multi thread jest nawet gorszy od wyniku w single thread, ale za to w DX12 jest bardzo dobrze. Najwyraźniej problemy z narzutem w grach DX11 skutecznie maskowały do tej pory dysproporcje w wydajności między częścią CPU a GPU w Core i5 i i7. Wielkie brawa należą się Intelowi za sterownik DX12.

 

Szczegółowy wynik:

 

Pobór prądu:

 

power.png

 

W odniesieniu do testów GPU trzeba zwrócić uwagę na dość znacznie podniesione napięcie iGPU (+0,125V). Nie bawiłem się w biosie opcjami limitów mocy, test OCCT sugeruje jednak, że domyślnie są one ustawione bardzo "liberalnie" :E No ale przynajmniej nie będzie nigdy throttlingu jak w laptopach.

 

4. Dalsze testy

 

"Core i3" z L4 - test PCLab

 

Cinebench - test CPU i GPU

 

Intel HD 6200 w grach (GTA5, CS:GO, WT)

 

Testy w grach z dodatkową kartą graficzną

Edytowane przez Assassin

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Świetna recenzja :)

Móżna poprosić o dwa dodatkowe testy?

1. Pobór prądu w PRIME95 (stabilnie obciąża sam CPU, IGPU albo dedykowane "śpią sobie w idle 2D").

2. Test w 3DMarku11 (ciekawi mnie składowa "graphics score" bo chyba na tej integrze będzie można naprawdę pograć w starsze albo mniej wymagające gry).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja mam pytanie, czy Broadwell podkręcony do 4.1/4.2 ma przewagę nad Haswellem K podkręconym do 4.3/4.5 (i5)? Z tego co się orientuję nie można ich bezpośrednio porównywać. Zastanawiam się czy jest sens dopłacać 200zł do Broadwella.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@muzi80

W zasadzie masz rację, trudno te procesory bezpośrednio porównywać. Generalnie podkręcony Haswell powinien być szybszy od podkręconego Broadwella, chyba że dana aplikacja wybitnie lubi pojemną pamięć podręczną.

 

@RyszardGTS

Dzięki za sugestie. No to jedziemy:

 

prime%2095.png

 

3DMark11.png

 

Szczegółowe wyniki:

http://www.3dmark.com/3dm11/10124858

 

Sam framerate niestety trochę rozczarowujący, ale patrząc na osiągi sprzętu z tamtego okresu to mamy w zasadzie odpowiednika GTXa 460. Dla porównania absolutny highend z tamtych czasów:

http://www.3dmark.com/3dm11/10032931

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mógłbys sprawdzić Cinebencha (oczywiście tylko test multicore)?

W teście Broadwella na labie piszą że L4 jest dwukrotnie szybszy od RAM na płycie głównej (DDR3). To chyba dlatego nie będzie L4 w Skylake, bo od DDR4 to L4 będzie już niewiele szybszy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Testy w Cinebenchu na ustawieniu 4GHz z L4:

 

vahtkp9m.jpg 1fP1CnNm.jpg

 

Wyniki jak wyniki. Widać, że CB nie korzysta z cache'u L4, a do tego CB15 najwyraźniej bardzo lubi HT. Za to integra zaskakuje, zostawiając w tyle wszystkie modele Quadro z konfiguracji referencyjnych Maxona :D

 

Co do Skylake to jednak się nie zgodzę. Pod względem przepustowości DDR4 może rzeczywiście się zrównać z eDRAM o ile usprawnią trochę kontroler pamięci, ale jest jeszcze czas dostępu. Dobre DDR3 osiągają 50-55ns... dobre DDR2 w zasadzie podobnie. Nie sądzę więc, żeby DDR4 dało jakiś zauważalny postęp w tym zakresie. Przykładowo cache L3 procesorów AMD (Phenom i FX) ma gorszą przepustowość od RAM-u, ale dzięki niskiemu czasowi dostępu coś tam czasem daje. No chyba, że Intel w Skylake'u zdziała jakieś cuda jeśli chodzi o poprawę pracy kontrolera pamięci, ale wtedy zapowiedzi wydania wariantu Skylake z GT4e byłyby nielogiczne (chyba, że eDRAM też by znacznie przyspieszyli).

 

Decyzję, żeby wydać desktopowego Skylake'a bez L4 w pełni rozumiem. To od początku była "cecha specjalna" wybranych procesorów a nie standard. Powiedziałbym, że eDRAM to bardzo nieefektywny sposób zwiększania wydajności procesora (biorąc pod uwagę koszty produkcji), ale jednak działa ;)

Edytowane przez Assassin

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na integrach intela +0.3v nie stanowi problemu, niektórzy dają 0.4v i brak jakichkolwiek problemów. Bez mocniejszego dowoltowania nie ma co liczyć na wysokie oc integy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Takie napięcie wydaje się strasznie wysokie dla układu 14nm, ale ok., powalczę z nią jeszcze. W każdym razie na 0,2V i 1350 MHz sterownik się wywalał.

 

@tomcug

W sumie jakby nawet padł to w ramach wymiany gwarancyjnej mogę trafić tylko lepiej jeśli chodzi o oc ;)

Edytowane przez Assassin

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki wielkie za test mistrzu, potwierdziłeś moje szalone teorie.

 

Pozdrawiam cię i mam nadzieję, że Skylake jednak czymś nas zaskoczy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Korzystając z okazji chciałem dorzucić wyniki testów przeprowadzone przez nas jakiś czas temu symulujące jakby się zachował Core i3 z Iris Pro 6200, gdyby taki powstał. Oczywiście musicie pamiętać, że nie ruszyliśmy taktowania GPU, a to zwykle jest inne w przypadku i3 względem i7. Daje to jednak pewne pojęcie na temat wpływu wydajności CPU na wyniki Iris Pro 6200

 

gta5_fhd.png

gta5_hd.png

w3_fhd.png

w3_hd.png

b4.png

csgo.png

civ5.png

fifa15.png

sc2.png

wot.png

 

I jeszcze pobór energii:

energia_spoczynek.png

energia_civ5.png

energia_fifa15.png

 

No i: bardzo fajny test Assassin! :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki wielkie za test mistrzu, potwierdziłeś moje szalone teorie.

 

Pozdrawiam cię i mam nadzieję, że Skylake jednak czymś nas zaskoczy.

Zaskoczy od strony cpu tylko negatywnie, bo jak ktoś czekał na +5% do hasłela to będzie zadowolony, jedyny ratunek to konieczne WINCYJ RDZENIUFF.

Brodłel po cichutku, bo jest to L4, w mapach jest wyżej od skajlejka, nie przez integrę tylko L4.

Edytowane przez motiff

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Takie napięcie wydaje się strasznie wysokie dla układu 14nm, ale ok., powalczę z nią jeszcze. W każdym razie na 0,2V i 1350 MHz sterownik się wywalał.

Te integry w broadwellu mogą być padaczne, więc i tak napięcie właściwie nic nie da. Na haswellu i ivy da się bujać na 1700mhz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moja idzie spokojnie 1900 mhz. Wyżej też się da ale wydajność JUŻ przy +0.4v spada. Pewnie się coś przegrzewa choć temperatura cpu jest ok, ewentualnie limity prądowe się kończą a na z87 nikt nie przewidział ich zmiany dla igpu. W grid 720p spokojnie działa w ponad 60 fps.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może jakieś porównanie HD 6200 vs 580? :) FHD w wieśku albo GTA V.

Nawet miałem taki pomysł na test. Mój GTX580 to 3-slotowe monstrum, więc samo zestawienie zdjęć przeciwników dawałoby do myślenia :) Patrząc jednak na wyniki 3DMarków to raczej nie ma sensu, przewaga GTX-a jest za duża. Tutaj jeszcze wyniki FireStrike'a:

http://www.3dmark.com/fs/5560501 - HD6200

http://www.3dmark.com/fs/5345683 - GTX580

 

A ten i3 z testów focusa to byłby naprawdę bardzo fajny procesor (APU) w cenie powiedzmy do 600 zł. Pewnie go jednak w desktopach nigdy nie zobaczymy, może dopiero w czasie refreshy Skylake'a powstanie coś podobnego?..

 

Znalazłem jednak nieciekawą przypadłość tej integry. Raportuje ona domyślnie 128 MB pamięci dedykowanej. Niektóre gry, np. Shogun 2, War Thunder i World of Tanks, uzależniają od ilości pamięci dedykowanej jakie opcje graficzne graficzne można włączyć. Wpis w rejestrze "DedicatedSegmentSize" pozwala zmienić ilość raportowanej pamięci w zakresie 0-512MB, co rozwiązuje problemy w WoT. W Shogunie 2 można to naprawić w pliku z zaawansowanymi ustawieniami gry. W przypadku War Thunder nie znalazłem sposobu, żeby ustawić tekstury powyżej poziomu "medium", choć ogólnie gra sprawnie działa na ustawieniach wysokich.

W zasadzie nie jest to wina Intela, a developerów. Karta zupełnie prawidłowo raportuje ilość pamięci dedykowanej na 128MB i ilość pamięci współdzielonej (alokowalnej przez grafikę) na ponad 8GB. Z uwagi na niechlujstwo programistów, którzy starają się być mądrzejsi od użytkownika, mamy jednak to co mamy i mimo wszystko łatwiej to poprawić od strony sterownika (oszukując aplikacje, że układ ma np. 2GB pamięci dedykowanej).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Assassin można prosić printscrena z ustawień CPU użył bym ich u siebie ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Walczyłem z integrą, ale poległem. Nawet ustawienie +0.350V nie pozwoliło na ustabilizowanie częstotliwości 1350 MHz... Za to przy 1400 MHz przywitała mnie w Windows szachownica. Najwidoczniej układ zintegrowany w Broadwellu podkręca się znacznie gorzej od swoich mniejszych braci, choć oczywiście ostatecznie wnioski wymagałyby większej próby procesorów do testów.

 

@Asteroid

Proszę:

https://dl.dropboxusercontent.com/u/82093639/Broadwell/MSI_SnapShot.png

https://dl.dropboxusercontent.com/u/82093639/Broadwell/MSI_SnapShot_00.png

https://dl.dropboxusercontent.com/u/82093639/Broadwell/MSI_SnapShot_01.png

https://dl.dropboxusercontent.com/u/82093639/Broadwell/MSI_SnapShot_02.png

Przy czym bios źle pokazuje Ring Ratio, w rzeczywistości jest 3200 MHz.

Edytowane przez Assassin

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość SunTzu

Bombowo!

 

Czy mógłbyś zrobić testy z dGPU L4/no L4...

 

Co do Integry w cinebenchu. Najnwosze Viewporty poszły mocno w kierunku wydajności na desktopowych kartach, dzieje się tak ponieważ większość klientów np. Maxona siedzi bodaj na Radeonach... Nie Fire/Quadro....

 

Skutkiem tego jest dziwo to, że w wielu scenariuszach masz najwięcej FPSów nie na Quadro czy GFach, a właśnie na integrze Intela relatywnie do mocy jaką uzyskuje się w grach vs quadro/fire pro.

 

Z drugiej strony siedzę na Maya sprzed bodaj 4 lat i mam najwięcej FPSów z moich kart właśnie na Quadro w starych viewportach, podobnie mam z 3dsem jeszcze starszym. Za to wgrywając najnowszego 3ds-a, najnowszą Mayę, używając najnowszych viewportów z moich aktualnych kart najwięcej FPSów mam na nie na Quadro, a na GFie vs Intelu (w zależności od scenariusza), co nie zmienia tego, że i tak mniej niż na starym viewporcie i quadro :)

 

Bardzo dużo zależy od samego scenariusza- ilość obiektów, ile obiekt ma poly i jakie ma mieć wyświetlanie tekstur/światło/cienie. Sytuacja jest dziś tak dynamiczna, że praktycznie nie mam możliwości czasowych jak i sprzętowych, by mieć aktualne dane. Test zrobiony na softcie i sprzęcie z 2015 może być kompletnie nieaktualny w 2016.

 

No ale to już off :)

Edytowane przez SunTzu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki za poświęcony czas na testy ;)

 

+1 za testami dGPU i porównaniem wpływu L4 :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki Assassin przełożę te ustawienia mam nadzieje na swoją płytę. Musi być jakiś powód tego że intel ukrywał testy Brodwella mam nadzieje że przekonamy się 5 tego co i jak.

 

PS

 

Assassin chylę czoła że wykonujesz testy i piszesz konkrety też kiedyś to robiłem pod innym nikiem ale "lenistwo" i ataki forumowiczów przekonały mnie aby tego nie robić.

Edytowane przez Asteroid

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co do testów w grach na dGPU to jak mówiłem nie mam tyle czasu, żeby szukać miejsc testowych, a poza tym obecnie z lepszych grafik mam tylko GTX580 (poza nim tylko GT610, X1900XTX i FX5 800 Ultra, więc te na pewno odpadają ;)).

 

No ale myślę, ze mógłbym przetestować 3-4 gry gdybyście wysłali mi odpowiednie save'y albo we wbudowanych benchmarkach. Wolelibyście full detale w 720p czy średnie w 1080p? (GTX580 ma już swoje lata...) Z gier wchodziłyby w grę takie tytuły jak: GTA 5, pCARS, Crysis 3, FC4, BF4, ARK Survival Evolved, CS:GO, WoT, WoW, War Thunder, Shogun 2, Rome II. Ewentualnie mógłbym jeszcze załatwić AC: Unity, Watch Dogs i Ryse.

 

@Asteroid

Możliwe, że nawet Ciebie kojarzę :) Jak kręci się Twój Broadwell (CPU i GPU)?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Miał ktoś porównanie tego procka taktowanego 4.3ghz do np 4690K z taktowaniem ok 4.5-4.8 ghz?

 

Zastanawia mnie który będzie szybszy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co do testów w grach na dGPU to jak mówiłem nie mam tyle czasu, żeby szukać miejsc testowych, a poza tym obecnie z lepszych grafik mam tylko GTX580 (poza nim tylko GT610, X1900XTX i FX5 800 Ultra, więc te na pewno odpadają ;)).

 

No ale myślę, ze mógłbym przetestować 3-4 gry gdybyście wysłali mi odpowiednie save'y albo we wbudowanych benchmarkach. Wolelibyście full detale w 720p czy średnie w 1080p? (GTX580 ma już swoje lata...) Z gier wchodziłyby w grę takie tytuły jak: GTA 5, pCARS, Crysis 3, FC4, BF4, ARK Survival Evolved, CS:GO, WoT, WoW, War Thunder, Shogun 2, Rome II. Ewentualnie mógłbym jeszcze załatwić AC: Unity, Watch Dogs i Ryse.

 

@Asteroid

Możliwe, że nawet Ciebie kojarzę :) Jak kręci się Twój Broadwell (CPU i GPU)?

 

Chodzi o porównanie integry z l4 włączonym i integry z l4 wyłączonym. Parę osób o to pytało. Dedicated GPU się nie przejmuj.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Hyperthreading jest ogromną luką w zabezpieczeniach procesora, którą można załatać tylko... wyłączając HT. I dotyczy to zarówno procesorów Intela jak i AMD. https://www.techtarget.com/searchsecurity/news/252452053/PortSmash-side-channel-attack-targets-Intel-Hyper-Threading https://www.tomshardware.com/news/new-vulnerability-affects-all-amd-zen-cpus Ponadto zyski z HT są niewielkie, co prawda ma się dwa razy tyle wątków ale działają one znacznie wolniej niż na procesorze wyposażonym w dwa razy tyle identycznych rdzeni bez włączonego HT.
    • W takim razie napisz program, który dodaje dwie liczby w taki sposób, by efektywnie wykorzystać moc obliczeniową ... no bez szaleństw, czyli powiedzmy 8 wątków   ... a jak nie potrafisz, to zajmij się sprzedażą buraków.
    • Mam w czeluściach X2 5600, 6000 oraz 3600+,Twoja fajna maszynka, ale nie mam czasu tego testować i badać, jednak ciepłe miesiące to nie dla mnie czas na takie rzeczy.
    • Jest rok 2008. Po napisanej maturze postanowiłem sobie w lipcu odświeżyć platformę. Wcześniej nadal siedziałem na Athlon'ie 64 3200+ Venice s.754, 1GB DDR1 oraz GF 7300GT DDR3. Nadal również korzystałem z monitora CRT oraz mój komputer po części nadal służył jako rodzinny sprzęt (było to chwilę przed zakupem tego pierwszego Acer'a Aspire z poprzednich wpisów). Z moich ówczesnych kieszonkowych było mnie, po raz pierwszy, stać na większość nowych podzespołów i jedynie płytę główną kupiłem używaną. Nowa platforma składała się z odblokowanego Athlon'a 64 X2 5000+ tzw. Black Edition, 2x1GB A-Data Vitesta Extreme Edition 800MHz CL4 oraz ASUS'a M2N-E. Kupiłem wtedy również nowe chłodzenie procesora, ponieważ do wersji Black Edition nie dodawano box'a. Był to Arctic Freezer 64 Pro. Poniżej załączam autentyczne zdjęcia z tamtego okresu: W takim właśnie kartoniku przyszła do mnie ta płyta główna. Był to OEM bez tylnej blaszki. Wszystko zbiegło się również z moim pierwszym doświadczeniem nowego, na ówczesne czasy, systemu operacyjnego Windows Vista: Który tak mnie zachwycił swoim wyglądem, że właśnie musiałem zrobić sobie na pamiątkę te powyższe zdjęcie Jako ciekawostkę dopowiem, że te zdjęcia były wykonane telefonem, a dokładniej był to kultowy już Sony Ericsson K750i. Hehe, po ikonkach doskonale widać, co już wtedy było dla mnie najważniejsze Od razu również przyszedł czas na pierwsze testy: Tak jak wspominałem już we wcześniejszym wpisie, dopiero z początkiem 2008 roku miałem taką wydajność w 3DMark'u 03. Poza tym operowałem głównie na rozdzielczości 1024x768 @ 85Hz. ... Jednakże już pod koniec lipca 2008 roku udało mi się znaleźć pracę dorywczą, dzięki której udało mi się nabyć moją pierwszą, porządną oraz nową kartę graficzną, którą do teraz posiadam w swojej kolekcji, a była to karta GeForce 8800 GTS 512MB Od razu, po pierwszym uruchomieniu, przyszedł czas na 3DMark'a 03 oraz Crysis'a na DX10: Oba powyższe wyniki leciały na podkręconym procesorze, ale na Stock kartach. Chwilę później od razu sprawdziłem max tej karty: Sztuka ta cechowała się ponadprzeciętnymi możliwościami OC pamięci na karcie i poniekąd dlatego jakoś nie miałem ochoty się jej pozbywać Tak czy siak, wszystko wtedy było podkręcone pod korek. Płyta główna miała blokadę napięcia na ram do 1.95V oraz ubogie dzielniki, dlatego całość jest ustawiona tak śmiesznie, a odblokowany mnożnik w Black Edition się na nic nie zdał ... Pamiętam jeszcze, że chwilę później, za zdaną maturę otrzymałem od rodziców prezent w postaci licencji na Vistę Home Premium  Dlatego też na powyższych screen'ach widnieje ta "najlepsza wersja tymczasowa", oczywiście lecąca na 30-dniowym okresie próbnym, aby właśnie później przeinstalować system do docelowej edycji. Poza tym, jak obecnie na to patrzę, to widzę jaki dokładnie błąd popełniłem. Mianowicie, uparłem się na używanie 64 bitowego systemu, posiadając jedynie 2GB ram'u. Obecnie wiem, że akurat wersja 64 bitowa Visty jest wyraźnie wolniejsza względem wersji 32 bitowej, która po dobrej konfiguracji śmiga naprawdę dobrze na takich sprzętach. ... Mając w pamięci tę historię, postanowiłem z ciekawości wrzucić tego GTS'a 512 do tej "Platformy roku 2006" na testy, aby sprawdzić ile dokładnie ten Athlon 64 X2 był wolniejszy od C2D. Szczególnie, że oba procesory miały bardzo podobne taktowania oraz pamięci ram. Oto co mi wyszło i na początek grafa Stock: Przy okazji wyniki te można porównać do wyników na 8800 GTX 768MB. Widać tę lekką przewagę tych 24 ROP'ów oraz większej przepustowości pamięci w paru podtestach. ... Później wrzuciłem moje sprawdzone daily OC na tej karcie i ponowiłem wszystkie testy: Pięknie widać jak sporo większą moc oferował ten C2D, że już przy Stock karcie jest w stanie nawiązać walkę z wykręconą pod korek tę samą kartą, ale pod Athlon'em 64 X2 Brisbane G2. Tak, do teraz nieco żałuję, że w tamtych czasach nie dałem szans, a wręcz całkowicie pominąłem platformę LGA775, dlatego w tej chwili tak cieszy mnie jej doświadczanie i zbieranie nowych doświadczeń  W sumie, jak tak sobie teraz przypomnę, to żyłem wtedy w takiej bańce, że Intel oraz Pentium 4 jest gorszy od AMD oraz Athlon'ów, więc postawiłem od razu na Athlon'a, nawet nie sprawdzając wcześniej co ma do zaoferowania konkurencja. Pomijając już fakt, że nie miałem pojęcia wtedy czym różni się Brisbane od Windsor'a, myśląc, że niższy proces litograficzny jest pod każdym względem lepszy, bo jest nowszy. ... Jak wszystko dobrze pójdzie, to niedługo wrzucę podobne testy, na dokładnie tej samej karcie, ale właśnie na Windsorze F3 6000+ (ADX6000IAA6CZ) oraz M2N-SLI Deluxe, czyli kolejnych podzespołach, na które w tamtym czasie nie było mnie stać, dlatego kupiłem 5000+ BE oraz M2N-E.
    • Z tego co pamiętam to miałeś sztywne 4.1ghz na 3600 więc znając ciebie pewnie to było niestabilne i w końcu jakaś gra się wyłożyła  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...