Skocz do zawartości

Rekomendowane odpowiedzi

Defender wyłączony. Używam tylko Windows Firewall Control. Żadnego antywirusa. Nawet niemodyfikowany program nie działa u mnie na 32 bitach (ERROR: WinRing0 initialization failed). Nie wiem dlaczego. Czy to Win 7 czy 10, próbowałem nawet na laptopie z Llano (normalnie używam Fusion Tweaker).

Ważne, że działa 64.

 

W temacie zegarów w IDLE.

Nie ma sensu schodzić z 2 GHz w dół (~0,8 V), nie daje żadnych oszczędności. Ja mam 2,4 GHz 0,85V (wyłączone C&Q, kiepsko działa nawet po edycjach w rejestrze, ustawiam ręcznie).

Ten procesor (cała rodzina) działa bardzo kiepsko na niskich zegarach (poniżej 2 GHz). Phenom działał bardzo ładnie nawet na 1,2.

Edytowane przez Luis13

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

HWBOT x265 Benchmark - FX8350 @4,55GHz

1080p - 18,93 fps

4k - 4.36 fps

 

c77dfc7ae5f239d0.jpg

 

1b5910389d1d00be.jpg

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Odświeżę

Czy te ramy to toporna sztuka? - tego ja nie wiem,równie dobrze problem może leżeć w IMC bądź płyta nie pozwala na więcej(przy mojej GA-990XA-UD3 gwarantowane taktowanie ramu do 2000 MHz).

Kilka dni temu nabyłem drogą wygranej licytacji(dosyć okazyjna cena była :E) na alledrogo ASUS Crosshair V Formula,dzisiaj to wszystko podłączyłem i profil XMP 2400MHz na TridentX wszedł od strzała,więc to poprzednia płyta(GA-990XA-UD3) sprawiała,że nie mogłem z tych pamięci wycisnąć dużo.

 

PS.W sumie i tak planowałem zmienić płytę,gdyż poprzednia nie pasowała zbytnio do obecnej obudowy przez niebieski PCB.

 

Dla tych co chcą wiedzieć,to w Crosshair V Formula podobnie jak w Sabertooth 990FX APM można wyłączyć bezpośrednio w biosie.

Więc z APM mam spokój :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Powiedz tak z ręką na sercu ile dałeś za tą płytę :E :E bo już nie raz wpakowałeś coś do tej umarłej platformy heh :) To teraz możesz atakować FX'a na 5GHZ przy tej mobo :E :E To może osiągniesz wydajność starego ryzena 1600 na 3.0Ghz :cool:

Edytowane przez Send1N

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

390 zł + kw

 

bo już nie raz wpakowałeś coś do tej umarłej platformy heh :)

Jednak zdecydowałem,że maksymalnie ją dopieszczę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

390 zł + kw

To jeszcze tragedii nie ma bo płyta pierwotnie +700 :) To co to teraz chłodzonko za 4 stóweczki i atak na 5Ghz ? :Up_to_s::P

Edytowane przez Send1N

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To co to teraz chłodzonko za 4 stóweczki i atak na 5Ghz ? :Up_to_s::P

W przyszłości dla testów mogę zrobić :cool:

 

A tak na co dzień zostanę raczej przy 4,6/4,7 GHz,jak wsadzę mocniejszą kartę i lepsze chłodzenie

Edytowane przez Splendor_97

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W przyszłości dla testów mogę zrobić :cool:

 

A tak na co dzień zostanę raczej przy 4,6/4,7 GHz,jak wsadzę mocniejszą kartę i lepsze chłodzenie

Miałem przy tym cepie gtx 1060 6GB jeszcze ogarniał w 1080p chodziła na tych 99% ale już 1070 nie wykarmi więc nie wiem co ty tam chcesz wpakować :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Prędzej GTX 1660 Super bądź 1070 nie pokoparkową i na tym skończę,jeśli chodzi o GPU

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Prędzej GTX 1660 Super bądź 1070 nie pokoparkową i na tym skończę,jeśli chodzi o GPU

BĄDZ 1660Ti :cool:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

BĄDZ 1660Ti :cool:

1660 Ti nie biorę pod uwagę,nie opłaca się dopłacać dla 2-4% lepszej wydajności względem 1660 Super

Ale spokojnie,dopiero za kilka miesięcy dokupię lepszą kartę do 1k zł.Oczywiście tylko karty ze stajni Nvidii biorę pod uwagę ;)

Edytowane przez Splendor_97

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1660 Ti nie biorę pod uwagę,nie opłaca się dopłacać dla 2-4% lepszej wydajności względem 1660 Super

Ale spokojnie,dopiero za kilka miesięcy dokupię lepszą kartę do 1k zł.Oczywiście tylko karty ze stajni Nvidii biorę pod uwagę ;)

No to wiadomo, sterownik radeona by zabił całkowicie tego proca ;) Jak miałem r9 290 i zmieniłem na 1060 to w miejscach procesorowych dostałem takiego boosta że aż sie takiego nie spodziewałem :P

Edytowane przez Send1N

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to wiadomo, sterownik radeona by zabił całkowicie tego proca ;)

Jak zmieniałem naprzemiennie jeszcze w okresie wakacyjnym HD 7850 i RX 460 4GB,to mimo że RX460 miał teoretyczną przewagę,to tak na prawdę u mnie obie karty wychodziły w różnych grach bardzo podobnie,z wyjątkiem tych co brały na dzień dobry ponad 2GB Vramu - tam RX 460 odskakiwał.

Jak zmieniłem w końcu te Radeony na GTX 970 - zyskałem ponad 2x więcej fps

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W sumie jestem ciekawe jak teraz stoi AMD ze swoim niegdysiejszym niesławnym narzutem na CPU, na obecnych kartach i sterownikach. Swego czasu zmieniłem R9 290 na GTX 970 i o ile średni FPS wzrósł o 10-15% to minimalny to była przepaść. W większej rozwałce w FC3 na Radku regularne dropy w okolice 32-34 FPS, na GTX nie spadało poniżej 46-48. Procek to był 2500K@4.6 GHz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość DarekGLA

W sumie jestem ciekawe jak teraz stoi AMD ze swoim niegdysiejszym niesławnym narzutem na CPU, na obecnych kartach i sterownikach. Swego czasu zmieniłem R9 290 na GTX 970 i o ile średni FPS wzrósł o 10-15% to minimalny to była przepaść. W większej rozwałce w FC3 na Radku regularne dropy w okolice 32-34 FPS, na GTX nie spadało poniżej 46-48. Procek to był 2500K@4.6 GHz.

 

Wbrew tego co twierdza forumowi filozofowie,latwo to sprawdzic, wystarczy dobrac jakies dwie podobnie wydajne karty od amd i nvidii i obejrzec obciążenie cpu podczas gier.

Wg mnie nie ma czegoś takiego jak 'narzut sterownikow', obciazenie nie jest stale i zazwyczaj jest podobne, czasem nizsze na amd czasem na nvidia.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wbrew tego co twierdza forumowi filozofowie,latwo to sprawdzic, wystarczy dobrac jakies dwie podobnie wydajne karty od amd i nvidii i obejrzec obciążenie cpu podczas gier.

Wg mnie nie ma czegoś takiego jak 'narzut sterownikow', obciazenie nie jest stale i zazwyczaj jest podobne, czasem nizsze na amd czasem na nvidia.

 

I tu jestes w bledzie testow robionych bylo xxx na ten temat

Test

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość DarekGLA

I tu jestes w bledzie testow robionych bylo xxx na ten temat

Test

 

Generalnie zawsze zgadzam sie z tym ,ze moge sie mylic i zwrocona uwage biore do serce :) . Ale mysle to co widze i tu sie nie myle. Wyniki podsunietego testu podsumowalbym zupelnie inaczej bo one absolutnie nie potwierdzaja rzekomego 'narzutu' (sorki Tomcug) a i sam autor bardziej skupia sie na lepiej lub gorzej optymalizowanej wielowatkowsci, na co nie do konca przeciez AMD ma wplyw bo to robota producentow gier.

 

Zadalem sobie niewielki trud i wpisalem podane w tescie wyniki do excela oraz porownalem wydajnosc Ryzen 12 watkow vs i3 4 watki w procentach.

Dla uproszczenia uzywalem tylko wynikow z nowszymi sterownikami i tylko vega 64 vs 1080Ti

 

Ja tu strasznych anomalii poza spodziewanymi w zwiazku z optymalizacja gier nie widze. Jezeli gtx jest szybszy od vegi z ryzen, jest tez szybszy z i3, jezeli gra lepiej dziala na mocniejszym watku, wzrost na obu kartach jest widoczny. Co wiecej, sa przypadki gdzie rzekomy 'narzut sterownika' bylby wiekszy na sterownikach Nvidia anizeli na AMD :) - patrz Sniper Ghost warrior, Crysis czy Watchdogs 2 a jedyny, tak bardzo widoczny odwrotny przypadek jest na ROTR.

 

Jesli sterowniki AMD tak bardzo zabijaja wydajnosc slabszego procesora, dlaczego przy takim Watchdogs 2 zmiana na i3 zbija tylko 7% wydajnosci Vegi 64, a na Gtx 1080ti spada o 28% ? To w koncu ,ktore sterowniki ubijaja wydajnosc mocniej ?

A moze wlasnie jest to tylko sprawa optymalizacji wielowatkowosci i cale ubijanie wydajnosci przez sterowniki,'narzuty' to jedna wielka bzdura.

 

Z tego tez powodu bardziej przemawia do mnie YouTube-owy test podobnie wydajnych kart graficznych zrobionych przy użyciu współczesnego wielordzeniowego cpu i obserwowanie utylizacji.Jak zuzycie cpu jest podobne, o zadnym narzucie nie moze byc mowy.

post-67730-15794424736407_thumb.jpg

Edytowane przez DarekGLA

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

lepiej lub gorzej optymalizowanej wielowatkowsci, na co nie do konca przeciez AMD ma wplyw bo to robota producentow gier

Wiesz, jeżeli w danej grze na NV wielowątkowość działa poprawnie (np. Watch Dogs 2, dwie ostatnie części Assassin's Creed), a na AMD już nie, no to chyba producent GPU jakiś wpływ na ten stan rzeczy ma ;) Generalnie sam "narzut" nie zawsze jest problemem dla Radeonów, często największą bolączką jest właśnie MT, które leży i kwiczy.

 

Jesli sterowniki AMD tak bardzo zabijaja wydajnosc slabszego procesora, dlaczego przy takim Watchdogs 2 zmiana na i3 zbija tylko 7% wydajnosci Vegi 64, a na Gtx 1080ti spada o 28% ? To w koncu ,ktore sterowniki ubijaja wydajnosc mocniej ?

Absolutnie błędne wnioski. To nie NV zbija więcej wydajności przy przejściu na i3, tylko przy karcie AMD jest kiepskie wykorzystanie Ryzena (niskie obciążenie wątków), właśnie ze względu na niedziałające MT.

 

Tutaj masz fajny test od sidebanda, gdzie badał stricte narzut i wnioski są dość oczywiste (tak, na ogół jest wyższy na Radeonach):

 

https://forum.pclab.pl/topic/1265764-Test-sterownik%C3%B3w-AMD-vs-NVIDIA/

 

Osobiście uważam, że większym problemem czerwonej ekipy jest MT aniżeli sam narzut, ale na którykolwiek "składnik" nie popatrzeć (sam narzut, MT, rzeczywista wydajność CPU), i tak przewaga NV jest bardziej niż zauważalna.

Edytowane przez tomcug

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość DarekGLA

Dzieki Tomcug, przejrzalem ten test. Niektore elementy metodologii jak i dobor kart (R9 z 2013 vs Pascal z 2016) nie przemawiaja do mnie, czyli w dalszym ciagu nie jestem przekonany i wnioski dla mnie nie sa wcale oczywiste :) .

 

Zerknalem na interesujaca dyskusje na reddit , z jeszcze ciekawszymi linkami ale i tam odpowiedzi sie nie doszukalem bo zaprezentowano mnostwo roznych 'wersji wydarzen'.

 

Wydaje mi sie, ze by to naprawde zbadac z punktu zwyklego uzytkownika bez wdawania sie w trudne do ogarniecia szczegoly, trzeba byloby uzyc dwoch podobnie wydajnych kart od obu producentow z najblizszej sobie generacji, z tym samym CPU , z max frame lock np. na 60fps i zakladajac,ze obciazenie gpu byloby z grubsza takie same, zmierzyc utylizacje CPU. Jezeli CPU byloby w ktoryms przypadku znaczaco mocniej obciazone - to jest 'narzut', jezeli nie, to nie ma mowy o zadnym narzucie.

 

Tak czy inaczej, watpie, by kiedykolwiek mozna byloby uproscic sprawe i powolic sobie na generalizacje, ze drivery xxx maja narzut a drivery yyy go nie maja.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Problem z mierzeniem użycia CPU może być taki, że często ono lata jak szalone i nie jestem przekonany, czy nawet średnia z jakiegoś przebiegu czasowego byłaby w takich przypadkach dobrym wyznacznikiem. Ale zdaje mi się, że trochę nie zdajesz sobie sprawy z jednej ważnej kwestii - dobór GPU w ramach danej rodziny z definicji nie ma w tych testach istotnego znaczenia. Zamiast tej 1080 Ti jakby sideband wziął 1080 a nawet 1070, to i tak niczego by to nie zmieniło, bo karty miały duży zapas mocy. A sama rodzina w przypadku AMD ma już znaczenie, bo wydajność CPU na Vegach i Navi jest gorsza od Polarisów, Hawaii i wcześniejszych. Najgorzej jest na Vegach, ale na Navi też gorzej niż powinno być.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wydaje mi sie, ze by to naprawde zbadac z punktu zwyklego uzytkownika bez wdawania sie w trudne do ogarniecia szczegoly, trzeba byloby uzyc dwoch podobnie wydajnych kart od obu producentow z najblizszej sobie generacji, z tym samym CPU , z max frame lock np. na 60fps i zakladajac,ze obciazenie gpu byloby z grubsza takie same, zmierzyc utylizacje CPU. Jezeli CPU byloby w ktoryms przypadku znaczaco mocniej obciazone - to jest 'narzut', jezeli nie, to nie ma mowy o zadnym narzucie.

 

Tak czy inaczej, watpie, by kiedykolwiek mozna byloby uproscic sprawe i powolic sobie na generalizacje, ze drivery xxx maja narzut a drivery yyy go nie maja.

Nie masz bladego pojęcia w/w temacie i dlatego wypisujesz tego typu głupstwa jak weryfikacja narzutu poprzez sprawdzanie obciążenie CPU w różnego typu sofcie. Jeszcze większe brednie to pisanie, że 

 

sterownik X nie ma narzutu, a Y posiada.

 

 

 

Edytowane przez sideband

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość DarekGLA

Nie masz bladego pojęcia w/w temacie i dlatego wypisujesz tego typu głupstwa jak weryfikacja narzutu poprzez sprawdzanie obciążenie CPU w różnego typu sofcie. Jeszcze większe brednie to pisanie, że 

 

sterownik X nie ma narzutu, a Y posiada.

 

Dobrze,ze chociaz ty masz blade pojecie :).A niby czym miałby byc cpu overhead jak nie dodatkowym obciążeniem cpu przez sterownik? Sterownik obsluguje komunikacje softu z hardware i czesc roboty sterownik karty zwala na cpu, i wlasnie o wielkosc tej czesci sie rozchodzi. Sama nazwa na to wskazuje.

 

za wiki : '...overhead is any combination of excess or indirect computation time, memory, bandwidth, or other resources that are required to perform a specific task...'

 

Nigdzie NIE powiedziałem, ze jakis sterownik x lub y ma 'narzut' bo konkretnego dowodu na to jeszcze nie widziałem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dlatego wolałbym nic więcej nie pisać i tak nic nie czaisz wink.gif

 

Porób swoje wspaniałe testy z lockiem na powiedzmy 30fps i 60fps to się przekonasz, że w wielu grach obciążenie CPU nie będzie się wiele różnic. Można doprowadzić do sytuacji kiedy obciążenie CPU w monitoringu będzie takie same, a różnice w wydajności będą bardzo duże. Taka to właśnie precyzyjna metoda lol2.gif

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...