Skocz do zawartości
RyszardGTS

Pentium G3258 - Dwa rdzenie INTEL vs Najnowsze gry

Rekomendowane odpowiedzi

<xxx>

Edytowane przez hoobcio540

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Coś się stało i się z...ało :/

Na codzień miałem CPU ustawione na 4,3GHz i RAM na 1400MHz, odpalam dziś OCCT i widzę że procesor ma taktowanie 3200MHz, CPU-z pokazuje to samo. Wszedłem w BIOS i w parametrach pokazuje CPU 3200MHz i RAM 1400MHz

 

OC Genie włączone

Profil załadowany... a podkręca tylko RAM

Windows nie aktualizowany od stycznia ( ͡° ͜ʖ ͡°)

Co może go blokować?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A może Ci się bios sam zaktualizował?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wyłącz OC Genie, podkręć ręcznie ustawiając parametry.

Jeżeli nie pomoże to zrób płycie restart biosu -> zworka CLEAR CMOS.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Koledzy 4.3GHz przy 1.375V, 4.4 przy tym V sypie BSODAMI. Padaczna sztuka ? na 4.3GHz pod obciążeniem 64*C.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Koledzy 4.3GHz przy 1.375V, 4.4 przy tym V sypie BSODAMI. Padaczna sztuka ? na 4.3GHz pod obciążeniem 64*C.

 

Średnia sztuka. Miałem G3258, który nie chciał być stabilny na 4,2 @ 1,4 V.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Powinieneś dostać nagrodę "Tester Roku 2014" dla

RyszardGTS

 

5x notworthy.gif notworthy.gif notworthy.gif notworthy.gif notworthy.gif

Edytowane przez MichagM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Panowie u mnie G3258 póki co stabilnie na 4300 MHz przy 1.3V. Płyta główna budżetowa Gigabyte H81M HD3, temp max 75C, chłodzenie oczywiście BOX. Nie wiem czy walczyć o więcej czy szkoda zachodu? Pozdrawiam ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pentium G3258 vs 2017:

 

 

Pentium G3258 4,6GHz vs G4560:

 

Edytowane przez Paw79

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przypomniałem sobie dzisiaj o tym procesorze, korzysta ktoś jeszcze w 2020 roku? :szczerbaty: Był to ciekawy projekt i ciekawy ewenement wypuścić procesor 2/2 w 2014 roku, kiedy już Q6600 z 2007 roku miał 4 rdzenie/4 wątki. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jedyny atut G3258,to odblokowany mnożnik i na tym atuty się kończą.
Mój FX zjada go na śniadanie 8:E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Dla tego nie używam trybów dynamicznych, ani dla sdr, ani dla HDR. Niestety każdy producent wali swoje implementacje HDR do tego tryby dynamiczne i różne fikołki mające robić pseudo wrażenia. Dolby Vision ma swój system i dla mnie działa to ok czy tam przyzwoicie na oledach wspierających DV.  A do gierek używam HGiG, albo po prostu off wszystkie wzmacniacze HDRu, ale HGIG na LG lepiej się sprawdza. Do tego gierka musi mieć dobrze ten HDR zaimplementowany bo z tym bardzo różnie bywa.
    • 6 sztuk 14900K, 1 sztuka 14900KS. Każdy zachowywał się identycznie. Wybacz, aż takiego pecha nie mam Właśnie zamontowałem i skończyłem sprawdzać 14700K. Włożyłem, ustawiłem RAM. Od strzała, bez limitów mocy, przeszedł wszystkie testy i nigdzie się nie wysypał.  302W miał w peak i dał 89 stopni. I9 14 przy 300W były już po przywitaniu się z pierwszą setką A hitem jest to, że w R23 uzyskałem wynik wyższy niż wczoraj na 14900KS z nowymi ustawieniami Intela Plan był taki, że jak i7 by wariował, to bym wziął i5 albo spróbował AMD
    • No właśnie nie jest ok, sygnał HDR ma znacznie większą rozpiętość tonalna niż te certyfikaty czy możliwości dzisiejszych ekranów, to ze ty sobie to "ustawisz" i skompresujesz sygnał kompletnie przeczy idei sygnału HDR. Jestem przekonany ze tylko ekrany które są w stanie wycisnąć z danego sygnału HDR 100% bez żadnych "sztuczek" pokazują jak ten obraz faktycznie powinien wyglądać i zapewne nie będzie tez przy nich żadnego zmęczenia wzroku czy innych problemów. A dziś jest tak ze włączasz HDR i odrazu wali po oczach jak nie zbyt nasyconymi barwami które są nienaturalne to oślepia cie w peakach bo muszą kompresować sygnał do tego co potrafi ekran. Chyba najlepszym przykładem jak źle to wszytko działa są tryby dynamicznego mapowania metadanych (nie mylić z metadanymi Dolby Vision) które TV tworzą w czasie rzeczywistym czy tam monitory ale przy tym rozjeżdża się cala dynamika obrazu bo wszytko nagle staje się dwa razy jaśniejsze nie wiadomo po co i co to ma wspólnego z dobrej jakości HDR. To jak z trybami demo w sklepach, wszystkim się podobają i nawet ludzie potem tak w domach oglądają ale dobra lub poprawna jakością obrazu nie ma to nic wspólnego. I nie mowie żeby się zaraz trzymać wytycznych jak od linijki ale włączając HDR odrazu widzę ze coś z tym obrazem jest nie tak, problem ten jest znacznie mniej widoczny przy materiałach Dolby Vision ale jako ze ekrany nadal maja zbyt słabe jasności maksymalne aby odpowiednio wyświetlić pełny zakres HDR to nawet DV jest mocno kompresowany przez co męczy wzrok. Oczywiście można sobie taka matryce przyciemnić tylko ze leci w dół wszytko a nie tylko peak wiec z HDR zostaje jeszcze mniej. I tak człowiek dochodzi do wniosku ze wali go ten cały HDR i zostaje przy SDR, który jest stały i wygląda wszędzie prawidłowo, nie trzeba nic za każdym razem kalibrować jak chcesz w coś grac albo coś ogladac.
    • Jak to może być plaskacz dla Sony? Przecież Sony jest wydawcą i chyba zależy im na dobrej sprzedaży 
    • Bo producenci płyt (ASUS, Gigabyte, MSI) nie trzymają się specyfikacji przy ustawieniach domyślnych. Domyślnie powinien być na i7 14700 PL1=65W i PL2=219W, natomiast TAU=28s (czas po którym powinien się załączyć PL1). Przy takich ustawieniach procesor też dobiłby pewnie do 100 stopni C na Fera, choć na szczęście przynajmniej na chwilę (bo później PL1=65W czyli lód). Podsumowując: producenci płyt chrzanią sprawę po całości, natomiast sam Intel zaleca absurdalne parametry pracy (PL1=65W dla i7 14700 - buahahaha ... no i oczywiście chwilowy wystrzał do 219W też od czapy przy CPU o mocy długotrwałej 65W). W przypadku i7 14700 nonK to PL2=219W. Jeśli ten CPU nie działa na standardowych, zalecanych przez Intel parametrach (PL1=150W, PL2=253W, TAU=56s) to bym go reklamował, bo po prostu jest wadliwy (powinni go pociąć i sprzedawać jako i7 14700 nonK - może by się nie zes.... 😜 przy ustawieniach ze spec.)
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...