Skocz do zawartości
hubio

Sens kupowania mocnego CPU w 12 generacji

Rekomendowane odpowiedzi

Wtedy wbijasz maks ustawienia zeby splaszczyc fps czyli zeby roznica miedzy tym co daje procke a tym co daje karta byla jak najmniejsza co niweluje zaciecia

Normalnie procek daje 50 karta 90 to robisz tak zeby karta dawala 60 wtedy zamiast granicy 50-90 masz 50-60 co znacznie poprawia komfort gry. Rozumiesz?

W wersji dla bogatych zmieniasz kompa i problem z glowy. Po prostu

Edytowane przez Eltik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Eltik napisał:

Wtedy wbijasz maks ustawienia zeby splaszczyc fps czyli zeby roznica miedzy tym co daje procke a tym co daje karta byla jak najmniejsza co niweluje zaciecia

... ale niski fps pozostanie niskim (np. jeśli wszystko wypłaszczyłeś do 30fps czy 40fps).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Kyle_PL napisał:

... ale niski fps pozostanie niskim (np. jeśli wszystko wypłaszczyłeś do 30fps czy 40fps).

ale lepiej miec 40-50 niz 40-80. Odczucie plynnosci jest duzo lepsze gra nie szarpie. W wersji dla bogatych zamawiasz nowego kompa i tyle

Wyadajnosc karty mozesz jakos wyregulowac procka juz nie bardzo bo OC z 4.7 na 5 Ghz nie zlikwiduje bottlencka jesli sam rdzen z jakiegos powodu jest technologivznie juz za slaby

Edytowane przez Eltik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pewnie tak. Choć to już jest coś na zasadzie "mniejsze zło".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nic nie zmienia faktu ze jesli budzet jest ciasny lepiej miec l;epsza karte niz procka.

i3 12100 + 3070 bedzie lepszy niz i5 12600K + 3050 w 90% przypadkow tym bardziej w 1440p np

Edytowane przez Eltik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, Eltik napisał:

Sa  gry gdzie procek bedzie na 70% i GPU na 60%...

Czyli bedzie bootleneck

59 minut temu, Eltik napisał:

Normalnie procek daje 50 karta 90 to robisz tak zeby karta dawala 60 wtedy zamiast granicy 50-90 masz 50-60

Co ty odwalasz z tymi procentami

Edytowane przez jurekk

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, jurekk napisał:

Czyli bedzie bootleneck

Co ty odwalasz z tymi procentami

Jakimi procentami? To sa klatki na sekunde nie procenty

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ha ha, ten wątek to jakieś złoto, unikalne połączenie prawdy, półprawdy, mitów i innych wierzeń.

Jeżeli chodzi o tzw bottleneck czyli wąskie gardło, to są tylko 2 możliwości, albo kończy się cpu albo gpu, to znaczy mają 100% użycia, a drugi komponent zazwyczaj 95-90% lub jeszcze mniej.

W normalnych warunkach NIE MA żadnej innej możliwości.

Co to są normalne warunki?

- test z odblokowanymi klatkami, bez vsync

- gra zoptymalizowana/bez bugów/brak problemów sterownika

- odpowiedni ram, prędkość, pojemność, zależy już od gry

W normalnych warunkach zawsze musi się skończyć jakiś komponent, bo pc robi tyle ile da radę.

Jeżeli jakaś gra używa znacznie mniej jednocześnie na cpu i gpu np. 50% i 50% to może oznaczać tylko 2 opcje

- sytuacja prawidłowa, test jest limitowany vsync lub blokada klatek, w takiej sytuacji gra nie potrzebuje więcej, bo np. generując maks 60 fps cpu i gpu mają jeszcze zapas, więc użycie obu będzie mniejsze

- sytuacja nieprawidłowa, zła optymalizacja gry, błędy gry, sterownika lub oba, przy braku limitów fps, jeżeli gra nie jest w stanie dobić jednego komponentu do 100% bez żadnych limitów to już coś jest nie tak, tak nie powinno być, niektóre gry są czułe na ram i czasami to jest przyczyna, z drugiej strony to tez można podpiąć pod marną optymalizację

Oczywiście jest jeszcze sytuacja, że komuś coś się przegrzewa i komponenty limitują wydajnosć, ale to już osobna kwestia.

Jeżeli jakaś gra bez limitów nie dobija przynajmniej jednego komponentu do 100% to coś gdzieś jest nie tak.

Inną sprawą są te filmy testy z YT z widocznym OSD, które z tego co widzę w 95% przypadków jest źle skonfigurowane.

Źle, bo nie pokazuje obciążenia każdego rdzenia CPU osobno, a przy CPU dochodzi kwestia użycia na jeden rdzeń, mocny jeden wątek nadal jest ważny, każda gra ma ten jeden główny wątek, który zawsze wymaga najwięcej wydajności, i tak jest już lepiej niż lata temu, ale nadal zdarzają się gry, które tak mocno cisną jeden wątek, że nie ma znaczenia czy masz 6, 8 albo i więcej rdzeni, jeżeli jeden z rdzeni chodzi na 100%, gdy inne nie, ten jeden rdzeń blokuje całą resztę. I to jest błąd optymalizacji gry, bo takie obciążenie powinno być rozkładane na tyle rdzeni ile się da, ale w praktyce, mało która gra ma aż taki problem, więc i żadna z gier nie ma aż tak dobrej architektury wielowątkowej by na wszelki wypadek to niwelować, a jak już problem się zdarzy to wtedy zostają rozwiązania mniej idealne.

Tak więc, to jest problem źle ustawionych OSD, te programy nie są w stanie stwierdzić ile dana gra faktycznie rdzeni używa na serio, i wtedy pokazuje, że taki 6/8 czy więcej rdzeni cpu jest wykorzystany nawet kilkukrotnie mniej niż ten przykładowy i3 4r, ale naprawdę tak nie jest, bo program OSD liczy średnią ze wszystkich rdzeni, także tych, które mają 0% użycia lub blisko, ze względu na to, że gra po prostu nie alokuje tylu rdzeni/wątków, ale i tak OSD liczy średnią z całości, a i tak najbardziej będzie obciążonych tylko kilka rdzeni, zazwyczaj jeden bardziej.

Tak więc jeżeli ktoś chce oceniać wąskie gardło CPU bo takich filmach z OSD to koniecznie OSD musi pokazywać każdy rdzeń osobno inaczej nic się z tego nie dowiecie, bo średnia jest całkowicie przekłamana.

W kwestii jeszcze i3 vs i5 + mocne gpu, to tak, jest takie coś i to jest fakt, jeżeli ktoś naprawdę ma napięty budżet, a chce tu i teraz wydajności w wysokich ustawieniach, to większość gier siedzi na GPU znaczenie bardziej niż na cpu, więc to GPU zazwyczaj kończy się pierwsze, więc najlepiej mieć mocniejsze gpu niż cpu, ale to się bardziej sprawdza do średnich podzespołów, raczej łącznie i3 z 3080/90 to kompletny absurd, chyba, że ktoś gra wyłącznie 4k to może wtedy jakiś to ma sens, ale to nadal wygląda dziwnie wtedy oszczędzać te 500 zeta na choćby to i5. Co innego i3 z 3070.

Tak czy siak, oczywiste nadal prawdą jest, że lepszy fps będzie na i3 + 3070 niż i5/9 + 3060, w większości gier, ale nie we wszystkich. W budżetowej opcji na pewno warto to rozważyć, ale to raczej też na to wpadną tylko osoby, które już się znają bardziej, a nie większość, więc i tak nie wpadnie na to ktoś komu by to najbardziej pomogło.

Jeszcze zabawny temat wąskiego gardła GPU jeżeli ktoś pisze o graniu w 4k czy maks ultra 2k, wiec wtedy nie potrzebuje aż tak mocnego CPU.

Toż to przecież o to właśnie chodzi, że wykorzystuje się fakt, wąskiego gardła GPU przy wymagajacych grach w 4k czy nawet 2k, bo wtedy GPU będzie wąskim gardłem, więc nie będzie generowane aż tyle klatek by był potrzebny jakiś mega mocny cpu.

Mega mocny cpu to trzeba celować do wymagającej pracy, 100+ fps czy vr.

 

  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie ma czegoś takiego jak wąskie gardło GPU. Albo GPU umożliwia granie albo nie. Wąskie gardło jest tylko przy niepełnym GPU load

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tutaj trzeba sobie powiedzieć do czego CPU będzie wykorzystywany? Jeśli tylko gry to sens kupowania więcej niz i5 12600KF mija się z celem. Aczkolwiek to jest rozwiązanie tymczasowe. Następna generacja kart będzie wyraźnie mocniejsza wiec wymagania względem CPU będa wyższe. Natomiast jeżeli zależy nam na uniwersalnym CPU i zapasie mocy to jak najbardziej i7 oraz i9 maja racje bytu. Owszem filmiki pokazują, ze nawet i3 12 gen nie jest taki słaby to nie zapominajmy, że ten procek ma tylko 4 rdzenie. Ja tez myślałem, że Ryzen 3600 ogarnie RTX3080. Szybko sie przekonałem, że tak nie jest. Owszem w większości przypadków rozgrywka jest bardzo dobra, ale schody zaczynają się przy włączeniu DLSS i RT. Na podstawie swoich testów i porównań z i7-12700F sa wyraźne różnice

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 21.06.2022 o 18:29, jurekk napisał:

Nie ma czegoś takiego jak wąskie gardło GPU.

Jak najbardziej jest.

W dniu 21.06.2022 o 18:29, jurekk napisał:

Wąskie gardło jest tylko przy niepełnym GPU load

Przy niepełnym "GPU load" jest po prostu wąskie gardło na CPU. Zwykle jest tak, że jest wąskie gardło albo na CPU, albo na GPU (mówimy oczywiście o testach bez limitów fps/vsync)

W dniu 21.06.2022 o 15:11, szefons napisał:

Jeszcze zabawny temat wąskiego gardła GPU jeżeli ktoś pisze o graniu w 4k czy maks ultra 2k, wiec wtedy nie potrzebuje aż tak mocnego CPU

Jak kupujesz na tu i teraz (do tego GPU które masz teraz, a później znowu wymieniasz wszystko) to tak.

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 21.06.2022 o 18:29, jurekk napisał:

Nie ma czegoś takiego jak wąskie gardło GPU

Oczywiście, że jest, za każdym razem gdy gpu stopuje cpu, szczególnie w 4k dla miłośników 100+ czy nawet 140fps, gpu nie daje rady, cpu mógłby generować wielokrotnie więcej fps.

Każdy komponent może być wąskim gardłem, zależy tylko od sytuacji.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość

Oczywiście, że tak. Niedługo nawet bez dysku SSD nie pograsz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 21.06.2022 o 15:11, szefons napisał:

Ha ha, ten wątek to jakieś złoto, unikalne połączenie prawdy, półprawdy, mitów i innych wierzeń.

Jeżeli chodzi o tzw bottleneck czyli wąskie gardło, to są tylko 2 możliwości, albo kończy się cpu albo gpu, to znaczy mają 100% użycia, a drugi komponent zazwyczaj 95-90% lub jeszcze mniej.

W normalnych warunkach NIE MA żadnej innej możliwości.

Co to są normalne warunki?

- test z odblokowanymi klatkami, bez vsync

- gra zoptymalizowana/bez bugów/brak problemów sterownika

- odpowiedni ram, prędkość, pojemność, zależy już od gry

W normalnych warunkach zawsze musi się skończyć jakiś komponent, bo pc robi tyle ile da radę.

Jeżeli jakaś gra używa znacznie mniej jednocześnie na cpu i gpu np. 50% i 50% to może oznaczać tylko 2 opcje

- sytuacja prawidłowa, test jest limitowany vsync lub blokada klatek, w takiej sytuacji gra nie potrzebuje więcej, bo np. generując maks 60 fps cpu i gpu mają jeszcze zapas, więc użycie obu będzie mniejsze

- sytuacja nieprawidłowa, zła optymalizacja gry, błędy gry, sterownika lub oba, przy braku limitów fps, jeżeli gra nie jest w stanie dobić jednego komponentu do 100% bez żadnych limitów to już coś jest nie tak, tak nie powinno być, niektóre gry są czułe na ram i czasami to jest przyczyna, z drugiej strony to tez można podpiąć pod marną optymalizację

Oczywiście jest jeszcze sytuacja, że komuś coś się przegrzewa i komponenty limitują wydajnosć, ale to już osobna kwestia.

Jeżeli jakaś gra bez limitów nie dobija przynajmniej jednego komponentu do 100% to coś gdzieś jest nie tak.

Inną sprawą są te filmy testy z YT z widocznym OSD, które z tego co widzę w 95% przypadków jest źle skonfigurowane.

Źle, bo nie pokazuje obciążenia każdego rdzenia CPU osobno, a przy CPU dochodzi kwestia użycia na jeden rdzeń, mocny jeden wątek nadal jest ważny, każda gra ma ten jeden główny wątek, który zawsze wymaga najwięcej wydajności, i tak jest już lepiej niż lata temu, ale nadal zdarzają się gry, które tak mocno cisną jeden wątek, że nie ma znaczenia czy masz 6, 8 albo i więcej rdzeni, jeżeli jeden z rdzeni chodzi na 100%, gdy inne nie, ten jeden rdzeń blokuje całą resztę. I to jest błąd optymalizacji gry, bo takie obciążenie powinno być rozkładane na tyle rdzeni ile się da, ale w praktyce, mało która gra ma aż taki problem, więc i żadna z gier nie ma aż tak dobrej architektury wielowątkowej by na wszelki wypadek to niwelować, a jak już problem się zdarzy to wtedy zostają rozwiązania mniej idealne.

Tak więc, to jest problem źle ustawionych OSD, te programy nie są w stanie stwierdzić ile dana gra faktycznie rdzeni używa na serio, i wtedy pokazuje, że taki 6/8 czy więcej rdzeni cpu jest wykorzystany nawet kilkukrotnie mniej niż ten przykładowy i3 4r, ale naprawdę tak nie jest, bo program OSD liczy średnią ze wszystkich rdzeni, także tych, które mają 0% użycia lub blisko, ze względu na to, że gra po prostu nie alokuje tylu rdzeni/wątków, ale i tak OSD liczy średnią z całości, a i tak najbardziej będzie obciążonych tylko kilka rdzeni, zazwyczaj jeden bardziej.

Tak więc jeżeli ktoś chce oceniać wąskie gardło CPU bo takich filmach z OSD to koniecznie OSD musi pokazywać każdy rdzeń osobno inaczej nic się z tego nie dowiecie, bo średnia jest całkowicie przekłamana.

W kwestii jeszcze i3 vs i5 + mocne gpu, to tak, jest takie coś i to jest fakt, jeżeli ktoś naprawdę ma napięty budżet, a chce tu i teraz wydajności w wysokich ustawieniach, to większość gier siedzi na GPU znaczenie bardziej niż na cpu, więc to GPU zazwyczaj kończy się pierwsze, więc najlepiej mieć mocniejsze gpu niż cpu, ale to się bardziej sprawdza do średnich podzespołów, raczej łącznie i3 z 3080/90 to kompletny absurd, chyba, że ktoś gra wyłącznie 4k to może wtedy jakiś to ma sens, ale to nadal wygląda dziwnie wtedy oszczędzać te 500 zeta na choćby to i5. Co innego i3 z 3070.

Tak czy siak, oczywiste nadal prawdą jest, że lepszy fps będzie na i3 + 3070 niż i5/9 + 3060, w większości gier, ale nie we wszystkich. W budżetowej opcji na pewno warto to rozważyć, ale to raczej też na to wpadną tylko osoby, które już się znają bardziej, a nie większość, więc i tak nie wpadnie na to ktoś komu by to najbardziej pomogło.

Jeszcze zabawny temat wąskiego gardła GPU jeżeli ktoś pisze o graniu w 4k czy maks ultra 2k, wiec wtedy nie potrzebuje aż tak mocnego CPU.

Toż to przecież o to właśnie chodzi, że wykorzystuje się fakt, wąskiego gardła GPU przy wymagajacych grach w 4k czy nawet 2k, bo wtedy GPU będzie wąskim gardłem, więc nie będzie generowane aż tyle klatek by był potrzebny jakiś mega mocny cpu.

Mega mocny cpu to trzeba celować do wymagającej pracy, 100+ fps czy vr.

 

Fajny wpis i dużo wyjaśnia, ale nie do końca rozumiem... Z jednej strony piszesz, że większość gier i tak korzysta z 1 rdzenia (max go obciąża) i nie potrafi rozłożyć obciążenia na więcej rdzeni. Sam o tym ciągle słyszę. Zadawałem nawet producentom pytanie ile rdzeni wykorzystuje ich gra i zazwyczaj 1 lub 2. Więc jeśli tak to taki i3 4/8 powinien dać radę. Ale z 2 strony piszesz, że to głupota mieć i3 do 3080...

Ja właśnie mam 3080Ti i i3-12100, który kupowałem pod 3060Ti, ale teraz mam 3080Ti. Więc powinienem zmienić na i5-12600 ? Gram wyłącznie pod 4K ?

Czy wąskie gardło CPU może objawiać się tym, że np. gra chodzi płynnie ze 100 fps i np. tam gdzie jest w lokacji dużo budynków spada do 50fps bo CPU nie wyrabia ? Słusznie też piszesz o optymalizacji. Świetnym przykładem jest Fernbus gdzie wczoraj grałem i miałem w 4K ok 80-100 fps, ale kilka razy zdarzyły się irytujące spadki. ale czy to kwestia optymalizacji czy wąskiego gardła CPU ? Patrząc na OSD rzeczywiście przy tych spadkach chyba CPU mi rosło zużycie do jakiś 60%, a GPU spadało. Tak to prawie cały czas mam 95-99% wykorzystanie GPU i ok 33% CPU.

Z kolei w takim mega wymagającym MFS mam te 45-60fps, ale nie mam żadnych gwałtownych spadków nawet w Nowym Jorku, który jest najbardziej obciążającą lokacją w grze. Ale może miałbym więcej z mocniejszym prockiem ?

No i dlaczego skoro gry nie wykorzystują wszystkich rdzenie w rekomendowanych wymaganiach jest podawany np i7 ? Tak jest właśnie w MFS ?

No i jestem już całkiem głupi. Doradźcie mi - wymienić tą i3 12100 na i5-12600 ? W razie czego mogę zrobić zwrot. Kusi mnie strasznie, ale to znów zabierze czas. Mam kartę za 6100 więc może by wypadało mieć jednak do tego i5-12600 ? Tylko, żeby był sens...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wymieniać to na 12400 albo 12600k i z 3080ti owszem warto

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 21.06.2022 o 15:11, szefons napisał:

Tak czy siak, oczywiste nadal prawdą jest, że lepszy fps będzie na i3 + 3070 niż i5/9 + 3060, w większości gier, ale nie we wszystkich. W budżetowej opcji na pewno warto to rozważyć, ale to raczej też na to wpadną tylko osoby, które już się znają bardziej, a nie większość, więc i tak nie wpadnie na to ktoś komu by to najbardziej pomogło.

No właśnie też tak myślę, a praktycznie w każdym polecanym zestawie jak się pyta jakiś amator na forum to poleca mu się właściwie do każdej karty graficznej - czy to 3060Ti czy nawet 1660Ti - i5-12400, a nie i3-12100.

Natomiast ważne pytanie, które ponawiam dotyczy nie przeciętnej ilości FPS bo tu nawet mając sparowane i3-9100 4/4 (Cache 6MB) było ok tylko było sporo raptownych freezów. Gram, gram, gram i raptem spada mi z 60fps do 30fps, albo na sekundę obraz się zatrzymuje. Czy to kwestia optymalizacji czy jednak wąskiego gardła ? Obecnie jest tego mniej, ale wciąż jest.

No nic, chyba dla dobra nauki :) po prostu kupię sobie i5-12600 i przekonam się w 4K jakie to ma przełożenie, z opcją zwrotu jak wydajność będzie żadna. Na przykładzie swoich gier będę mógł potwierdzić albo nie. No i nie jest kwestia 500zł tylko 700zł różnicy, ale oczywiście, teraz przy karcie za 6100 to wciąż mało. Ale i tak będę musiał sprzedać tamto i3-12100 więc stracę więcej :( Przekonuje mnie też do tej i5-12600, że nawet pojedynczy rdzeń rozpędza się do 4,8GHz, a ten i3-12100 do 4,3GHz co nawet w przypadku gier korzystających z 1 rdzenia może mieć znaczenie. Bardziej intuicyjnie czuję, że może jednak to CPU mieć znaczenie bo te freezy łapię nie zawsze tylko w lokacjach typu miasto, więcej budynków itd.

PS kupione na raty zerówki płatne od 2023 r w rtv -euro- agd :) Więc chyba jednak bez względu na wszystko go sobie zostawię :)  Pewno inflacja do stycznia mi się zwróci :)

 

Edytowane przez hubio

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

i3 12gen to jednak za mało do 4K ? W jakich grach masz zjazdy poniżej 60fps ?

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, Doamdor napisał:

i3 12gen to jednak za mało do 4K ? W jakich grach masz zjazdy poniżej 60fps ?

Nie wiem czy za mało. Dlatego pytałem się w tym wątku i jak widzisz tak mi doradzano. Widziałem też filmy na YT i jednak mimo, że mówiono, że w 4K nie ma to dużego znaczenia to testerzy mówili, że absolutnie nie zalecają i3 do 3080Ti.

Nie chodzi nawet o zjazdy, ale dosyć nie przyjemne freezy. Obraz na sekundę bardzo laguje. Głównie Fernbus, ale nawet czasami ETS2 z 110 modami. Także w MFS nawet te 5FPS więcej mnie ucieszy bo tam każdy FPS jest na wagę złota, a mam wrażenie, że jednak te wielkie tereny generowane w MFS też mogą trochę działać na CPU, a producent zapowiada kolejne aktualizacje i optymalizacje gdzie właśnie CPU ma być lepiej wykorzystany.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, hubio napisał:

ETS2 z 110 modami.

"Modami" to można wszystko popsuć. Na i5 2400 nie miałem freezów w ETS2 ... bez modów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, Kyle_PL napisał:

"Modami" to można wszystko popsuć. Na i5 2400 nie miałem freezów w ETS2 ... bez modów.

Bez modów to ja nie miałem nawet na 1050Ti i i3-8100 :) To jasne. Ale bez modów nie dojedziesz do Chin :) Natomiast w ETS2 te freezy są raz na tydzień więc to praktycznie nie występuje. Ale czasami są. Być może optymalizacja, ale przekonam się po zmianie CPU ostatecznie. Sam rozwieję w końcu ten dylemat o którym tu dyskutujemy. Ale np. też było tak w ETS2, że nawet nie miałem specjalnie dużo modów mapowych, ale mod na zwiększony traffic i np. przy przejściach granicznych jak się ustawiało dużo ciężarówek lagowało mi na i3-9100. Więc tak jakby właśnie CPU nie radziło sobie z dużą ilością ruchomych obiektów. Zobaczymy...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

I mam jeszcze takie pytanie: specjalnie nie brałem 12600K, raz z powodu ceny o 200zł wyższej, ale dwa - ma o wiele większe zużycie prądu. 125W do 60W w idle i 150W do 117W w obciążeniu. Bałem się, że będzie ten K się za bardzo grzał i w związku z tym będzie głośne chłodzenie itd. Mam do niego SilentiumPC Fera 5

Ale jak myślicie - jaka różnica w wydajności może być pomiędzy literką K i bez ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W niepełnym gpu load do 20 procent

  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 minut temu, hubio napisał:

12600K, raz z powodu ceny o 200zł wyższej, ale dwa - ma o wiele większe zużycie prądu. 125W do 60W w idle

i5 12600K do jakiego CPU porównujesz? Jak rozumiem porównujesz na włączonych limitach mocy? Tak poza tym, to i5 12600K bez OC, ale chyba z podkręconym RAM, miał maksymalny wyskok zużycia energii w Cinebench R23 multicore poniżej 120W (czyli średnio pewnie 118W ciągnął)

Poza tym te procesory w IDLE nie pobierają 125W albo 60W, tylko kilka W, co se możesz sprawdzić w hwInfo. NA przykładzie i5 12400f masz 4W z wyskokiem chwilowym do kilkunastu (nie patrz na czerwone zaznaczenie - ten zrzut robiłem do innego wątku):

21f13e9c2162.png

Edytowane przez Kyle_PL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
34 minuty temu, Kyle_PL napisał:

i5 12600K do jakiego CPU porównujesz?

Do i5-12600 (bez literki K)

Cytat

Jak rozumiem porównujesz na włączonych limitach mocy? Tak poza tym, to i5 12600K bez OC, ale chyba z podkręconym RAM, miał maksymalny wyskok zużycia energii w Cinebench R23 multicore poniżej 120W (czyli średnio pewnie 118W ciągnął)

Poza tym te procesory w IDLE nie pobierają 125W albo 60W, tylko kilka W, co se możesz sprawdzić w hwInfo. NA przykładzie i5 12400f masz 4W z wyskokiem chwilowym do kilkunastu (nie patrz na czerwone zaznaczenie - ten zrzut robiłem do innego wątku):

 

Może źle się wyraziłem. sprawdziłem na stronie intela i w sekcji: podstawowa moc procesora było to: 65W (12600)/125W 12600K) a w sekcji maksymalna moc turbo: 150W(12600)/117W(12600K)

PS na stronie benchmark.pl podają TDP 65W(12600)/125W (12600K)

Edytowane przez hubio

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 minut temu, hubio napisał:

Może źle się wyraziłem. sprawdziłem na stronie intela i w sekcji: podstawowa moc procesora było to: 65W/125W a w sekcji maksymalna moc turbo: 150W/117W

i5 12600K ma PL1 125W i PL2 150W, ale tak w najbardziej wymagających "pracach obliczeniowych" (Cinebench R23 multicore) nie pobiera bez OC nawet 120W (więc nie dobije nie tylko do PL2, ale nawet nie dobije do PL1, więc będzie szedł z pełną parą czy limity włączone, czy nie).

Tym czasem przy i5 12600 jest już inna bajka. On ma PL1 65W i PL2 117W, przy czym spokojnie on przebija PL1 (skoro i5 12400f potrafi pobiegać do okolic 76W). Czyli i5 12600 będzie w pełnym obciążeniu (blender/cinebench) pobierał przy włączonych limitach, bez OC, do 117W (pewnie dużo dużo niżej) przez 56 sekund, a później zostanie ograniczony do 65W osiągając wydajność i5 12400f.

12 minut temu, hubio napisał:

PS na stronie benchmark.pl podają TDP 65W(12600)/125W (12600K)

Tu masz wygodne zestawienie (można sprawdzić na stronie Intel, ale komu by się chciało):

https://videocardz.com/newz/intels-5-5-ghz-core-i9-12900ks-alder-lake-cpu-now-available-for-preorder-ships-in-march

Edytowane przez Kyle_PL
  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...