Szanowny Użytkowniku,
Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.
Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.
Administrator Serwisu Forum PC LAB informuje, że:
- Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
- Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
- Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
- Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
- Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności
Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.
Romulus84
-
Liczba zawartości
200 -
Rejestracja
-
Ostatnia wizyta
Odpowiedzi dodane przez Romulus84
-
-
@Kyle_PL Ja mam RTX 3070 od kolegi za 600 zł, za mojego RTX 2060 wziąłem na OLX 700. W BFV lekko wiem, Ja na ULTRA mam teraz 200 i licznik zamknięty, choć gram na LOW, widać więcej, szata roślinna wygląda inaczej i rozprasza jakoś bardziej, jeśli się gra na wynik to na LOW jest lepiej, tekstury tylko mam na ULTRA i jakość siatki, reszta LOW. Jak bym dzisiaj kupował monitor 27 cali, 1440p to chyba nawet wiem jaki LG UltraGear 27GP850P-B, ale na bank minimum do początku 2025 roku nie będę nic zmieniał, a to jest 1500 zł sam monitor, ja teraz 1500 zł wydałem na CPU, GPU i RAM oczywiście już po odliczeniu tysiaka co wziąłem za "stare" swoje podzespoły. Ale np już w WARZONE na LOW mam ~160, w 1440p miałbym ~120 a tam to co patch to mniej klatek. Nie, na teraz mnie nie stać nawet na sam monitor a tak jak wyżej pisałem, ja to do 1440p to na ten moment RTX 4070Ti bym musiał mieć żeby na parę lat mieć spokój i komfort gry. @Send1N Chłopie nawet nie gadaj, ja zmieniałem monitor z 22 cali na 24 to jak zobaczyłem obraz to płakałem, nie dosłownie ale... ja myślałem że oszaleję. Chłopie ja widziałem różnicę i mnie to bolało, aż tak że 14 dni się zastanawiałem czy go nie oddać. 1080p wygląda gorzej na 24 calach niż na 22 ponieważ pojedynczy piksel/plamka jest większa i nawet przy tej samej rozdzielczości a na większej przekątnej obraz jest wyraźnie mniej ostry i to widać, mi to biło po oczach a ja się biłem z myślami czy go nie oddać, tylko nie miałem wyboru i zostawiłem, teraz już się przyzwyczaiłem. 1080p to jest maksimum do 24cali. Ja bym monitor 27 calowy w 1080p wyrzucił przez okno, nie żartuję.
-
@kizi, @sonioOczywiście że tak, nikt z tym nie polemizuje, Ja na 3070 też bym w dużo gier mógł pograć na luzie w 1440p, na wysokich ustawieniach grafiki w 60 klatkach i więcej. "Problem" jest taki że spadek wydajności między 1080p a 1400p to jest 30-40%. I oczywiście że obiektywnie wyższa rozdzielczość, taka jak 1440p jest lepsza niż 1080p, piksel masz mniejszy a co za tym idziesz ostrość obrazu jest lepsza, dokładniejsza, lepiej to wygląda, z tym nikt o zdrowych zmysłach nigdy nie będzie polemizował. Problem i dylematy z nim związane są inne, musisz sobie odpowiedzieć na pytanie w co grasz oraz ile klatek na sekundę to dla ciebie jest dużo i wystarczająco. Ja np nie mam problemów w Elden Ring grać w 60 klatkach, ale np ja akurat 90% czasu gram w BFV czy w WARZONE 2.0 i ja, stojąc przed wyborem ,160 FPSów w 1080p czy 120 w 1440p wybieram bramkę numer jeden, ponieważ przekładam płynność nad jakoś. Na ten moment, biorąc pod uwagę moje upodobania, żebym mógł spokojnie przejść na 1400p i mieć tyle klatek ile lubię to potrzebowałbym minimum RTX 4070Ti a na ten moment nie mogę sobie na niego pozwolić i tu koło się zamyka.😉
-
@Kyle_PL Może cię z kimś pomyliłem, więc może cię trochę za ostro potraktowałem, to nic osobistego. To nie ty gdzieś tu się ze mną przekomarzałeś że 1080p na24 calach to jest pikseloza, i wszyscy musimy grać w 16k? Ty to byłeś, ale dobra mało ważne teraz masz rację. Bez przesady z tym Vram, myślę że mniej niż 6Gb to na pewno już jest trochę słabo a najlepiej to mieć te 8Gb. Mi nie musisz tego mówić bo ja miesiąc temu zmieniałem CPU, GPU i RAM właśnie z 16Gb na 32, dałem 407zł na morele cl16, 3600Mhz. Wiadomo że tekstury są ważne dla wyglądu, no ale co zrobisz, lepiej dac to oczko w dół i zwolnić sporo Vramu kosztem troszkę gorszych tekstur, ...choć tu to różnie bywa bo czasem między ULTRA a wysokie a nawet średnie nie ma zbyt dużych różnic a innym razem są większe..., i móc normalnie grać niż mieć na siłę na ULTRA i zacinającą się cały czas grę.
-
Drugiej strony nie czytałem ale nikt mnie tak nie denerwuj jak @Kyle_PL z tym jego przechwalaniem się sprzętem, człowieku jasne że lepiej mieć RTX 4090 niż 3070 i monitor 1440p lub 4k niż 1080p, tylko nie każdy sobie na to może pozwolić, bo nie każdy może jest tak bogaty jak ty, potrafisz to zrozumieć? Ja mam ten sam system od 5 lat i system mam ogień, mam tak zadbany system że mi wszystko nie chodzi tylko zapi...la, o system się dba a nie się go reinstaluje bo to znaczy że nie umiesz dbać jeden z drugim. @gaav masz ty wszystkich w domu? Co to za porównanie z kosmosu, jak można porównywać RX6800 z RTX 3070, wiadomo że 6800 jest dużo wydajniejsza kartą tylko nie przez to ze mam 16Gb Vramu, to akurat nie ma tu żądnego znaczenie, absolutnie żadnego. To całe Dziedzictwo Hogwartu rzeczywiście jest takim gównem że potrzebuje 32Gb Ramu, u mnie na RTX 3070 ta gra śmiga jak przecinak rozumiecie to i się mi nie zbliża nawet do 8Gb. A co do 8Gb Vramu, jeśli grasz w 1080p to będziesz grał przez najbliższe 2-3 lata na ULTRA w wszystko, a jeśli jakaś jedna czy druga durna gra w 2025 roku ci nie pójdzie jakimś cudem to obniżysz tekstury o oczko w dół czy dwa w ekstremalnym przypadku i znowu będzie śmigać, a różnica w jakości żadna. Myślcie samodzielnie, czytajcie, miejcie swój rozum. Tam na początku kolega jeden z drugim dobrze napisali. Ja mam od dwóch miesięcy RTX 3070, a miałem RTX 2060 z 6Gb i nie było gry co bym mi nie działała w dobrej jakości grafice i w wysokim klatkażu, oczywiście w 1080p, bo 1440p to jest inna para kaloszy, do 1440p to 12Gb jest tym czym 8Gb dla 1080p. Powiem więcej, RTX 2060 z swoim 6Gb Vramu będzie dawał rady w najnowsze gry przez minimum 2 najbliższe lata w wysokim klatakżu i w dobrej jakości ustawieniach graficznych, a jak czasem za 2 lata jakaś gra się przytnie to o oczko w dół, czy dwa, tekstury i dalej jazda opór na pełnym ogniu, taka jest prawda. Dobrym przykładem jest WARZONE 2.0 tam w opcjach pokazuje jakie jest zużycie Vramu dla każdego z poziomu jakości ustawienia tekstur i tak na różnica między wysokie a normalne 1,8Gb, miedzy normlane a niskie kolejne 1,5 Gb dalej już mówić nie muszę, a różnica w jakości żadna, minimalna między wysokimi a niskimi, na bardzo niskich już widać ze jest gorzej. Po trzecie według ankiety STEAM o sprzęcie 80% ludzi, graczy, ma 8Gb Vramu lub mniej i gra i chce grać i będzie grać i jak to jest? To oni te gry do @Kyle_PL będą tylko robić tak dla tych 10% ludzi może? Jedzie mi tu czołg, a strzela? Po któreś tam NVIDIA nie wie jakie wypuszcza karty. Podsumowując pękam ze śmiechu jak czytam że do 1080p 8Gb Vramu nie starczy, RTX 2060 z 6Gb wam starczy na 2 lata i we wszystko pogracie jak tylko nie jesteście jakimiś taki ludźmi co to muszą mieć wszystko i zawsze na ULTRA UBER MEGA +++++ jakość grafiki na monitorze 16k.
-
@wrobel_krk Ja za parę dni będę miał identyczną kartę od PNY, przez to pytam. Ludzie nie róbcie z ludzi idiotów bo chyba wiem jaką będę miał kartę i dlatego pytam. No ja wiem że tam będzie przejściówka no ale ja pytałem o coś innego. Jak Ja mam dwa kable z zasilacza tak, dwa osobne kable (6+2) pin i napisałem że mogę odpiąć po dwa piny od każdej wtyczki to przecież będzie 12 pin, to nie wiem po co mi ta przejściówka? Jeszcze raz, od zasilacza z dwóch gniazd idą dwa osobne kable PCI-E, dwie linie od zasilacza, oba są (6+2) więc po co mam dodawać przejściówką jak ja z każdej wtyczki mogę odpiąć dwa piny, rozumiecie, te wtyczki od tych kabli z zasilacza mają odpinane 2 piny, to przecież 6+6 daje 12, więc nie wiem po co mam używać tej przejściówki? PS @wrobel_krk A to jest twoja karta, masz tą kartę jak się spisuje... taktowanie, temperatury, kultura pracy? Do mnie właśnie jedzie identyczna.
-
Mam taki zasilacz Vero M2 Bronze 600W - SilentiumPC, on ma dwa kable PCI-E (6+2), jednym mam podłączonego RTX 2060 a drugi leży w szufladzie. Na dniach będę miał RTX 3070 który ma Jedno 12-stykowe dodatkowe złącze zasilania (w zestawie adapter 12-stykowy na dwa 8-stykowe) i wiadomo, podłączenie jej jest banalne tylko czy ja muszę korzystać z tego adaptera? A mogę zrobić tak, wypnę 6+2 pin z obecnej karty, odepnę 2 piny bo ten kabel ma normalnie odpinane 2 piny, do zasilacza podepnę drugi kabel PCI-E 6+2 i tak samo rozłączę 2 piny i podepnę do karty i będę miał 6+6 bez żadnego adaptera. Mogę tak zrobić prawda, na logikę tak jest nawet lepiej bo bez żadnego adaptera, ale że nigdy tego nie robiłem to wolę zapytać
-
To jest takie gadanie, a każdy zamiast kupić CL 18 np 3600 Mhz to woli kupić cl 16 ze mną na czele.
-
@Send1N Podkręcanie pamięci daje właśnie dużo, sam mam RAM 3000 Mhz cl 15 podkręcony na 3333 Mhz z takimi samymi opóźnieniami i w grach mam więcej klatek. Jak miałem w BFV powiedzmy te 160 to teraz mam 170 klatek na LOW, bo na takich ustawieniach grafiki gram w gry kompetytywne.
-
Napisze tu choć chyba wiem ale wolę się upewnić. Mam taki zasilacz Vero M2 Bronze 600W - SilentiumPC, on ma dwa kable PCI-E (6+2), jednym mam podłączonego RTX 2060 a drugi leży w szufladzie. Na dniach będę miał RTX 3070 który ma Jedno 12-stykowe dodatkowe złącze zasilania (w zestawie adapter 12-stykowy na dwa 8-stykowe) i wiadomo, podłączenie jej jest banalne tylko czy ja muszę korzystać z tego adaptera? A mogę zrobić tak, wypnę 6+2 pin z obecnej karty, odepnę 2 piny bo ten kabal ma normalnie odpinane 2 piny, do zasilacza podepnę drugi kabel PCI-E 6+2 i tak samo rozłączę 2 piny i podepnę do karty i będę miał 6+6 bez żadnego adaptera. Mogę tak zrobić prawda, na logikę tak jest nawet lepiej bo bez żadnego adaptera.
-
Ale PCI-E 3.0 w zupełności do obecnej generacji kart wystarczy i nie powoduje żadnego, podkreślam, żadnego spadku wydajności no chyba że będziesz grał w 8k.
-
1
-
-
@Rimpix Wiem że temat stary ale może komuś się przyda. Nie przywróciło ci czasem fabrycznych ustawień UEFI czy restart profilu XMP? Teraz te zabezpieczenia robią tak że jak nie ma minutę prądu to komputer włącza się 3 minuty i restartuje wszystkie ustawienia UEFI a co za tym idzie restartuje się profil pamięci XMP i tak jak miałeś taktowanie w XMP powiedzmy 3000-3200Mhz to restart powoduje spadek do 2000 a co za tym idzie zaraz ci spadną klatki w grze bo karta nie będzie pracowała na maksa z tak nisko taktowanym RAMem. Ja tu akurat jestem bo wczoraj miałem ten sam problem i też w BFV i okazało się że zrestartował mi się profil pamięci RAM XMP i taktowanie spadło do 2000Mhz tylko i to spowodowało od razu niskie zużycie GPU.
-
Dwie sprawy, albo jesteście aż tak słabi z matematyki albo źle nakładacie pastę, dajecie jej po prostu zbyt mało. Potrzeba 0,7-0,8 grama pasty na jedno nałożenie. Mój sposób nakładania to duży X (moim zdaniem najlepszy sposób) bez dojeżdżania do samych rogów żeby nie wypłynęła. Składam komputery od lat, rodzinie, kolegom, znajomym i przestańcie opowiadać bzdury, w życiu gram pasty nie wystarczy na trzy razy a nawet na dwa razy nie wystarczy. Minimum minimorum na upartego to na te dwa razy na siłę da rady, choć moim zdaniem, a mam duże doświadczenie, 0,5 grama na dobre, solidne, uczciwie i poprawne zrobienie dużego X (bez dojeżdżania do samych rogów) na procesory AMD/INTEL NIE WYSTARCZY. Oni już to mają dobrze policzone, 1 gram na raz starczy na luzie, ale zostanie wam 0,2-0,3 grama z którymi nic nie zrobicie, przez to lepiej kupować tubki kilku gramowe, które wystarczą wam spokojnie na kilka razy.
-
1
-
-
@Roberto78 Ja gram praktycznie tylko i wyłącznie w Battlefield V, CoD... w tytuły kompetytywne i tam różnica między 60 klatkami na 60Hz monitorze a 165 klatkami na 165Hz monitorze jest jak różnica między krzesłem a krzesłem elektrycznym. Od dwóch lat mam 165Hz monitor, przedtem oczywiście 2 lata grałem w BFV na 60Hz monitorze i jak pierwszy raz zobaczyłem, doświadczyłem, poczułem jak płynna jest ta gra właśnie na 165hz monitorze w 165 klatkach to omal nie spadłem z krzesła a szczęka opadła mi do podłogi i z godzinę nie mogłem jej podnieść, aż tak. Zgodzę się że w grach TTP, w grach singlowych 60 klatek starczy ale mówię ci że ja 95% czasu gram w Battlefield'a V a tam różnica jest taka jak napisałem zdanie wyżej, choć i tak lepiej mieć 120 klatek w każdej grze ale w sieciowych strzelankach jest to dzisiaj absolutnie konieczne. Nie zgadzam się, akurat karta nie ma działać na pół gwizdka tylko ma chodzić na 99-100% bo po to się kupuje kartę żeby kręciła jak najwięcej FPSów. Ja liczę na to że para RTX 4070Ti/i5-13600KF pozwoli mi przez parę lat cieszyć się grą, w moje ulubione kompetytywne tytułu, w stu kilkudziesięciu klatkach w rozdzielczości 1440p.
-
@ MrUxor Na dniach będę kupował części i składał komputer i też kupię 4070Ti a do niej tylko i wyłącznie... i najlepszym kompromisem jest i5-13600KF. Wydajniejszy o 2% byłby i7-13700K a o 4% i9-13900k w 1440p ale żaden z nich się nie kalkuluje finansowo. @Raidenorius Co ty mu mącisz w głowie jakimiś Hz? Dzisiaj minimum minimorum to 144Hz, pomyśl logicznie kto kupuje RTX 4070Ti do 100 Hz albo jeszcze lepiej do 60Hz? Rozdzielczość już ma większe znaczenie bo wiadomo jak byś chciał maksymalnie wykorzystać wydajność 4070Ti w 1080p to i5-13600KF będzie tu lekkim wąskim gardłem ale nawet w tej rozdzielczości procesor ten wypada bardzo dobrze na tle niesamowicie drogiej, a co za tym idzie, całkowicie nieopłacalnej i9-13900K, ustępując jej tylko o 7%. Sam mam monitor 165Hz w 1080p i na pewno kilka ładnych miesięcy będzie on ze mną nim uzbieram na coś sensownego w 1440p z odświeżaniem 144hz.
-
@carver88 Nie wiem czy już kupiłeś czy nie ale napiszę co uważam, absolutnie nie kupuj 5-12400F bo będzie on powodował bottleneck nawet w 1440p gdzie karta sama w sobie jest już ładnie obciążona. Nawet i5-13400f powoduje już za duże straty, dla mnie nieakceptowalne i Tobie też go odradzam. Sam się przymierzam do zakupu części i poskładania sobie nowego PC i dla mnie najrozsądniejszym wyborem jest i5-13600KF, ewentualnie takie minimum minimorum to jest i5-13500 ale ja wezmę ten pierwszy. Co do pamięci, tak na 100% jeszcze nie podjąłem decyzji czy kupić DDR4 czy DDR5, tak szczerze to bardziej skłaniam się ku DDR4 bo kupując RTX 4070Ti będę ciął gdzie się da a na dzień dzisiejszy różnice są bardzo nie wielkie na rzecz tych drugich a do tego musisz do płyty dołożyć minimum 300 zł a do samych DDR5 200zł, więc...sam nie wiem ale raczej wybór padnie na DDR4. Ja wiem że DDR5 za 1-2 lata będą prezentowały wyższą wydajność a ceny będą spadać i jest to na pewno bardziej rozwojowa platforma ale... ja i tak skłaniam się ku DDR4. Masz tu materiał na YT, tu jest mowa o 4080 ale to bez różnicy bo 4080 jest mocniejsza od 4070Ti więc każdy procesor który da rady 4080 da sobie tym bardziej rady z 4070Ti.
-
1
-
-
@Wu70 Nie, będę budował cały komputer. Mam RTX 2060 i jakiś rok temu wymieniłem R5 2600 na R5 3600 i w Battlefield'dzie V, mojej ukochanej grze, klatki w górę z średnio 120-130 do 150-180 więc super. Rozważałem zakup 5600 ale z tym RTX'em moim nie dało by to już nic więcej bo właśnie w takiej parze 2060-siątka byłaby wąskim gardłem. Mnie martwi to że mi chyba starczy 24 calowy monitor w 1080p, a zależy mi na jak najwyższej ilości klatek i to jest problem bo jak bym wziął taką 3070Ti czy nawet 3080, to o ile w 2k i czy 4k byłoby super to w 1080 procesory ze średniej półki stanowią właśnie wąskie gardło. Moim zdaniem nawet taki Intel Core i5-12400F jest zdecydowanie wąskim gardłem dla RTX 3070Ti w rozdzielczości 1080p. Jaki ja bym musiał mieć procesor żeby w 1080p nie był on wąskim gardłem dla 3070Ti/3080 i wycisnął z tych kart każdy jedne FPS?
-
@Wu70 Powiedz mi takie coś, bo zamierzam składać komputer, czy R5 5600 nie będzie wąskim gardłem dla 3070 a nawet rozważam zakup 3070Ti z tym samym procesorem? Ten jeden kalkulator co jest w necie pokazuje że będzie i mi też się tak wydaje, a z drugiej strony TechLipton ma ten procesor w zestawach i do 3070 i do 3070Ti. Ja właśnie praktycznie tylko gram w gry kompetytywne głownie Battlefield V i CoD i mi zależy na wysokim FPS. Ja teraz mam średnio 170 klatek a sobie kupie może i 240 Hz, teraz mam 165Hz, więc mi zależy jak najbardziej na wysokim FPSie. Wiem że w takich grach procesor daje dużo bo mam teraz RTX 2060 i do niedawna miałem R5 2600 a teraz mam R5 3600 i mocno mi wzrosły klatki w BFV, powiedziałbym że nawet o około 20%. Co byś powiedział, jaki procesor do 3070 a jaki do 3070Ti żeby w pełni wykorzystać potencjał procesora jak i karty?
-
Co jest to wyraźnie lepsze chłodzenie ta cała FERA 5 od FERA 3? Nie wiem czy jest w ogóle lepsze a jak już to minimalnie. Mam FERA 3 i od kilkunastu dni chłodzi mi R5 3600 (poprzednio R5 2600). Temperatury w spoczynku to średnio 32-40 a pod obciążeniem rzadko 65 stopni przekraczają. Jeśli masz FERA 3 to nie ma sensu kupować nic innego, najmniejszego sensu... to chłodzenie sprawdza się świetnie, jest cichutkie i trzyma niskie temperatury. Założę się o każde pieniądze że z palcem w d... poradziłoby sobie np z takim bardzo popularnym obecnie R5 5600X... za palcem w d... .
-
A odkopię sobie temacik. Mam te same pamięci co kolega tylko 3000 Mhz, niby CL 15 ale z profilem XMP włączyły sie na CL 16 i 1,35 V i tak mi chodziły 3 lata. Niedawno zwiększyłem im taktowanie do 3200 Mhz i tu sedno, u mnie na napięciu 1,35 V nie są stabilne. Pochodzą 1-2 dni i BSoD. Mam je na 3200 Mhz na napięciu 1,38 V i na tym napięciu są stabilne. Mógłbym próbować obniżyć do 1,37 czy nawet 1,36 tylko po co? Napięcie 1,38 V jest całkowicie bezpiecznym napięciem dla tych pamięci.
-
@Jimmy15 Masz rację, od dawna znam tę stronę i ona naprawdę w miarę dobrze pokazuje FPS ale tylko na ULTRA, zapamiętajcie to sobie tylko wynikom ULTRA można wierzyć i żadnym innym. Jeśli zmienicie jakość grafiki na jakąkolwiek inną wyniki będą całkowicie niewiarygodne i przekłamane 2 a nawet 3 razy. Nie wiem dlaczego tak jest ale tak jest tylko ULTRA jest wiarygodne i nic innego.
-
Wiem ze podkręcanie nie niszczy procesora ale nie ma żadnego sensu i to chciałem powiedzieć, żadnego. I zostało to udowodnione setki razy w sieci przez gości co się znają na tym. Za dwa dni będę miał R5 3600 ale wiem o tym procesorze więcej już teraz niż niejeden co go ma.
-
@lukibossss Czekaj, bo nie nadążam, masz Gigabyte Aorus B450 Pro i na nim jaki procesor R5 2600 czy R5 3600? Bo piszesz że ci komp nie wstaje? Ja mam tą płytę a na niej R5 2600 i przez 3 lata nie miałem z tą płytą żadnego problemu, mam BIOS F2 czyli drugi, teraz już jest ich 15, i na tym BIOSI'e F2 właśnie przez długi czas miałem R5 2600 podkręconego do 4,2 Ghz a RAM mam podkręcony do dziś do 3200 Mhz z 3000 i nigdy żadnego problemu ani z procesorem ani z RAMem a komp mnie nie zwiódł nigdy. Ten gość z Video Blog Test używa tego BIOOSu co ja i zgodzę się tylko z jednym, ten BIOS F2, bo może w wyższych numerach to zmienili, nie wiem za niedługo to sprawdzę, nie nadaje się do podkręcania ale nie wiem jaki wy macie problem z podkręcaniem w AMD Ryzen Master? Ja wolę ten program nawet niż podkręcanie w BIOSie/UEFI. Teraz się odniosę jak byś miał na myśli R5 3600 na tej płycie bo może ten procesor miałeś na myśl właśnie. To za tydzień tu napisze bo dzisiaj mi gość go wysyła z OLX i za niedługo wszystko będę wiedział ale ci powiem już że mi się nie chce wierzyć że komp mi raz na 5-10 razy będzie wstawał. Nie znasz się na niczym a jak to prawda to masz coś zepsute. Ja połknę swój język tu przy wszystkich jeśli u mnie też tak będzie a za tydzień to będę już wiedział i się sam przekonam. Nie omieszkam tu napisać czy tez mi kom będzie wstawał 1 na 5-10 razy bo na razie to mnie ogarnia ale pusty śmiech. Zaktualizuję BIOS do F-40 albo nawet do F-61 i nie omieszkam napisać czy mi też komp będzie wstawał tylko 1 na 5-10 razy. Na razie mnie to śmieszy. @barack.obamowski Wiesz z czego to wynika? Chcę się mylić ale moim zdaniem z głupoty ludzkiej i niewiedzy a @lukibossss moim zdaniem się nie zna i ma cos zwalone na komputerze. Za tydzień, za dwa może po potestuje trochę, wrócę tu i napiszę ci czy mi też kom wstaje raz na 5 razy. Ja ci mówię że u mnie tak nie będzie.
-
Śmieszni jesteście a nie wiecie nic, kompletnie nic, podkręcanie Ryzen'ów nie ma żadnego, najmniejszego sensu, najmniejszego i w grach nie da wam to nic. Wiem co mówię bo mam R5 2600 który się kręci do 4,2 i w grach nie daje to nic, NIC. Może 1-2 FPS w niektórych grach ale od podstawowego FPS w okolicach 130. W tym tygodniu będę miał R5 3600 który się kręci do 4,5 Ghz ale już wiem bo ma googla , YT i Internet że nie daje to nic, albo prawie nic. Naprawdę 3 FPS więcej jak ma się bazowo 130 klatek to moim zdaniem nie jest warte żadnego podkręcania. Jeśli w Wiedźminie 3 masz bez OC 132 FPS to po OC do 4,4 będziesz miał 135. No naprawdę się opłaca. Rendering wypada trochę lepiej, Cinebench R20 – renderowanie za pomocą wszystkich rdzeni OC 4,4 to jest ~4000 a bez OC ~3600. I cały czas trzymacie na sztywno, zależy od modelu te 4,2 czy 4,4 w zamian mając wyższe temperatury i cały czas żyłowany procesor. Ja wiem że to nie szkodzi procesorowi jak się nie przesadza z napięciami ale warto to tak na chłopski rozum cały czas tak wysoko trzymać taktowanie jak daje to tyle co kot napłakał. Konkluzja moja jest tak, do gier nie opłaca się w ogóle podkręcać Ryzen'ów może ewentualnie do renderowania.
-
1
-
-
@MrKetiw Znowu nie czytasz ze zrozumieniem, my właśnie mówiliśmy o R5 2600 i cenie jaką można za nie wziąć jak się trochę poczeka. Mi dzisiaj właśnie kolega wysłał za pobraniem R5 3600 za 720 zł. Jutro, pojutrze u mnie będzie. Od miesiąca śledzę OLX i nigdy nie widziałem taniej niż za 700 zł, a te za tyle wystawione znikają niemal natychmiast.

Już nie wytrzymam z tym 8GB vram...
w Karty graficzne
Napisano · Edytowane przez Romulus84
Myślałem żeby już nie pisać, bo znając swój rozwlekły styl zajmie mi to z 15 minut... już zacząłem, ale podkusiło mnie coś. Co do 24,5 to ja wiem że to tylko pół cala, ale tak szczerze nie mogę ci odpowiedzieć czy nawet tyle więcej bym przebolał, pewnie może i tak bo to w sumie tylko pół cala ale ręki bym sobie uciąć nie dał. Widzę że mamy te same CPU. Gorący jest na stockowych co i z tego co czytałem nawet wodne chłodzenia bardzo tego nie zmienia? Wiesz że mój BIOS choć najnowszy nie miał PBO, no nie miał, pisałem do GIGABYTE żeby dodali PBO i Curve Optimizer i dodali, dziękując mi 2 razy za to że im zwróciłem na to uwagę, nie dodali, zapomnieli. Miałem ten BIOS tydzień szybciej niż oficjalnie dodali go na swoją stronę. Jakiś miesiąc jechałem na ustawieniach domyślnych, w Cinebench23 90 stopni to miał w sekundę, AMD mówi że może tyle mieć i jest to jak najbardziej ok i że one tak zostały skonstruowane do działania w takich temperaturach etc etc i ja wiem że mu by się nic nie stało, ale nie chciałem w BF2042 cały czas mieć 91 stopni, cały czas. Ja wiem że te CPU mają zabezpieczenia, algorytmy co więcej niż 90-91 nie pozwolą przekroczyć i zbijają zegary CPU nie pozwalając zrobić mu krzywdy i może sobie tak 24 godziny renderować w 90 stopniach i nic mu nie będzie, ale mnie to gnębiło, a też mam jedno z gorszych, bo tylko Ferę 3, chłodzeń. Więc ucieszyłem jak dostałem wiadomość że mogę sobie już ten BIOS z PBO pobrać, ten BIOS mogłem pobrać -here- z przekierowania, z ich prywatnej wiadomości, na taką stronę gdzie można różne rzeczy dodawać. I tak nie mogę np wiesz... do każdego rdzenia dobrać indywidualnych wartości, tego i tak nie mam w tym BIOSie ani w ADM Ryzen Master, ale dobra dałem -30 (1counts to 3mV do 5mV) na wszystkie rdzenie, nie łyknął, w ciągu godziny dwa razy się wyłączył, dobra dałem -28, tez nie łyknął, podziałał pół dnia i się tez wyłączył, to się wkurzyłem i dałem -25 i ok łyknął, to znowu myślę zostawić czy próbowac -26, dobra dałem -26 tydzień nic, wszystko ok, gry... wszystko, wczoraj mi się wyłączył, ale tak normalnie zamykanie systemu i się wyłączył. Wydaje mi się ze to nie przez zbyt niskie napięcie tylko jakiś błąd w systemie, i dalej ustawiłem na -26 i zobaczymy, jak się wyłączy znowu to będę wiedział, a jak się nie wyłączy to znaczy ze jakieś oprogramowanie albo Windows spowodowały wczorajsze wyłączenie. Co do tych -25, -26 to jest to super sprawa, temperatury w dół o 7-9 stopni a zegary w górę o 200Mhz. Nie ma o czym nawet dyskutować, undervolting tego CPU to jest po prostu jego OC. @Send1N a jak u ciebie się sprawy mają z tym 5800X3D? 🙂