Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

Romulus84

Forumowicze
  • Liczba zawartości

    200
  • Rejestracja

  • Ostatnia wizyta

Odpowiedzi dodane przez Romulus84


  1. Jasne że teraz FERA 3 nie ma sensu, w ogóle już nie produkują tego chłodzenia, ale ja składałem komputer w 2019 roku a wtedy to FERA 5 była dopiero na deskach kreślarskich. Teraz mam już trzeci procesor, 5800X3D, i cały czas moja FERA 3 spisuje się rewelacyjnie, po UV -27 na każdym rdzeniu pod maksymalnym obciążeniem w cinebench23 maksymalnie dochodzi do 85-86 stopni a w wymagających grach średnio 75-82, więc jest bardzo dobrze.


  2. To jest druga bateria, druga nowa wyjęta z pudełka ponieważ oczywiście to tez było moim pierwszym podejrzeniem. Program HWiNFO pokazuje napięcie VBAT 3.264. Czy jak by tej baterii nie było w ogóle to tez by pokazywał taką wartość? Zresztą wymieniłem niepotrzebnie te baterię bo ta pierwsza co mam ją teraz w stoliku jest tak samo dobra i to nie ona jest winna. Mam jeszcze dwie nowe ale nie będę tego sprawdzał bo nie ma to żadnego sensu, to nie jest bateria, a do tego dojście tam nie jest najłatwiejsze bo karta graficzna nachodzi na gniazdo CMOS. Jak będę zmieniał pastę na CPU za jakiś miesiąc, dwa to jeszcze raz sprawdzę z trzecią baterią ale szansę na to że to jest bateria oceniam na 2% jak nie na 1%. A tak z innej beczki, do 5800X3D nada się 4090? Przejdę na 1440p z 1080p więc mowa o 1440p. Choć w sumie to nawet jakiś czas mogę i zostać na 1080p, zależy jak z kasą wyjdę. Z tego co czytam to w 1080p średni bottleneck to cos koło 12% a w 1440p koło 8%. To nie jest wcale dużo i jest jak najbardziej dla mnie akceptowalne. Uparłem się na 4090 ponieważ ja zaraz po premierze serii 5000 będę miał okazję kupić ją za cenę 4080 jak nie taniej od kumpla, więc chcąc nie chcąc za te samą cenę chyba lepiej mieć 4090 z pewnego źródła niż 4080 z OLX?


  3. No dobra to zawsze coś, tylko ja tego sam nie zrobię. Czy to jest takie ważne, czy mogę to zignorować i korzystać jak korzystałem z płyty bo problem z tym mam jak nie od 5 lat to na bank od 3 już. Mogę to olać? Sam tego nie mam szans zrobić nawet jak to jest i to, a też to pewne nie jest. Jest to aż tak ważne jak prądu nie mam raz na kilka miesięcy może a tak poza tym wszystko działa bardzo dobrze? Muszę się tym przejmować czy mogę to tak zostawić i tyle? Nie uśmiecha mi się pozbawienie się komputera na minimum myślę 2 tygodnie jak nie dłużej?


  4. Tak jak w tytule, to tak w skrócie a że nie umiem pisać ani zwięźle ani krótko więc będzie bardzo długo i niepotrzebnie rozwlekle ale w miarę dokładnie. Zacznę od opisania problemu. Jak wyłączę komputer prawidłowo, czyli Start, zasilanie, zamknij system i potem włączę to wszystko jest ok, ale jak zamknę komputer prawidłowo a potem na zasilaczu odłączę prąd, dam z 1 na 0 na dłużej niż 5 sekund, (co dziwne, jeśli nie jest to dłużej niż 5 sekund BIOS się nie resetuje) lub wyciągnę normalnie wtyczkę z gniazdka w ścianie, resetują mi się ustawienia BIOSu do domyślnych a komputer dosłownie włącza się około 2 minut. Bateria CMOS oczywiście zmieniona, choć niepotrzebnie bo stara była dobra, ale oczywiście o tym pomyślałem w pierwszej kolejności, napięcie VBAT mam 3.264. Płytę B450 Aorus Pro od Gigabyte mam od początku roku 2019 i od tego czasu miałem 3 CPU i z 10 BIOSów, jak nie lepiej, i na każdym BIOSie to samo więc to nie BIOS. Na początku miałem drugi BIOS chyba F2 i R5 2600, potem po dwóch latach zmieniłem CPU na 3600, to wiązało się za aktualizacją BIOSu, w tym kilku pośrednich i wtedy zauważyłem problem. Od roku mam 5800X3D i znowu aktualizowałem parę BIOSów i na każdym jest to samo, więc to nie BIOS na 100%. Jak odłączę zasilanie na dłużej niż 5 sekund, do 5 sekund wszystko jest ok, to resetuje się BIOS a komputer dosłownie włącza się około 2 minut. Jak już się włączy na domyślnych i znowu wyjmę wtyczkę z sieci to tak czy siak będzie się 2 minuty włączał i znowu będzie pisało reset ustawień i tak cały czas jak odcinam go od prądu. Więc to nie żadne ustawienia w BIOS, które mam w sumie tylko dwa XMP, i PBO na -26. Niedawno mi się przypomniało że jak na początku miałem R5 2600 i ten F2 BIOS, drugi najstarszy BIOS, to jak nie było prądu to musiał mi się już wtedy BIOS resetować, bo w Battlefieldzie V spadały mi klatki, ale wtedy jeszcze komputer włączał się szybko, więc nie mogłem się połapać o co chodzi i dopiero po kilku godzinach grania kapowałem się że mi XPM wywaliło i RAM chodzi na 2133Mhz, ale wtedy jeszcze nie wiedziałem że to przez brak prądu i reset BIOSu. Wiadomo prądu nie ma bardzo rzadko, więc ustawiałem XMP na 3333Mhz i znowu wszystko działało kilka miesięcy. Wtedy już musiał mi się BIOS resetować, od samego początku, jak nie było prądy w domu, tylko że wtedy jeszcze włączał się normalnie czyli szybko i nie połapałem się o co chodzi. Od 3 lata i od 3600 wiem o problemie ponieważ komputer po odcięciu od zasilania długo się włącza więc wiem że znowu jest reset BIOSu. Niech to wybrzmi raz jeszcze, jeśli zamknę system prawidłowo, start, zasilanie, zamknij system, i idę spać a w nocy nie wyłączą prądu, to wszystko działa jak należy, nie resetuje BIOSu, ale jak w nocy kilka razy do roku nie ma prądu albo świadomie na dłużej niż 5 sekund odłączam zasilanie to od razu i za każdym razem jest reset ustawień BIOSU i przywrócenie do domyślnych. Dodam jeszcze że złego słowa nie mogę powiedzieć na działanie mojego komputera, powiem więcej, jestem bardzo zadowolony z jego pracy, nigdy żadnych problemów z niczym... na żadnym CPU ani na żadnej karcie, a miałem 3 różne CPU i dwie karty. Komputer mi śmiga idealnie. Pisałem do support'u gigabyte ale oni tylko powiedzieli że ich inżynier sprawdzał i u nich tak się nie dzieje i mam płytę oddać do serwisu? Chyba ich po...bało że to zrobię i miesiąc będę siedział na jakimś gracie nadającym się co najwyżej do Internetu. Czytałem że spuchnięte kondensatory albo na elektrodzie że niby gość jakiś tranzystor SMD miał "zepsuty" i jak to naprawił to wszystko zaczęło działać, ale po pierwsze nie znam się na tym, nie umiem lutować, nawet nie wiem czy bym poznał spuchnięty kondensator, nigdy takowego jeszcze nie widziałem, a po drugie serio, 5 lat może mi komputer działać z taką awarią i nic więcej się nie dzieje nie postępuje to nic a nic? Powiedzcie mi co o tym myślicie tak ogólnie oraz czy to jest takie ważne i poważne że muszę się tym zajmować, 5 lat prawdopodobnie tak mam, 3 na pewno i nic innego się nie dzieje... jest to aż takie ważne i niebezpieczne? Bo szczerze ja to tak zostawię i nie zrobię z tym kompletnie nic tak jak nie zrobiłem 5 lat. Macie jakieś pomysły co by to mogło być? Lutował nic nie będę bo nie umiem ale BIOS soft sranie w banie mogę posprawdzać bo na tym się trochę znam? Mam jeszcze jedno pytanie, czy jak wyjmę baterię CMOS i komp się zresetuje to cały czas się będzie resetował z każdym kolejnym włączeniem  wyłączeniem i znowu włączeniem komputera czy tak jak teraz o ile po prawidłowym zamknięciu PC jest prąd w sieci to włącza się normalnie i nie ma resetu BIOS? Tak, to jest ważne, bo nie próbowałem tego, ale na logikę jeśli by się za każdym razem BIOS resetował bez baterii CMOS nawet podczas normalnego prawidłowego zamykania i włączania PC, to by znaczyło że z CMOS i baterią na 100% wszystko jest w porządku, ponieważ teraz tak nie robi. 


  5. @Duncan_ Dokładnie tak, ten kalkulator się zepsuł już do końca. To sam u mnie, rok temu zmieniłem CPU i GPU na 5800X3D i RTX 3070 i sprawdzałem w tym kalkulatorze i pokazywał 4 czy 5% bottlneck'u tylko i że CPU i GPU będę idealnie ze sobą współpracowały w 1080p, bo do 10% tam pisze że jest ok i nie ma się czym przejmować. Kilka tygodni temu z ciekawości sprawdziłem, to samo CPU i GPU, 5800x3d i RTX 3070 i magicznie 22% w zadaniach ogólnych, oczywiści tez w 1080p. Przecież to jest kpina, ten kalkulator jest po prostu szkodliwy, on zawsze faworyzował karty że tak to powiem no ale to co się z nim stało od kilku miesięcy to jest po prostu tak irracjonalne że stał się on po prostu szkodliwym narzędziem. 

    • Haha 1
    • Confused 1

  6. To zacznę od końca a ja właśnie lubię ten ostry obraz w Wiedźminie 3, jest taka opcja wyostrzenie (Sharpen) i 3 opcje wysokie niskie wyłączone, ja mam na wysokie i wtedy jest rzeczywiście kosa, kiedyś chyba wolałem niskie, wszystko było takie łagodniejsze, ale teraz jak zmieniłem na wysokie to poprzednie ustawienie wydaje mi się rozmyte takie jakieś, ale to jest kwestia gustu, antyaliasing mam na TAAU. Szczerze, to choć DLSS w wieśku nie działa źle to jednak wolę swoje ustawienie bo wydaje mi się i tak trochę rozmyty, nawet na ustawieniu DLSS na jakość, ale tak jak mówię, DLSS jest dość dobrze zaimplementowany w tej grze ale nie idealnie.

    W Shadow of the Tomb Raider znowu DLSS jest zaimplementowany idealnie i na opcji jakość jest nie do rozróżnienia od wyłączonego, za to jest 235 klatek z cieniami na ULTRA, a z RT na ULTRA i DLSS 190, a bez DLSS i z RT na ULTRA 140. Gram na pierwszej opcji a to dlatego że choć w grze jest dżungla i mnóstwo okazji do popisu dla RT to jest on zaimplementowany słabo, jak mam DLSS i cienie na ULTRA to wygląda to lepiej niż z RT który z automatu wyłącza cienie. Do tego tak jak pisałem, nie dość że najbardziej mi się to ustawienie podoba w sensie wyglądu gry to jeszcze tak się złożyło że mam na nim najwyższy FPS. Oczywiście miejsce wybrałem zupełnie przypadkowe bo oczywiście że nie wszędzie mam 235 klatek ale chciałem pokazać jak wygląda w mojej opinii zależność jakoś-wydajność z ON-OFF tymi trzema opcjami w tym tytule. Znowu w grze Rise of the Tomb Raider, chyba tego samego studia, DLSS był zaimplementowany beznadziejnie a rozmycie aż raziło po oczach, grałem z wyłączonym i co na to powiecie? Dwie gry tego samego studia i zupełnie inaczej zaimplementowany i działający DLSS.

    Jest taka gra CONTROL i tam RT znowu jest przecudownie zaimplementowany, jak jesteśmy na początku gry w tym budynku FBI czy jakoś inaczej nazwanej służby, nieważne, to tam są takie gabloty szklane i nasza postać się w nich po prostu mogła przeglądać, coś cudownego, nie widziałem innej żadnej gry z tak przecudownie zaimplementowanym RT, wyglądało to po prostu prze kozacko. Tak że to wszystko zależy od konkretnego tytułu.

    Teraz jeszcze o rozdzielczościach ogólnie, ja jeszcze 3 lata temu miałem monitor 22 calowy, teraz mam 24 calowy, obaj w 1080p. PPI na 22 calach to 100 a na 24 calch 92 i ja dosłownie dwa tygodnie nie mogłeś spać bo cały czas myślałem żeby ten monitor zwrócić. Tan nowy wydawał mi się pikselozą w porównaniu z tym 22 calowym gdzie piksel był mniejszy a ich zagęszczenie na cal wyższe, aż tak, więc niech mi ktoś tam nie mówi że ja nie wiem jaką rozdzielczość ma wpływ na ostrość obrazu. Przyzwyczaiłem się i monitor zostawiłem bo jest 165Hz ale dwa tygodnie myślałem czy go nie oddać. Ja monitor 27 calowy w 1080p bym wywalił przez okno w sekundzie, na 27 calach 1080p to jest pikseloza-gigantoza. 27 cali w 1440p daje PPI (piksel per inch) 108 i na pewno wygląda to dużo lepiej, tym bardziej na większej przekątnej niż 1080p na 24 calach przy PPI tylko 92. Oczywiście świat idzie w kierunku wyższych rozdzielczości i bardzo dobrze, ale wszyscy zachwycaliśmy się grafiką na 22-24 calach w 1080p dekadę jak nie więcej, więc nie mówcie mi że nie da się takiego monitora używać bo się da i wygląda to zupełnie akceptowalnie dobrze i tyle. Do tego cały czas ma przewagę w wydajności, a jak ktoś gra tylko w gry kompetytywne i celuje w 200 i więcej klatek to ma to cały czas duże znaczenie.

     

    Tutaj materiał na YouTube "Czy DLSS niszczy gaming?" jeśli ktoś nie widział a chce obejrzeć. 

     


  7. @ditmd Serio a znasz te dane ze steama? https://store.steampowered.com/hwsurvey/?platform=pc , ciągle 61% korzysta z rozdzielczości 1080p, a tylko 16% z 1440p. Tym bardziej jak jeszcze ktoś, tak jak ja, 80-90% czasu gra w strzelanki multiplayerowe gdzie liczy się wydajność i FPS, bardziej niż jakość, to po pierwsze. Po drugie wszyscy do niedawna siedzieliśmy na 1080p i każdy zachwycał się grafika w grach w tej właśnie rozdzielczości a teraz nagle, bo jest 1440p i 4k, 1080p jest takie be. Do 24cali 1080p wcale dalej źle nie wygląda, i dopóki ktoś nie zakosztuje 1440p, i nie wie jak to jest to nie musi się napalać i może zostać w 1080p, tym bardziej że daje to spore korzyści do wydajności. Ale oczywiście rozumiem że do RTX 4090 to 1440p to raczej jest minimum i też będę do tego zmierzał.

    • Like 1

  8. No tak, dale zgłębiam temat, oglądałem film Liptona a niedawno znalazłem taką stronę, wygląda na rzetelną, https://www.techspot.com/review/2692-ryzen-7800x3d-vs-ryzen-5800x3d/ i wszyscy oni, Lipton, Hardware unboxed czy właśnie ta strona podają że średnia różnica w grach w 1080p to jest 18% a w 1440p 12%. Mnie to tak gnębi bo troszkę mnie to boli, no ale ja jestem w tej sytuacji że ja mam wszystko pod AM4 więc jedyne co wymienię to 3070 na 4090 no i zasilacz. Nie będę kupował żadnej płyty AM5, żadnego RAMu DDR5 ani CPU właśnie, bo wszystko mam i to jest właśnie moja przewaga. Przełknę te 18% a tym bardziej że chyba będę musiał kupić w końcu ten monitor 1440p a tam różnica spada do 12% więc jest już git...znośnie. Zamiast się cieszyć że w maju 2023 za 1400zł kupiłem 5800x3d i za 700 zł rtx 3070 to się gnębię że 7800x3d jest 18% lepszy w 1080p z 4090, cały ja. Od dobrych kilku dni nic innego nie robię tylko dosłownie cały czas czytam, oglądam YouTube i szukam materiałów poświęconych porównaniu 7800x3d do 5800x3d i czy 5800x3d nie będzie zbyt dużym wąskim gardłem dla 4090, bo że jakimś będzie, szczególnie w 1080p, to dobrze wiem. 


  9.  

    @Raidenorius Teraz mnie to interesuje bo będę miał opcję na RTX 4090 za dobre pieniądze i drążę temat. Dlaczego są takie rozbieżności w wydajności między 5800x3d a 7800x3d, miedzy czy to różnymi stronami i różnymi testami jak gry są wszędzie te same? Nie rozumiem tego. Jednak co innego różnica 5-10% w 1080p a co innego 15-20 a jeszcze co innego 20-30. Ten gościu, pierwszy link, podaje że średnio w 1080p to jest aż 18%. A w kilku tytułach tam z góry takich jak Far Cry 6, The Last od Us part I czy A plague... to pokazuje że różnice to 25-30%. Serio 30%? Przecież między RTX 4090 a 4080 jest chyba mniejsza różnica w wydajności albo podobna. To wygląda jak nie porównanie topowego CPU jakim jest 7800x3d z do niedawna topowym a ciągle całkiem dobrym CPU jakim jest 5800x3d tylko jak porównanie 7800x3d do r5 2600. Możecie mi powiedzieć dlaczego w tym 2, 3 i 4 linki wyniki są praktycznie identyczne, i pokazują one, liczyłem z kalkulatorem, średnią wyższość 7800x3d nad 5800x3d w granicach dosłownie 5-10% z dwoma odchyleniami rzędu 11 i 16%. Ja uważam że ten gość z pierwszego linku z 1 mln subskrybentów jest opłacany przez AMD i tyle, bierze od nich kasę i tyle, bardziej wierzę w linki 2, 3 i 4 które wyniki się praktycznie z sobą pokrywają a robili je mali, niezależni, niepowiązani z sobą twórcy nie dla pieniędzy tylko sami dla siebie. Dlaczego mam wierzyć jednemu gościowi co może brać za to hajs a nie trzem, niezależnym, małym twórcom którym na pewno nikt nie płaci? To mi też możecie wytłumaczyć bo nie wiem czemu nie mam wierzyć 3 osobom tylko jednej?

     


  10. A napisze,  ja zostanę z RTX 4090 i z 5800x3d. To jest ten co uważał że będzie bottleneck. Jak wyjdą RTX 5000 to już mam opcje na 4090 za mniej więcej połowę jej ceny na OLX, żal nie wziąć. Do 1080p to raczej nie jest karta, a jak oglądałem porównanie z 7800x3d w 1440p to w sporo tytułach różnicy nie było żadnej a w kilku niewielka, nawet w 1080p byłoby to do przyjęcia. Tak że ja będę łączył 5800x3d z rtx 4090. Tylko będę musiał obudowę wymienić bo ta karta ma chłodzenie AIO 360mm a moja buda nie ogarnie takiego chłodzenia. 


  11. Odkopię temat. Będę miał opcję za niedługo na takiego RTX. https://www.x-kom.pl/p/1075867-karta-graficzna-nvidia-gigabyte-geforce-rtx-4090-aorus-xtreme-waterforce-24gb-gddr6x.html to jest RTX 4090 chłodzony cieczą z AIO 360mm a obudowę mam taką https://www.silentiumpc.com/pl/product/armis-ar3-tg/ pisze że na przodzie "obudowa ma możliwość zamontowania chłodzenia cieczą typu All-In-One (240 mm na przodzie obudowy, bez napędu 5,25")." więc na przodzie jej nie zamontuję ale tak myślę czy na górze by nie szło? Tam mam z tego co mierzę 29-30 cm długości no i 14 cm szerokości. Ile mają te chłodzenia długości i szerokości? i pewnie z 2-3 cm wysokości tez mają, tam widzę że do radiatora na CPU jest 5 cm więc to jest luz ale widzę tam mam zasilanie od CPU do płyty u samej góry i nie wiem czy nie będzie to haczyć o wentylatory? Mogę w razie czego te wentylatory skierować do góry na zewnątrz zamiast do środka do budy? 

    PS Że też taką g...nianą, za przeproszeniem, kartę, musiał sobie kupić.


  12. Co ja dławię? Jasne że mógłbym mieć słabszy CPU, ale mam dobry procesor na zaś, za rok, dwa włożę 4080 i nic więcej i będę miał skok wydajności gigantyczny. Nie chodzi o wycieczki personalne tylko nie ma sensu wkładać topową kartę do za słabego CPU i nie wykorzystać w pełnie jej potencjału i tyle. 


  13. Śmieszni to jesteście ale wy z tymi waszymi mądrościami z d..y. Wsadźcie sobie do RTX 4090 najlepiej R5 3600 i będzie gitara. A 5800X3D jest za słabym CPU do 4090 i to jest fakt, w 4k jeszcze ujdzie ale w 1440p już nie a tym bardziej w 1080p. Trzeba mieć bardzo niskie IQ żeby pchać RTX 4090 do za słabego CPU i marnować potencjał karty jak i pieniędzy. @bleidd Sam jesteś bez zrozumienia, ja wszystko dokładnie rozumiem i jest tak jak ja mówię. @kadajo Wiedzy to może nie masz ale Ty, jeśli już ktoś z nas dwóch tu nie ma wiedzy. Ile poskładałeś ludziom komputerów, bo ja dziesiątki na przestrzeni 20 lat, więc zachowaj sobie takie gadanie dla siebie.

    • Haha 6
    • Confused 4

  14. Tu zadaje na Q & A do blackwhite TV takie oto pytanie. - Czy mogę do 5800X3D włożyć 4080 lub 4090 i blacku odpowiada mi tak. - Osiemdziesiątkę tak dziewięćdziesiątkę raczej nie, będzie za duży bottleneck. Tutaj macie link, na to moje pytanie odpowiada w 1 godzinie, 16 minucie i 39 sekundzie. Ale wy oczywiście wiecie lepiej.  

     

    • Haha 1

  15. Ale niech nie opowiada farmazonów o jakimś pudelku jeśli każdy kto zajmuje się i zna na komputerach wie, i to jest fakt, nie opinia, że im wyższa rozdzielczość tym bardziej obciążona jest karta i tak jak do 1080p i 5800X3D RTX 4090 będzie za mocną kartą tak w 4k taka para będzie bardzo dobrze z sobą współgrała. Sam mam właśnie 5800X3D i za 1-2 włożę do niego 4080. Gram w 1080p i do 4080 ten CPU da sobie radę, tym bardziej że ja gram praktycznie tylko w sieciowe shootery i zależy mi na jak najwyższej liczbie klatek. Może z czasem zmienię 1080p na 1440p. Więc nie wiem co on wyjeżdża z jakimiś pudelkami jak tak po prostu jest i takie są fakty.


  16. W dniu 18.04.2023 o 14:27, bleidd napisał:

    No właśnie nie. Porady im wyższa rozdzielczość tym mniejsze znacznie CPU to rady dobre na forum.pudelek.pl a nie specjalistyczne forum.

    Dawno takiej bzdury nie czytałem, nie masz zielonego pojęcia o czym mówisz, właśnie że to jest bardzo specjalistyczna porada a ty się nie znasz i powiem ci to i LIPTON i Balck'u. Rozdzielczość jest właśnie kluczowa jak dopierasz procesor. Im wyższa rozdzielczość tym CPU ma mniejsze  znaczenie, i tym sposobem 5800X3D z RTX 4090 będzie wąskim gardłem w 1080p ale już w 4k nie. CPU ma tyle samo pracy czy grasz w 1080p, 1440p czy 4k, CPU pracuje identycznie tak samo a karta graficzna nie, im wyższa rozdzielczość tym dużo wyższy narzut na kartę. Jeszcze raz ci to powtórzę, kolosalną różnicę robi czy grasz w 1080p i tu wtedy RTX 4090, 5800X3D będzie wąskim gardłem, ale jak grasz i masz monitor 4k to już absolutnie żadnego wąskiego gardła nie będzie. Doczytaj zanim coś napiszesz i zaczniesz krytykować innych zupełnie nie mając racji.

    • Upvote 1

  17. Ja już wszystko wiem, niczego więcej już nie potrzebuję, jestem zadowolony, mi minus -26 co realnie oznacza -78mW do -130mV w dół, dało wszystko co chciałem. Temperatury realnie w dół, w zależności od uruchomionego programu czy jest to gra czy jakieś testy syntetyczne, o dobrych klika stopni, 7-10 tak na oko. Dla mnie rewelacja. Zegary za to mi poszły w górę o jakieś ~200Mhz. Dla mnie bomba. Tym bardziej że nie wiem czy można realnie mieć dużo gorsze chłodzenie powietrzne od mojej Fery 3? Jak piszę ten post mam 40 stopni. Nie wiem czy widzieliście, takie coś znalazłem od AMD na temat temperatur tych procesorów.TY2nOvc.jpg

    • Upvote 2

  18. Te zegary i temperatury to masz w BF2042, te grę masz na myśli? Chce się upewnić. Jak jak włączyłem na domyślnych zaraz bo wyjęciu z pudełka, to w BF2042 cały czas 90-91 stopni, cały czas, aż się przestraszyłem lekko, serio nawet nie patrzyłem na zegary, ale chyba wyższe miałem, ale 10 minut pograłem i wyłączyłem, w tej grze cały czas 90-91 stopni, ani nawet na użycie CPU nie patrzyłem. Prawda jest taka że ja gram w BFV a nie w tego nowego, a tam użycie CPU jest 50% a i to w porywach,  serio, choć temperatury też jakieś niskie nie są, bo tak między 70-85, no ale nie 90-91 non-stop, ale ten BF2042 to tak jak mówię tylko na domyślnych sprawdzałem. Po obniżeniu  -26 to jeszcze w niego nie grałem, ale na bank  będą niższe, i to o dobrych kilka stopni, tak koło 7-10 mniej na pewno.


  19. Oj to przepraszam, nie wierzyłem, faktycznie "wystarczy" zbić temperaturę do maks 73-74 stopni i trzyma takie zegary, zwracam honor. Ja mogę zapomnieć o takich temperaturach, u mnie na -25 to nawet tak potrafi dojść do 89 a nawet bije pod 90 na sekundę i powiem ci szczerze nie wiem o co chodzi bo innym razem ten sam cinebench23, te same -25 i nie wychodzi powyżej 85-86, ale nawet to na wynik nie ma wpływu, czasem patrzę mam 86 średnio cały test taktowanie lekko wyższe a wynik gorszy niż jak mi wali pod 89-90 z odrobinę niższymi zegarami, takie cuda i dziwy. Powiem ci tak, ja z tym nie będę nic robił, bo wyrenderować wyrenderuję co chcę, a głównie i tak gram a w grach sam wiesz, ani nie ma takich temperatur a i rdzenie sobie skaczę, a jak np mam w RIVA jeden zegar pokazany to cały czas pokazuje 4450Mhz, no a jak włączę na podgląd wszystkie 8 rdzeni w RIVA to wiesz jak to jest raz 6 tych pokazuje 4450, dwa na sekundę 3600Mhz potem te pierwsze pokazuję 3600Mhz a tamte 4450 i tak w kółko... jedno wiem, na wydajność w grach przekłada się to w stopniu prawie żadnym, całkowicie nieistotnym, różnice te będę tak minimalne że nawet sobie nie ma co tym głowy zawracać. Ale tak z ciekawości, jakim wynikiem ten test się twój skończył pamiętasz? Jak nie to zrób jeszcze raz i podaj wynik, ja mam średnio, uczciwie ci mówię 14 500, ale żadnych priorytetów w menadżerze zadań nie zwiększałem a ty,  a domyślnie mam na poniżej normalny. Druga rzecz, nie wiem czy napisałeś wyżej ale jakie masz konkretnie chłodzenie, chłopie lipne chłodzenie to mam ja, znasz takie chłodzenie co go już nie produkują, pewnie słyszałeś, Fera 3, oczywiście powietrze chyba 180TDP,  jak ty masz lipne chłodzenie to co powiesz o moim? Podaj mi wynik z Cinebench23, jestem ciekawy jaka to też będzie różnica? Jeszcze dodam ze faktycznie trafiła ci się bardzo dobra sztuka, z tak niskim napięciem... że masakra, trafiłeś na prawdę świetną sztukę, wygrałeś na loterii krzemowej.😉 


  20. Nie jest to rzadkość, ale jest jak ja ci pisałem, nie każda sztuka łyknie -30 a jak to się rozkłada procentowo to nie wiem, większość łyknie -20. Ja czytam bardzo dużo, wejdź sobie na morele pod ten CPU i poczytaj pytania i odpowiedzi ludzi co go mają i się znają. Po drugie nie ma szans że ci taktuje 4450Mhz na wszystkich rdzeniach bo to jest fizycznie niemożliwe. Bez obrazy ale ty nawet  tego nie wiesz, oczywiście na 6 rdzeniach tak, a na 2 np 3600Mhz i tak się rdzenie zmieniają a taktowania skaczą, to tak. Ja mówię pod pełnym obciążeniem, czyli każdy rdzeń przez np 10 minut pracuje na 100%, każdy rdzeń cały czas rozumiesz to? Udowodnij mi to w prosty sposób, włącz Cinebench23, test na wszystkie rdzenie, i włącz np core temp taki program, to wystarczy, i nagraj ekran, chcę widzieć te twoje 4450Mhz na wszystkich rdzeniach przez całe 10 minut testu. Po 30 sekundach zobaczysz jak bardzo się mylisz, rdzenie ci będą pracować maks 4300Mhz z jakimiś może podskokami do 4325Mhz, 4350Mhz na chwilę, a nawet i więcej na chwilę czy na początku testu, ale ja potrafię renderować kilka godzin rozumiesz? Nie opowiadaj mi takich bajek bo nie wyjdziesz, i jest to niemożliwe, ponad 4300Mhz. I nie pisz mi już że tak, bo ty jesteś najmądrzejszy ja wiem, a ja ci już powiedziałem że ci nie wierzę. Jak już nie chcesz nagrywać to włącz teraz Cinenbench23, odczekaj 4 minuty, żeby zaczęło się renderowanie na poważnie, otwórz core temp i zrób screena, to chyba nie jest problem? Wiesz dlaczego tak nie zrobisz? Bo wiesz że to jest nieprawda i przestań się przechwalać. Jak jutro znajdę trochę czasu to poczytam ten wątek co mi podesłałeś ale ja już końcówkę przejrzałem i ja wiem że nie dowiem się stamtąd niczego nowego, niczego czego jeszcze sam bym nie wiedział.


  21. Pozwolisz, ale jakoś ci nie wierzę że pod pełnym obciążeniem masz 4450Mhz na wszystkich rdzeniach nawet mając 80 stopni a i tak nie wiem jak miałbyś mieć aż tak niskie temperatury. Po drugie pierwszym objawem zbyt niskiego napięcie jest wyłączanie się komputera i taki objaw mają wszyscy tylko nie ty.😉 Tak naprawdę to zależy od płyty, ta od MSI wszystko robi za użytkownika, ona po prostu jak masz te combo 3 to ci zapewne sama zawyża napięcie żeby tylko nie wyłączył się komputer. Lepiej móc sobie samemu dostosować napięcie co do jednej jednostki niż gotowe presety. Jak byś mógł i dał -35 to na 95% byś się przekonał że komputer się wyłącza jak jest zbyt niskie napięcie, tak się dzieje i jest to zupełnie normalne.


  22. Ja i tak nie rozumiem co ty mówisz, poczytaj swój post, piszesz tak:

    Cytat

     nawet mniej niż -30 działa tylko zegary są niższe pod 100% obciążeniem (dodając ujemny offset czy luzniejsze LLC niż auto) 

    Co masz, wszystkie rdzenie ci pracują pod pełnym obciążeniem 4450Hzm w Cinebench23? 


  23. Nie właśnie, z tego co ja czytałem to większość nie robi -30, może -25 większość już tak choć też nie wszystkie, -20 już większość. Nie rozumiem, dlaczego jak dasz więcej niż -30 to niby zegary miałyby być niższe, nie rozumiem? Jak ci łyknie to ci łyknie, a jak nie to będziesz wiedział bo ci się najpewniej komputer wyłączy. U mnie np na -26 mam zegary wyższe, i to jest logiczne, mniejsze napięcie niższe temperatury wyższe zegary. Ja mam 4300Mhz na każdym rdzeniu pod pełnym obciążeniem (100%). Ja właśnie zaobserwowałem zjawisko odwrotne, na ustawieniach domyślnych jest wyższe napięcie co przekłada się na wysokie temperatury dochodzące do 90 stopni a nawet więcej, a to powoduje że włączają się algorytmy zabezpieczające CPU przed przegrzaniem i zegary pod pełnym obciążeniem są zbijane właśnie.

×
×
  • Dodaj nową pozycję...