Szanowny Użytkowniku,
Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.
Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.
Administrator Serwisu Forum PC LAB informuje, że:
- Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
- Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
- Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
- Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
- Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności
Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.
-
Liczba zawartości
1861 -
Rejestracja
-
Ostatnia wizyta
Odpowiedzi dodane przez someI
-
-
Ale obecny procesor już w tej chwili nie wystarcza? Bo brzmi jakbyś kupował coś na zapas bo za pół roku kupisz nową kartę graficzną. Do tego czasu rynek procesorów też się mocno zmieni.
-
2 godziny temu, Niewiernus napisał:Dalej sytuacja podobna jak w przypadku Broadwella. Wydany pół roku przed Skylake, wymagał H/Z97,
Tylko, że 5800X3D nie potrzebuje specjalnej płyty głównej, zadziała tak samo na 5-letnich płytach z czasów pierwszego Zen. Rozbudowanej sekcji zasilania też nie wymaga.
https://www.techspot.com/review/2475-ryzen-5800X3D-older-am4-motherboards/
Natomiast kupowanie dziś kompletnej platformy proc + płyta AM4 bądź Intel z górnej półki, gdy za kilka miesięcy kolejna generacja, to ogólnie średni pomysł.
-
Stan dostaw jest aktualizowany na bieżąco na Reddit, dwa razy w tygodniu gdy Valve wysyła kolejną partię.
https://www.reddit.com/user/Fammy/comments/u3tezb/latest_preorder_times_for_the_steam_deck/
Na razie zrealizowano zamówienia z pierwszych 3-5 dni preorderów (czerwiec 2021), więc zanim w ogóle kolejka dojdzie do zamówień z 2022 roku, jeszcze sporo czasu minie. W regionie EU i tak posuwa się najszybciej.
-
W dniu 9.06.2022 o 22:23, LJ19 napisał:Jakiego skalowania używacie na Waszych "big" ekranach?
Na 4k 32" miałem 150%, to mniej więcej ten sam rozmiar tekstu co na 24" 1920x1200 obok.
-
1
-
-
Ale Ty masz 5900x, inna bajka.
5800X3D zachowuje się zupełnie inaczej jeśli chodzi o boost, temperatury, napięcia, mam wrażenie że przez to też niektóre płyty główne mogą mu dawać nieco wyższe napięcia w ramach "optymalizacji", które poprawiały wyniki w benchmarkach na starszych procesorach.
A może po prostu ze względu na to, że to schyłek platformy AM4, mało kto ma czas się z tym pieścić i dali duże marginesy dla bezpieczeństwa.
-
19 godzin temu, drejfus napisał:CB30 - 30 minut, bez problemu. Grałem wczoraj koło 2H, również bez problemu. 1:30H TM5... tak samo.
Faktycznie wbiłem u siebie na pałę -30 wszędzie, i też działa póki co. Wot technika
-
1
-
-
To teraz odpal jakiś stress test. Mało który procesor działa stabilnie na CO-30. Właściwie to jeszcze o takim nie słyszałem

-
1
-
-
10 godzin temu, Masketta Man napisał:Wcześniej chłodziło 3700X i tam widziałem max 67C. Powietrznego nic już nie mam żeby sprawdzić.
Trochę zastanawia mnie "Power reporting deviation" - czy to możliwe, że mobo pompuje więcej mocy w CPU i stąd takie temperatury? BIOS flashowałem najnowszy a potem wszystko resetowałem do domyślnych.
Temperatury - nic nadzwyczajnego, chociaż niektórzy mają chłodniej. Czy to zasługa lepszego binu CPU, czy płyty głównej, nie wiem.
Jeśli power reporting deviation podczas liczenia CB masz grubo poniżej 100%, to tak, płyta może trochę oszukiwać procesor.
-
Intel robi konkurencję, kto miał kupić to już kupił, kto nie kupił czeka na Zen4.
-
Aby przykleić znaczek HDR 1000 wystarczy, że wyświetlacz zaświeci 1000 nit na białym oknie testowym L20. Tutaj i bez stref da się polecieć te ~1000nit.
Nie wystarczy, bo jest też test czerni z dwoma białymi kwadratami w narożnikach, którego bez stref w praktyce nie da się przejść (oprócz HDR400, gdzie wymagania są mocno poluzowane).
https://displayhdr.org/performance-criteria-cts1-1/

-
1
-
-
Ale... PPT dotyczy wszystkiego pod IHS, z czego IO die ciągnie ok. 25W (gdzieś widziałem wykres, którego teraz nie mogę wygooglać, i Package Power Draw było w zasadzie niezależnie od ilości obciążonych rdzeni 25W nad linią mocy pobieranej przez CCD). Czyli 88-25 daje 63W na CCD w 5600X, w 5900X wychodzi (142-25)/2 czyli 58.5W na CCD. Różnica niewielka.
O, znalazłem:
PPT to tylko jeden z limitów, masz jeszcze TDC (60 vs 90A) oraz EDC (90 vs 140), oraz różnice w maksymalnych zegarach pomiędzy modelami procesorów. Nawet na diagramie, który wkleiłeś widać, że PPT jest limitem dla procesora przy obciążeniu pomiędzy 8-10 rdzeni, a przy obciążeniu 16 rdzeni procesor pobiera tyle samo energii co przy 6 rdzeniach, bo z kolei odbija się od limitu prądowego. To znaczy, że przy obciążeniu 6 rdzeni będzie pracował na dużo wyższym napięciu, wyższych zegarach i będzie raportował wyższą temperaturę.
Zresztą widać to dobrze w tym artykule z którego pochodzi obrazek. https://www.anandtech.com/show/16214/amd-zen-3-ryzen-deep-dive-review-5950x-5900x-5800x-and-5700x-tested/8
Przy 100% obciążeniu, 5600X boostuje do 4450MHz, 5900X do 4150MHz, a 5950X tylko do 3775MHz. Największe skoki temperatury w takim scenariuszu będą na 5600X. Co innego jak na wszystkich procesorach włączysz obciążenie na równo 6 rdzeni, wtedy sytuacja się odwróci i najwyższa temperatura będzie na 5950X, ze względu na najbardziej agresywny boost i wyższy limit PPT. Ale jak ktoś odpala na noc oprogramowanie, które piłuje wszystkie rdzenie jakie znajdzie, to niższe temperatury zobaczy na wielordzeniowych prockach z tej rodziny.
-
Da się jakoś rozwiązać ten problem bez konieczności włączania vsynca i sztucznego ograniczania fps do 60? To rozwiązanie dodaje niestety ogromnego input laga i już nie ma się uczucia takiej ultra płynności podczas grania.
Oprócz vsync włącz w ustawieniach Low Latency Mode, być może lag spadnie do akceptowalnego poziomu.
-
Jak inaczej? To dwa CCD z 5600x i jeden IOD. Nie spodziewaj się niższych temperatur. Z ALFem II 360 podczas kompilacji większych projektów często widzę 80 stopni. Trzeba przywyknąć i pamiętać o fizyce - temperatura to nie ciepło.
Niby tak, ale na 5900x (domyślne ustawienia) temperatury mogą być trochę niższe przy 100% obciążeniu, bo mimo że w 5900X masz CCD razy dwa, to limity poboru mocy już nie. PPT jest 88W vs. 142W. Więc żeby zmieścić się w limicie procesor da niższe napięcie i nie będzie miał takich hotspotów.
Nawet niejaki Robert Hallock z AMD, po premierze tłumaczył, że temperatury do 90C (5800X/5900X/5950X) i 95C (5600X) są typowe i te układy są zaprojektowane dla takich warunków przy pełnym obciążeniu. Jasne....
No bo są. Na Intelu masz Tj max w okolicach 100C, już nie mówiąc o tym, że pobór mocy mogą mieć 2x wyższy. Każdy producent ustala limity które procesory zniosą bez problemu przez dobre kilka lat.
Tak czy siak, jeśli planujesz przez większość czasu trzymać procesor na pełnym obciążeniu, lepsze wyniki osiągniesz ustawiając zegary i napięcia na sztywno. Będzie taniej, chłodniej i szybciej.
-
1
-
-
Jak w miarę oszczędnie to https://www.arctic.de/en/Z1-Pro-Gen-3/AEMNT00049A
Jak na bogato, to jakiś Ergotron.
-
1
-
-
13 godzin temu, LJ19 napisał:Po kilkudziesięciu godzinach z 4K na 32-calach, co daje około 140 PPI, powiem tak: nigdy więcej monitora z gorszym zagęszczeniem pikseli.
Okolice ~110 PPI (27" QHD i różne ultrwaide) też jeszcze nie wygląda źle. Ale jak porównujesz do czegoś poniżej 100PPI, to faktycznie duża różnica.
-
1
-
-
Bez znaczenia, gdy limitem jest wydajność GPU.
-
12 godzin temu, jurekk napisał:to jest forum graczy wiec nie ma opcji
Akurat jakbym wziął tylko do grania w popularne gry w 4k/ultrawide, to bym żałował.
-
Nie żałuję, ale brałem konkretnie pod symulatory i VR. Pod tym kątem to jeden z bardziej opłacalnych zakupów.
-
24 minuty temu, FynyxDuppelExpert napisał:Tak tak. Czyli przez ten cache w 5800x3d w sumie nic sie nie da zrobic? Tak czy siak zawsze bedzie goracy
Generalnie tak, widać że transfer ciepła jest głównym ograniczeniem.
Żeby nie było, X3D w tych samych warunkach będzie przeważnie pobierał mniej energii niż 5800/5900 i radiator będzie chłodniejszy,. To jeden z najbardziej energooszczędnych procesorów na rynku. Po prostu niezależnie od chłodzenia będzie miał wysokie core temp i tyle.
15 minut temu, caleb59 napisał:Ogólnie taki sobie deal płacić ~2500zł tylko po to by tylko grać w gry, których silniki w większości i tak korzystają przede wszystkim z GPU w dodatku na końcówce żywotności socketu AM4.
Jak zwykle to zależy... mnie uwzględniając pieniądze ze sprzedaży 5900X, wymiana na 5800X3D kosztowała 600 PLN i 15 minut grzebania w komputerze. Plug & play. Przejście na Intela byłoby droższe, a czekanie na AM5... cóż, zapowiada się ciekawie, ale to nowa płyta główna, RAM, CPU, wszystko obłożone podatkiem od nowości i początkowo słabą dostępnością.
-
A po 3 latach wszystko do wymiany, bo kolejna karta graficzna już się nie mieści. ?
-
1
-
1
-
-
2 godziny temu, FynyxDuppelExpert napisał:ile watkow zuzywa w danym momencie (paradoksalnie im mniej tym mniej boostuje i mniej sie grzeje)
Chciałeś chyba powiedzieć, że im więcej wątków, tym mniej boostuje i mniej się grzeje. Jeśli tak to pełna zgoda, u mnie 5900x był nagorętszy przy obciążeniach 4-6 wątków.
Z 5800X3D jest odwrotnie, tutaj dodatkowy cache działa jak ciepła kołderka a boost przy obciążeniu wszystkich rdzeni nadal jest dość wysoki. W P95 small FFT 5800X3D startuje mi od 3,9 - 4,0 GHz, czyli +600MHz do nominalnej częstotliwości, gdzie 5900X w tych samych warunkach ustawiał 3,7GHz, czyli zerowy boost.
-
Powyższy slajd nie dotyczy 5800X3D, ten to w CB20 potrafi mi się rozgrzać do 90 stopni. ?
Ale z drugiej strony, skrajny przykład co daje dodatkowy cache. To samo miejsce w DCS World, 5800X3D względem 5900X daje +30% do FPS i jednocześnie -30% poboru mocy przez procesor. CPU frametimes w VR też mi ładnie spadły o 20-30%, chociaż tam przez większość czasu ogranicza mnie i tak karta graficzna oraz VRAM.
W zwykłych grach różnic specjalnie nie widzę, no ale w 3840x1600 ciężko oczekiwać czegoś innego, a mikroprzycięć nie mierzyłem.
-
Żaden. Jak zwykle należy poczekać do następnej generacji ?
5900X to i w mediaekspert widzę za 1939 PLN dostępne od ręki, wiec te procki z Niemiec to nie jest znowu jakaś super okazja.
-
21 minut temu, LJ19 napisał:Ba! Śmiem twierdzić, że może być gorzej, bo moje EIZO nie ma problemu z nierównomiernym podświetleniem, wyciekami, a IPS glow jest na akceptowalnym poziomie.
To szukaj mniejszego monitora. Producentom łatwiej ogarnąć te problemy na małej matrycy, będzie taniej...
Jak chcesz monitor w rozmiarze, który dopiero w tym roku zaczyna wchodzić do mainstream'u (4k 32" 120Hz), to niestety trzeba płacić, a i tak będą kompromisy.


Jakie Google VR wybrać?
w Monitory i projektory
Napisano · Edytowane przez someI
Ostrość soczewek w goglach jest ustawiona na sztywno na około 1,5 metra, zależnie od modelu. Jeśli rzeczy w tej odległości widzisz ostro, nie potrzebujesz okularów.
Osobiście używam okularów w G2 bez większych problemów. Kwestia oprawek, jedne mieszczą się lepiej inne gorzej.