Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

sideband

Forumowicze
  • Liczba zawartości

    31187
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    22

Odpowiedzi dodane przez sideband


  1. 5 minut temu, galakty napisał:

    No i bierzcie pod uwagę że to QD-OLED, na WOLED to tam pewnie x2 do czasu wyświetlania.

    To jest zależne bezpośrednio od jasności z tym 2x to bym nie przesadzał ;-)

    QD jak ktoś używa na 250nitach to wypali go szybciej to nawet nie ma o czym dyskutować. Wystarczy popatrzeć C1 vs C2 gdzie w C2 jest bardziej efektywna matryca i C1 o 20% wyższy pobór mocy przy tej samej jasności.

    Jak tylko usłyszałem, że ziomek opowiada, że jasność nie ma wpływu na wypalenia, ale przy okazji poleca ciemny motywy i tapetę także nie wie o czym mówi :szczerbaty: Wszystkie systemy, które zabezpieczają przed wypaleniem nie licząc przesuwania pikseli bazują na zmniejszaniu jasności na statycznych elementach. Nawet nie pokazał jak to działa przy nowszych monitorach, a miał okazje mając nowe modele ;-)

    Poza tym życzę powodzenia z 30tys godzin jeszcze na pierwszej generacji QD :szczerbaty:

    • Upvote 2

  2. 2 godziny temu, Send1N napisał:

    kryonaut to w ogóle jest nieporozumienie, grizzly to ogólnie jest mega przepłacona i przereklamowana marka, przeważnie za cenę 3x niższą można kupić coś równie dobrego po prostu  bez logo TG :E 

    Normalka ludzie przepłacają za ramki, pasty i PTM-y, które są w innym pudełku :E

    • Upvote 2

  3. Gsync comp/Adaptive sync/Freesync/Freesync Premium to jedno i to samo jeżeli to odpalasz na karcie NV. Tak czy inaczej bez certyfikatu nie ma żadnej gwarancji, że to będzie działać poprawnie. Freesync/Freesync Premium dopisek to każdy monitor dostanie AMD tego nawet nie sprawdza jak dany monitor działa z ich kartami.

    Przykładowo na monitorach MSI w sofcie po czasie zmienili nazwę z Adaptive Sync na Freesync Premium Pro :E Z tego co pamiętam Premium/Premium Pro to dodanie LFC i obsługi HDR.

     

    • Upvote 1

  4. 6 godzin temu, amsztel napisał:

    @sideband Ktora matryca bedzie lepsza do pracy z tekstem/spreadsheetami - QD-OLED czy WOLED?

    WOLED może marginalnie jest lepiej mowa o modelu 32GS95UE-B. Ale przy okazji masz efekt "brudnej bieli" ze względu na powłokę matrycy nie wspominającej o problemie z temp barwową bieli gdzie o tym pisałem w temacie. Nie było takiego problemu jak w TV jak odchylisz się lekko masz jednej strony niebieski, a z drugiej róż tylko tylko, że siedziałem na wprost w równym odstępie na całym ekranie miałem pasy na przemian niebieski-róż :E Tego nie wiem czy ten typ tak ma czy akurat trafiłem na taką sztukę. Wiele rzeczy i tak się z recenzji nie dowiesz się trzeba testować na własnej skórze niestety. To tak samo jak nie wspomina się o color bandingu i jak to ujrzałem to mnie zmasakrowało. A później obadałem temat oczywiście w reckach zero o tym, a ludzie na forach o tym piszą klasyka tematu :E

    WOLED MLA przy pracy gdzie jest dużo białego zapewne lepiej sobie poradzi i będzie miał większą żywotność przy wyższych poziomach jasności.

     

    Ps. na serwisie miałem starą B6 LG także 8-letnie OLED 55" o dziwo zero pikseli uszkodzonych, ale za to wypalony logo i pasek pytanie na śniadanie oraz logo info od jakiego wieku jest dany program. Nie licząc tego panel nadal daje radę :E

     

    • Thanks 1

  5. 5 godzin temu, lukadd napisał:

    Jak dopiero planują zakończenie produkcji 4090 :E to raczej 5090 wcześniej jak pierwszy kwartał 2025 nie ma co się spodziewać.

    Mnie wystarczyło info, że w tym miesiącu dopiero skończyli projekt tych kart. Także daleko do premiery.

    • Like 1

  6. NV też to się nie spodoba jak odpalisz Last of Us 2160p ze skalowaniem w dół i okaże się, że 5090 klęka ;) A to taki tytuł gdzie DLSS/DLAA dają ciała, a po włączeniu skalowania masz żyletę ;)

    • Upvote 1

  7. 32" 2160p czcionki są eleganckie niezależnie czy WOLED czy QD ;) Rozwaliłeś mnie z tym wyskakującym infem odnośnie czyszczenia można sobie ustawić żeby nie wyskakiwało tylko zaraz po wyłączeniu monitora i tak samo wyczyści ;)

    Wypalenia cóż taka technologia nawet za kilka lat ten problem magicznie nie zniknie ;) Ja tam działam nie ma powrotu do LCD gdzie i w tym momencie u mnie 95% to statyka na ekranie :E U mnie pracuje na 0% jasności to ciężko go będzie wypalić do tego przy włączonych wszystkich systemach gdzie potrafi przyciemnić nawet miejscowo kartę w przeglądarce, która jest dłużej otwarta i to nie jest wszystko w porównaniu do TV to tutaj większość statyki wyłapuje i przyciemnia. A jak zostawisz ekran na 5min bez wygaszania to tak przyciemnia, że mało co widać nawet przy 0% ustawieniach tylko ruszysz myszką i wraca jasność.

    • Thanks 1

  8. 12 minut temu, lukadd napisał:

    Jaki w ogóle sens jest zmiany takiego np. 4070 na wersję super? Dla mnie zero, to produkt dla tych co czekali, czy planowali składanie kompa/zakup w późniejszym czasie niż okolice głównej premiery. Jak chciałeś coś wydajniejszego wtedy to brałeś 4070ti, 4080 czy 4090.

    Co najwyżej dla zabawy ;) Były czasy kiedy w ciągu roku miałem 10 kart także wiesz :E


  9. 2 godziny temu, robbo2k napisał:

    A ten pipolinio swoje,  ciągle myśli ze świat kreci się wokół procesorów do pececików.  Kluczem nie jest Ultra 200 kluczem jest wdrożenie taniej dobrej i sprzedawalnej technologii i litografii Intel 18A oraz produktów obcych i własnej na tej litografii.    Series 200 jest w całości w TSMC bo sami tego nie sa wstanie ogarnać bedąc czołowym producentem połprzewodników.

    Oni od dawna nie ogarniają dlatego tak długo zeszło im z szlifowaniem 10nm ;) Chyba nie trzeba przypominać ile lat wykorzystywali nieśmiertelne 14nm :E


  10. 1 godzinę temu, kadajo napisał:

    No tak ale jakim wiec cudem dobrze działa przy 60,50 FPS. Nie testowałem jeszcze tylko 30 ale zakładam ze tez może działać prawidłowo bo CP2077 z FG z lockiem na 60 działał prawidłowo (gdzie bazowych klatek wtedy jest 30).

    Monitor wspierający LFC w teorii musi mieć zakres przynajmniej 2.5x. Przy zakresie 48-144Hz LFC powinno zacząć działać poniżej 60fps.

    • Upvote 1

  11. 6 minut temu, Minciu napisał:

    Wydaje mi się, że jak wbija się 360hz+ to gsync jest ostatnią potrzebna rzeczą do szczęścia. Nie sprawdzalem oczywiście, ale zwyczajnie frame time robi się tak mega krótki, że nie ma sensu się spuszczać nad rozrywaniem klatek i mikrocieciem. 

    Może ktoś z Oledem 360hz przetestować gsync on i off. Czy czuć jakieś szarpanie i czy widać rozrywanie. Jeśli szarpnięcia mają trwać ponizej 3ms to nie wiem czy realnie to ktoś poczuje. Tak samo rozrywanie klatek. 

    To źle Ci się wydaje nawet na 480Hz nadal jest lipa bez synchronizacji i nie ma to nic wspólnego z frametime.


  12. 14 minut temu, amsztel napisał:

    Nie. Kurde panowie... co jest z wami :E bez kitu! Wszystko zalezy od ilosci fps. Staly fps o wartosci powiedzmy 120 bedzie ZAWSZE mniej plynny niz fluktujacy miedzy 120 a 150 (przy wlaczonym G-sync ofc). Tu nawet nie trzeba byc inzynierem, zeby to ogarnac :E 

    Nie wiem skad sobie wytrzasneliscie te teorie ze stalym fps ale jest ona nieprawdziwa :P

    Jak przez 99% masz 150fps i nagle zjazd do 120fps to będziesz to odczuwał nawet przy idealnie działającym gsync. 

    • Upvote 1

  13. 4 godziny temu, amsztel napisał:

    To juz jest w ogole jakis kosmos, lepiej bym tego nie ujal. Z jednej strony nastapil w ostatnich latach wielki fejm monitorow z wysokim odswiezaniem i niskim input lagiem a z drugiej strony ludzie sie jaraja FG bo maja "wincyj fps" :E Odlot :E 

    Testowalem ekstensywnie FG na karcie 4070TI Super i to nie dla mnie. To jest slabe. To nie ma zadnego zastosowania. Zadnego. Przy niskim fps typu normalnie 60 a z FG 100 - dysonans miedzy tym co sie wyswietla na monitorze a tym co sie czuje pod myszka jest ogromny, dla mnie nie do zniesienia. 

    Powiem tak input lag nie jest stały przy FG dlatego przy 75-80fps bywa, że akceptowalnie do singlowej gry, a innym razem extreme gumka od majtek ;) I tutaj jest problem.


  14. 29 minut temu, amsztel napisał:

    Tearing. Tearing jest okropny. Za kazdym razem kiedy widze u znajomego gre bez wlaczonego G-Sync to nie moge na to patrzec :E Masakra.

    Nie twierdze, ze kazdy tak ma. Ja tak mam :) 

    Chyba każdy nie ślepy tak ma bez synchro nie ma płynności niezależnie ile tam byś Hz nie zapodał na matrycę.

    Ale ludzie tak czy inaczej są ślepi jak z FG grają przy 60fps z turbo lagiem i dlatego też nie widzą jak im pięknie lag rośnie po włączeniu vsync względem gsync.

    • Upvote 3

  15. Godzinę temu, Kris194 napisał:

    Dużo rzeczy się da ale z pewnych powodów się właśnie tego nie robi. Powtórzę jeszcze raz, developer tworząc grę pod konkretną specyfikację może zastosować różne niskopoziomowe optymalizacje, na PC czy urządzeniach o różnej specyfikacji się tego nie zrobi. Jak komuś brakuje wydajności CPU to za te ~4 lata pojawi się PS6.

    Zmartwię Cię optymalizacje niskopoziomowe dają tyle co nic. Polecam poszukać filmów z wypowiedziami z Naughty Dog z dokładnymi danymi ile dały niskopoziomowe optymalizacje na poziomie GPU.

    Po to masz tworzone gotowe API by na każdym sprzęcie to działało tak samo dobrze. Problemy się zaczynają jak developer klepię grę niezgodnie ze sztuką ;) Dlatego przykładowo Intel, który jest nowy w branży nie otrzyma żadnej magicznej dodatkowej mocy po czasie(ze względu na optymalizacje ze strony developera) i jedyni sami muszą poprawiać sterowniki. Przykładowo DXR1.1 psuje działanie TSU w kartach Intela takie rzeczy mogą się działać bo specyfikacja kart Intela wychodzi poza specyfikacje tego API czy Intel sobie jakoś z tym poradził sterownikami to nie wiem.

    • Upvote 1
×
×
  • Dodaj nową pozycję...