Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

Divton

Forumowicze
  • Liczba zawartości

    126
  • Rejestracja

  • Ostatnia wizyta

Odpowiedzi dodane przez Divton


  1. 23 godziny temu, blubaju napisał:

    Jeśli układ bierze 600W to chyba coś jest nie halo prawda? Litografia coraz niższa a żre to coraz więcej prądu i coraz większe są kłopoty ze schłodzeniem tego. Zamiast się skupiać nad wtyczkami powinni myśleć co zrobić, aby to tyle papu nie brało z gniazdka.  Gdzie ten rozwój? 🤔

    Od zawsze wzrost wydajności z nowych litografii był zbyt mały do potrzeb. Wystarczy popatrzeć na rozwój chłodzenia CPU i GPU w ciągu ostatnich 30 lat, był ciągły wzrost zużycia energii aby zwiększać wydajność. Kolejne litografie są coraz kosztowniejsze a zużycie energii powoli się zbliża do nieakceptowalnych wartości dlatego średnie wzrosty wydajności rok do roku będą coraz mniejsze chyba że doczekamy jakiegoś dużego przełomu technologicznego.


  2. Wyjmij kartę i obejrzyj dokładnie slot PCI-E na płycie głównej. Może luty puściły i gniazdo delikatnie się rusza.

    Zresetuj UEFI do ustawień fabrycznych i zobacz czy karta działa. Jeśli komputer podczas testów nie był odłączony od zasilania przez kilka godzin to zrób to dla pewności.

    Jeśli nadal nic to odpal komputer z integry i ustaw w UEFI start z zintegrowanego GPU. Włóż kartę i zobacz w menadżerze urządzeń czy system ją wykrywa, jeśli wykrywa to jako GPU czy nieznane urządzenie.


  3. W dniu 28.05.2023 o 23:24, kluczaj napisał:

    Sprawa wygląda następująco - ostatnio przesiadłem się całkowicie na większy monitor z rozdzielczością 4K i konsolę PS5. Ale lubię też wracać do starszych tytułów, a dokładniej do gier z generacji Xboxa 360 / Playstation 3 i tych jeszcze starszych. Mój obecny pecet to totalny budżetowiec składany z używek (16gb ram w dwóch kościach i i5 10400F). Jaką kartę graficzną musiałbym kupić do tego procesora, żeby starsze gry wydawane w latach powiedzmy 2000-2013 poszły mi na wysokich detalach i rozdzielczości 4k (3840 × 2160) mając przy tym płynność 60fpsów? 

    Gry wydane do 2010 roku działają w 4k 60fps na GTX1060 6GB o ile nie mają skopanej optymalizacji, wydane do 2013-2015 już w 30fps więc radzę szukać karty o 2 razy większej mocy obliczeniowej. Warto rozważyć coś od Nvidii, część starszych gier korzystała z dodatkowych ficzerów działających tylko na kartach Nvidii np. PhysX.


  4. 22 godziny temu, Ronson napisał:

    sorry jak było
    https://www.digitaltrends.com/computing/nvidia-halts-rtx-4070-production/

    Zagłodzić graczy, ale za wszelką cenę bronić horrendalnie wysokich cen!
    Nvidia. The way it's meant to be played.
     

    Do takich informacji należy podchodzić z dużą rezerwą. Nie mogą produkować non stop chipów dla RTX 4070, wyższe i niższe modele są produkowane na tych samych liniach, podobnie profesjonalne układy. Okresowe przerwy w produkcji są normalne i priorytet zawsze mają układy dające największy zysk. Zbliża się premiera RTX 4060 i 4060TI, trzeba dostarczyć mnóstwo układów dla producentów kart przed premierą oraz zrobić zapasy na najbliższą przyszłość aby nie przestawiać maszyn produkcyjnych co chwilę. Tak jak zrobili przed premierą RTX 4070.

    • Like 1

  5. W dniu 1.05.2023 o 20:48, VRilsky napisał:

    Ad1 - Czy mógłbyś rozwinąć "zależy od moinitora"  - czy chodzi otegnologię  "wpomagania" płynności Gsync lub FreeSync ?

    Ad2- Tak pomyslałem nad monitorem 4K ale max 27-28 cali tylko nie wiem czy uzyskam dzięki temu złoty środek  w razie potrzeby przełączaniem pomiędzy np:

              2K dla szybkich gier multi 

              4K dla "spokojniejszych gier" 

    Ad3 - Bardzo ładnie wyjśnione -dziękuję :)     .GPU na pewno będzie to 4090   ,dylemat mam z CPU  .

              Intel wydaje mi się bardziej prostrzy w instalacji i konfiguracji ,patrząc na forumowy wątek AM5  i co tam się czyta o pożarach procków ,problemach z biosami

              ,trochę mnie to odstrasza ale być może to  ogarną i będzie później będzie tylko dobrze .  Ciężki wybór :)  

    1. Różne technologie mają rożne czasy reakcji matryc, marketingowe 1ms tylko OLED ma szanse osiągnąć o ile nie ma skopanej elektroniki. LCD znacznie gorzej a sposobów pomiaru czasu reakcji jest tyle że marketingowcy mogą wciskać każdą wartość. Temat rzeka i tu również spory wpływ mają osobiste odczucia. Gsync i FreeSync zapobiegają rozrywaniu obrazu czyli zastępują VSync ale bez wielu wad tego rozwiązania.

    2. Oprócz przekątnej ważna jest też odległość od ekranu, jeden ma monitor 50cm od głowy, drugi taki sam 70cm i mają zupełnie różne odczucia. Pozostaje zakup, testy i ewentualny zwrot monitora.3. 

    3. CPU zarówno u AMD jak i Intel jest równie łatwy w konfiguracji jeśli nie bawisz się w OC, "pożary" CPU AMD wynikają z niedopracowania oprogramowania je obsługującego, te procki są dopiero miesiąc na rynku, problemy z "bios"-em podobnie. Do gier szukaj 8 szybkich rdzeni bez względu na to czy od AMD czy Intel-a, w jednych grach Intel jest trochę szybszy, w innych wygrywa AMD, różnice wynikają z różnic w budowie CPU i silników gier.

    • Upvote 1

  6. 1. Tak. Z tym że "płynność" to pojęcie subiektywne, przy 144Hz dużo zależy od monitora.

    2. 1440p na ekranie 4k straci na ostrości ale będzie to mniej widoczne niż 720p na ekranie 1080p czy 1080p na ekranie 1440p. Za to zyskasz na fps-ach o ile CPU ma zapas mocy obliczeniowej. Zwiększenie rozdzielczości obciąży głównie kartę graficzną, zwiększenie fps obciąży po równo GPU i CPU.

    3. Wyniki testów na YT w dużym stopniu zależą od miejsca testowego, w jednym CPU będzie bardziej obciążone, w innym mniej. Sporo też może zależeć czy testujący poczeka na przeliczenie shaderów, są też inne czynniki np. wersja sterowników, obciążenie programem do nagrywania rozrywki. GPU dla ciebie to RTX4090, tylko ta karta ma dość mocy dla twoich oczekiwań. Wybór CPU uzależnij od testów w grach, szukaj takich samych testów w 1080p i 1440p . Jeśli wynik w 1080p jest lepszy niż w 1440p to CPU ma dość mocy do 1440p. Jeśli wynik w 1080p i 1440p jest podobny to w obu rozdzielczościach CPU brakuje mocy obliczeniowej. W przypadku AMD zaletą tej platformy jest możliwość zmiany w przyszłości CPU na kolejną generację bez zmiany płyty głównej. 

    • Upvote 1

  7. 14 godzin temu, Mistol napisał:

    Wszystko cacy tylko od kilku godzin próbuję odpalić film z Dolby Vision i mam fioletowy obraz. W opisach jest że  obsługuje DV jak to jest w końcu bo już kilka godzin się męczę w ustawieniach i nic :hmm:

    Dolby Vision może być zapisany na kilka sposobów. W dużym uproszczeniu DV może być jako oddzielny, dodatkowy strumień albo może być już zintegrowany z głównym strumieniem wideo. TV LG odtwarza tylko odpowiednio zintegrowany strumień DV. 


  8. 7 godzin temu, Ekard napisał:

    No i najfajniejsze. Wyłącza pixele na TV jak nie będzie aktywności myszki albo klawiatury. Możesz ustawić czas.

    Ja mam 3 minuty. Nic przez 3 minuty na kompie nie robię to się monitor wygasi i nie zużywa pixeli. Nie musi człowiek pamiętać o wyłączaniu TV co chwilę jak odchodzi od kompa.

    To samo można uzyskać ustawiając pusty wygaszacz ekranu na 3 minuty oraz w opcjach zasilania "Wyłącz Ekran" na Nigdy.

    Odkryłem niedawno projekt ColorControl do sterowania tv LG: https://github.com/Maassoft/ColorControl Jeszcze go nie rozgryzłem ale w założeniu pozwala włączać i wyłączać TV, łatwo wchodzić w service menu, sterować opcjami tv oraz przypisywać do wybranych aplikacji zmiany parametrów TV oraz kart Nvidii np. po włączeniu gry zmień jasność lub profil kolorów a po wyjściu z gry powrót do wcześniejszych ustawień. Pozwala nawet na zmianę paramentów które normalnie w wybranym trybie obrazu są niedostępne do zmiany.

    • Like 1

  9. 18 godzin temu, *** ChOpLaCz *** napisał:

    Hej.

    Czy porty USB HUBa w monitorze, są zasilane same z siebie (przez zasilacz monitora), czy trzeba jeszcze zapiąć przewód do kompa?
    Nie używam HUBa w monitorze, bo jest dalece niewygodny, ale chciałem sobie plecy okleić taśmą LED i nie wiem, czy gniazdo USB samo z siebie zasili, czy muszę HUBa spiąć z kompem?

     

    Porty USB dostają zasilanie po włączeniu monitora. Sspecyfikacja podaje dla każdego portu USB2.0 5V 500mA (2,5W), USB3.0 5V 900mA (4,5W), USB-C 5V 1,5A (7,5W), może więcej jeśli producent to przewidział i napisał w instrukcji. Zasilania z portów nie łączymy razem, jeśli potrzeba więcej mocy to dzielimy taśmę na kilka portów.

    • Thanks 1

  10. Godzinę temu, Kris194 napisał:

     

    Kompletna bzdura, niech mi ktoś wyjaśni proszę, co się stało z segmentem GPU "do 199$?". Dlaczego w tym segmencie wydajność jest tak tragiczna? Jak dla mnie to po prostu zarówno AMD jak i Nvidii zależy żeby nie było w tej półce cenowej postępu, masz płacić jak za zboże i tyle.

    Przewidywanie przyszłości rynku GPU na podstawie zdarzeń z ostatnich 2 lat to jak wróżenie z fusów. Nvidia całkowicie olała segment GPU do 200$ bo byli zawaleni zamówieniami na droższe serie, AMD podobnie ale ci przynajmniej wypuścili nowe tanie modele które nie grzeszyły wydajnością i  muszą konkurować z o połowę tańszymi używkami. No i pojawił się Intel ale ma niedopracowane karty i konkurencję w używkach. Przez ostanie 2 lata segment GPU do 200$ był nieopłacalny dla producentów. Poczekajmy na premierę RTX 4070 i 4060 oraz odpowiedzi na nie od AMD, jakie będą ceny i jak będzie wyglądała sprzedaż. Przed nami premiery modeli które będą musiały konkurować z rynkiem kart używanych.


  11. 2 godziny temu, Keken napisał:

    Ktoś wrzucił. Nie wiem na ile prawdziwe.
    Dla mnie przyszłość PCtowych kart graficznych jest czarna lub bardzo czarna. Zostanie bardzo drogi sprzęt dla małej grupki. Jak w audio.
    Cała reszta ludzi laptopy, konsole, urządenia mobilne, chmura i co tam jeszcze wynajdą.
    Zrzut-ekranu-2022-11-28-214017.jpg

    Oba wykresy mają inną skalę co może prowadzić do błędnych wniosków. Spadek jest ale przyczyn jest kilka:

    - Wymiera segment tanich kart graficznych który jest wypierany przez zintegrowane GPU w procesory. Dziś nie ma pytań czy ta gra pójdzie na integrze tylko na jakich ustawieniach. Rynek GPU do komputerów biurowych to dzisiaj nisza, 15 lat temu inaczej to wyglądało.

    - Rozwój grafiki w grach zwolnił. Dwukrotne zwiększenie ilości wielokątów na ekranie już nie robi efektu WOW jak 15 lat temu. Dzisiaj te dodatkowe wielokąty idą na zmarszczki na twarzach postaci, na drobne obiekty na mapach oraz obiekty na 2 i 3 planie. Jest lepiej ale coraz mniej się to zauważa w trakcie gry. Wymiany GPU mogą być coraz rzadsze.

    - Coraz większy rozrzut wymagań graczy, jednemu wystarczy 1080p w 30 klatkach, innemu 4k w 100 klatkach. 10 krotna różnica w zapotrzebowaniu na moc obliczeniową w GPU. Nowa karta starcza na coraz dłużej i może coraz dłużej krążyć na rynku wtórnym ograniczając sprzedaż nowych kart.

    - Ciągle jesteśmy tuż po długiej górce krytowalutowej której efekty ciągle są odczuwalne.

    - Jesteśmy w trakcie premiery topowych modeli nowej generacji GPU, w ciągu pół roku będzie premiera średniego segmentu GPU. Poczekajmy z wnioskami na premierę najczęściej kupowanych serii kart. Ludzie nie będą wymieniać GTX1060 na RTX4080.

    • Like 4
    • Upvote 1

  12. 6700k ciągle ładnie trzyma cenę. Sprzedając procesor i płytę starczy bez dopłaty albo z niewielką na platformę z Intel-em 10400/11400 albo AMD 5600g/5600x. 2 razy większa wydajność i mniejsze zużycie energii. Zamiast RTX 3070 można rozważyć bardziej opłacalnego RTX 3060TI. Albo poczekać z zakupem kilka miesięcy, po nowym roku zarówno Nvidia jak i AMD zaczną wypuszczać nowe karty z średniego segmentu.

    • Upvote 1

  13. 15 godzin temu, QuBlee napisał:

    Dodam jeszcze tylko, że po podłączeniu innego tv przez ten sam kabel ten sam efekt.

    Skoro na innym TV ten sam efekt to wina kabla albo komputera. Uszkodzone lub zaśniedziałe styki albo uszkodzenie mechaniczne w środku, może problem ze sterownikami. Kabel podmień lub sprawdź na innym komputerze delikatnie go naginając.


  14. 7 godzin temu, Keken napisał:

    Moja C9 55" pobiera 200W w HDR przy jasności 100% na planszach testowych, sama biała plansza w SDR 0% to 100W, w normalnym użytkowaniu SDR 0% to 60-70W. 

×
×
  • Dodaj nową pozycję...