Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

robi29

Forumowicze
  • Liczba zawartości

    24
  • Rejestracja

  • Ostatnia wizyta

Odpowiedzi dodane przez robi29


  1. Command Center trzeba dociągnąć osobno z Microsoft Store. W sumie dziwne, że nie dają tego wraz ze sterownikiem, bo w Arc Control nie zmienisz rozdzielczości, odświeżania, nie włączysz vrr itd. To bardziej Arc Control powinien być opcjonalny imo.


  2. 6 minut temu, blubaju napisał:

    Masz kartę Intela? To jesteś chyba jedyną osobą na forum :] Sam miałem ochotę kupić i się pobawić ale... słabsze to jest od mojej 3070Ti i po testach chyba ciężko byłoby to sprzedać. To jednak seria prototypowa i  użytkownicy jeszcze podchodzą z dystansem do GPU Intela.

    A karta nawet nie moja :E Też się zastanawiałem nad zakupem, bo byłem po prostu ciekawy co tam wymodzili, a PC rzadko używam do grania, więc do przeglądania netu Intel by wystarczył ;) A że przytrafiła się okazja, że bliski znajomy, prawdziwy entuzjasta :D, zakupił tę karciochę, to wybłagałem u niego aby mi pożyczył na kilka tygodni do potestowania na spokojnie. Myślałem, że będą większe jaja. Przed wyjęciem swojego 3070 zapuściłem DDU, podmieniłem kartę (też 6 i 8 pinowe złącza, tylko podłączane do góry nogami w Intelu...), instalacja najnowszych beta sterów Intela i hula aż do dziś. System ani razu się nie wykrzaczył. Gry crashowały jedynie jak dałem za wysokie OC. Swoją drogą słabe są te suwaczki do OC i mogliby odblokować podkręcanie pamięci. Była jakaś drama z dużym zapotrzebowaniem na prąd w idlu, ale chyba rozwiązane zostało to w jakimś sterowniku. Na pulpicie mam 38W. Przy 3070 miałem około 30W, na pewno ciupkę mniej. Kompa mam podłączonego do TV 4K. Pewnie w 1080p czy 1440p mniej ciągną karty.


  3. Trochę moich benchmarków A770 16GB vs 3070:

     

     

    W grach to jest różnie :)

    Przykładowo Wiedźmin 3 chodzi super, a to DX11, gdzie Intel lubi DX12 i VK. A już RDR2 na DX12 jest niegrywalne, a na VK już jest jak najbardziej. Tu FSR jest jakiś zbugowany i pojawiają się cienie na liściach i krawędziach obiektów. Dying Light 2 na 3070 łapało czkawki w rozdziałce 4K z powodu braku VRAM i musiałem wyłączać niektóre efekty mimo że zapas mocy jeszcze był, a na Intelu dobijam do 12GB użycia VRAM-u z włączonymi efektami RT i no nie ma tragedii jak na tę kartę. Da się grać. Wiadomo, że 4K 60fps na ultra to chyba dopiero na 4080 ;)  SOTR chodzi miodnie w 4K na ultra z XeSS, średnio 50-60 fps. Cyberpunk 2077 chodzi tak sobie, brakuje tu XeSS, aby pograć z RT, FSR 2.1 wciąż wygląda źle albo to tak na Intelu tylko. GTA 4, gierka na DX9, chodzi bardzo nierówno, dropy fps są co chwilę, czuję się jakbym grał na PS3 w 2008 roku. Oczywiście full detale + 4K. W ETS2 i ATS można pograć bez przeszkód. W GTA 5 też nie jest źle. Bugi graficzne zauważyłem tylko w Forzie Horizon 4.

    Gry na DX12 widzą HDR, a na VK nie widzą. Tak jakby sterownik vulkanowy nie obsługiwał HDR, jeszcze... Mam nadzieję, że dodadzą.

    XeSS wygląda spoko, nie wiem czy to nie placebo, ale nawet lepiej niż DLSS na ustawieniach wydajność (performance).

    Wydajność RT jest porównywalna do RTX. Na pewno bije na głowę Radeony :)

    Software biedny, pokazuje, że mam wyłączony ReBAR, chociaż mam włączony i GPU-Z pokazuje poprawnie. VRR (czy tam freesync, g-sync) włączony od razu, nie wiem jak go wyłączyć gdyby ktoś nie chciał. Arc Control wkurzający, okienko znika jak się kliknie poza nim, skróty lewy alt+i oraz lewy alt+o do otwierania Arc Control i telemetrii.

    Kultura pracy: głośno i gorąco. Power limit ustawiłem na 228W (oryginalnie jest chyba na 190W) i dobijałem do >80 stopni w DL2. Wentylator rozkręca się do max 2100 rpm.

    • Thanks 1

  4. 46 minut temu, jacktheripper napisał:

    Natomiast szczęka opada ludziom którzy przesiadli się z 1080ti na 6800XT i zobaczyli że na zmodowanym Skyrimie SSE z ENB mają mniej klatek, tylko dlatego że AMD nie zaimplementowało DCL.

    Możesz wyjaśnić lub chociaż rozwinąć skrót DCL? Chętnie bym poczytał co to. Dzięki ;-)


  5. U mnie niby skoczyło na ramach z 63 na 70 (więc podobnie), a na cache z 12 na 13... Tylko, że ostatni raz jak testowałem to było po tym patchu "naprawiającym" l3 cache.


  6. Po samej aktualizacji Win11, przepustowość i latencja L3 cache się poprawiły. Niestety nie wiem ile miałem na Win10 :E

    Przed: zuDauIil.png

     

    I po: 04cyogxl.png

     

    Zaraz wgram sterowniki do chipsetu i kusi mnie aktualizacja BIOS-a, bo siedzę wciąż na wersji z maja, która wyleciała ze strony GB :D


  7. Nie wiem, u mnie działa :E Zrobiłem aktualizację z W10 na W11 w dniu premiery i męczę tego Windowsa i męczę i na razie nic złego się nie dzieje. Gry, w które gram działają tak samo. Specjalnie porobiłem sobie testy w Cyberpunku (przechodzę sobie drugi raz tego crapa po wielu patchach z nadzieją, że teraz nie będę mieć game breakera ;)), Forzie Horizon 4, Days Gone, 3D Markach, Cinebenchu i nie widzę nigdzie różnicy. Pewnie gdybym odpalił benchmarki cache'a, mógłbym się zdziwić, ale po co, gdy aplikacje, których używam działają tak jak wcześniej. Bardziej się obawiałem o stabilność systemu, ale jest git :)

    Po aktualizacji, jedynie zaciągnąłem stery do gpu, bo miałem kilkumiesięczne i wolałem zainstalować takie oficjalne z supportem 11. Traktuję przesiadkę z 10 na 11 jako taki co półroczny update 10 z większymi zmianami.

     

    O VBS było dosyć głośno jeszcze przed oficjalną premierą. Sprawdziłem czy jest włączony, ale na szczęście nie ;)


  8. 27 minut temu, novi napisał:

    Na ryzenie 3600 chyba nie utrzymywałem powyzej 70fps w mieście, rdzenie za krótkie byly :). Ciekawe jak tu zen3 ogarnie temat, akurat karta ma spory zapas do fps. Mam gdzieś zapisane wyniki z frapsa, wiem że intel sporo odlatywal w tej grze, względem 3600 :). Ciekawe czy zen3 odleci tak Intelowi ^^. 

    W sumie to nie wiem czy 1080p vs 4K ma tu jakieś znaczenie, ale na sprzęcie z sygnatury we wszystkich miejscówkach mam stałe 120 fps w 4K, ultra, skalowanie 100%. Zen3 najwidoczniej daje radę ;-)


  9. Też miałem 5800x na auto. W CB23 temperatury dobijały do 90 stopni z chłodzeniem Fortis 3. W grach przeważnie lekko powyżej 70 stopni, bo i też użycie oscylowało maksymalnie przy 40%. W idlu nie jest źle. Po kilkugodzinnej sesji w Cyberpunka, temperatury spadają do 32 stopni, a w pokoju mam dosyć ciepło. Zacząłem się bawić UV i co mnie zdziwiło, że jak za mocno pojechałem z napięciem w dół to Windows nie wywalał bluescreena jak to miałem w zwyczaju obserwować na Intelach, tylko procek obniżał efektywną częstotliwość i wynik w CB23 leciał nawet o 500 punktów w dół, a procek wciąż stabilny i brał po prostu mniej watów. Temperatury też miło spadały w stresie poniżej 80 stopni. Ale co z tego jak wydajność gorsza :) Ustawiłem mnożnik na sztywno 38 i też nic nie pomogło. Na Intelu mnożnik definiował maksymalny boost. W AMD jest to jakoś inaczej i mój procek potrafi dobić do 4840MHz, mimo że w specyfikacji ma 4700MHz jako maksymalny boost, a w biosie mnożnik 38 :szczerbaty:

     

    Ktoś ma pod ręką poradnik, jak zrobić manual OC z UV? Nie chciałbym by procek sam zbijał mi częstotliwość, bo dałem mu za mało jeść. Chciałbym na sztywno ustawić boost i napięcie. Da się coś takiego zrobić? Od zawsze podkręcałem tylko Intele i przy podkręcaniu AMD brakuje mi wiedzy.

     

    Aktualnie co ustawiałem to tylko:

    • mnożnik na 38
    • offset napięcia na -0,066V
    • LLC na normal
    • profil XMP

    Co daje, że w multicore CB23 mam max 1,3V napięcie na wszystkich rdzeniach, a w singlecore 1,4V. Temperatury max 85. Niższe napięcia czy to w multi czy w singlecore powodują, że wydajność spada.


  10. 2 godziny temu, Saren7 napisał:

    Gra ktoś w 4K 3060 Ti? Planuje zakup telewizora  4K 55 OLED pod konsolę, ale pomyślałem, że skoro mam monitor 1080p pod granie będę podpinał TV 4K.

    Mam cały czas podłączony komp do 4K 55, co prawda mam 3070, ale 3060ti jakoś mocno nie odbiega wydajnościowo. W Cyberpunku DLSS na ultra wydajność ratuje tyłek. Mam ustawione rekomendowane ustawienia grafiki od Digital Foundry + trochę podbity RT (włączone wszystkie opcje i oświetlenie na medium). Na Badlandach nie ma problemu by wyciągnąć z takimi ustawieniami 80 klatek. W mieście potrafi niestety spaść do 40. W takim RDR2 ultra z TAA, 3/4 rozdzielczości 4K trzyma 50-70 klatek. Starsze gry (+5 lat) dają radę w natywnym 4K. Nie wiem jak daleko będziesz siedział od TV. Ja siedzę około 2,5 metra i różnicy między DLSS czy 3/4 pełnej rozdzielczości, a 4K nie zauważam bez skupiania się na obiektach o szerokości około 1-2 pikseli. 1080p już trochę jednak boli. Wcześniej grałem na ps4 pro i gdy gra nie miała wsparcia na prosiaka, to bolały oczy od tego 1080p. Fejkowe 4K na ps4 pro z checkerboardingiem robiło robotę, ale DLSS robi jeszcze lepszą. Jak już planujesz zakup OLEDa to pamiętaj o zakupie również kabla hdmi 2.1. 4K 120Hz i G-Sync to fajna sprawa ;-)


  11. Ryzen 7 5800x zegary stock po lekkim uv w celu zbicia temperatur. Straszny grzejnik z proca i napięcie wali do 1,45V :E

    Multi core: 15478

    Single core: 1567

     

    KMJkZ0D.png

     

     

    Chociaż jakiś czas temu udało mi się osiągnąć (również na stockowych zegarach), takie wyniki:

    HgQN2ot.jpg

    c3mdBNl.jpg

     

    Niestety screeny nie kwalifikują się do wymagań, bo brak cpu-z i nicku :cassetete:


  12. Cześć,

    Mam telewizor 4K 120Hz z HDR, który obsługuje G-Sync. Niestety najlepszy kabel HDMI jaki mam w domu to 1.4, który to nie da rady obsłużyć wysokich rozdzielczość z wysokimi częstotliwościami i dodatkowo z G-Synciem.

    Gdy miałem kartę, która nie obsługiwała G-Synca po HDMI podłączenie do TV działało bezproblemowo. Mogłem nawet grać w 4K 60fps z HDR i kabel dawał radę. Niestety po zmianie karty, która już G-Sync po HDMI wspiera, wszystko się rozwala. Po podłączeniu karty do TV, ten twierdzi, że nie ma sygnału, a co więcej, obraz na monitorze, który jest podłączony pod drugie HDMI również ginie (brak sygnału). Mam stary monitor, który nie ma wejścia DisplayPort, więc DisplayPortów nie mogę przetestować czy działają jak mam podłączoną kartę pod TV.

    Póki nie mam kabla HDMI 2.1, nie zależy mi bardzo na G-Syncu. Chciałbym po prostu jakoś wymusić by sterownik nVidii automatycznie nie przełączał w tryb G-Sync przy podłączeniu do źródła, które wspiera ten standard i żeby max rozdzielczość była 4K 60Hz, która mi działała bez zarzutów na starej karcie. Albo chociaż w Windowsie zmienić żeby nie powielało obrazu albo żeby nie przełączało źródła z monitora do TV, bo też tak może być i dlatego ginie obraz na monitorze. Tylko jak to zrobić jak po podłączeniu TV nie mam obrazu ani tu ani tu? :E

     

    Dzięki za wszelkie sugestie ;)

     

     

    // edit:

    Ehhh, w sumie podczas pisania tego posta wpadłem na pomysł, że przecież są skróty windowsowe do zmieniania czy ekran ma być rozszerzony czy zduplikowany. Klikałem aż do skutku gdy obraz się pojawił na monitorze. Potem wystarczyło wyłączyć G-Sync i o dziwo HDR (wcześniej mi działało z HDR...) i obraz na TV mam ;)

     

    Myślicie, że ten kabel ujdzie: https://allegro.pl/oferta/kabel-hdmi-2-1-8k-ultra-high-speed-4k-vayox-3m-9594866440

    Nie chcę przepłacać i kupować jakiegoś super dobrego i super drogiego, który i tak niczym się nie różni od tanich :D


  13. 7 godzin temu, Dr. Acula napisał:

    Niech @robi29 wrzuci fotkę z otwierania przesyłki, jaką ja mu zrobiłem, będzie to dobre potwierdzenie tego co piszesz :)

     

    Co prawda karta przyszła już ponad 6 godzin temu, ale dopiero teraz znalazłem czas by wrzucić fotki i napisać posta, więc tak to było zapakowane:

    https://i.imgur.com/CCXFNgl.jpg

    https://i.imgur.com/wRxuS68.jpg

    https://i.imgur.com/xxTCnHq.jpg

    A tu sama karta:

    https://i.imgur.com/mUf0Tqu.jpg

    Zabezpieczone z każdej strony, nic się nie poobijało :) Lepsza robota niż niejeden sklep, polecam tego Allegrowicza! :E

     

    W końcu może 5800x zmęczy się przy jakiejś grze, bo przy 1060 6GB nudził się ;)

    • Thanks 1

  14. 14 minut temu, Eltik napisał:

    Tak sie zapytam....na jakich wy kartach siedzicie ze tak sie wszyscy rzucili na Ampere?

    Na 1060 6GB. Przesiadłem się z leciwego 2500K wykręconego na 4,7GHz, który to jeszcze w RDR2 dawał radę, ale w Cyberpunku nieźle spadały fpsy w mieście i często obraz zamrażał się na ułamek sekundy. Teraz po wymianie procka nie mam tego problemu. 30-40 fps średnio mam na detalach średnio-wysokich w 4K ze skalowaniem 50%. Więc jak procek wymieniony kilka dni temu, przydałoby się teraz GPU jakieś rozsądne dorwać. A że mam kompa podpiętego pod telewizor 4K to biorę tylko pod uwagę coś z RTX-ów żeby na DLSS grać ?

×
×
  • Dodaj nową pozycję...