Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

lukas108

Forumowicze
  • Liczba zawartości

    458
  • Rejestracja

  • Ostatnia wizyta

Odpowiedzi dodane przez lukas108


  1. W dniu 30.01.2024 o 10:18, Qwinto napisał:

    Proste. Ustawić ww router w tryb punktu dostępowego (AP - Access Point) albo ustawić mu stały adres IP z puli DECO, wyłączyć na nim serwer DHCP i podłączyć go do portu LAN (Instrukcja, wybierze Case2). Wtedy mamy płaską sieć LAN, brak wewnętrznego NAT na tym dodatkowych routerze.

    Dzięki, to rzeczywiście proste - działa jak złoto. Nie wiem, dlaczego sam na to nie wpadłem. Nie korzystałem wcześniej z trybu Acces Point, wydawało mi sie że to dotyczy WIFI. Teraz wiem że to zmienia działanie routera na zasadzie pracy swicha.  

    Pozdrowienia i temat SOLVED.

     

    • Like 1

  2. Cześć

    Mam zagwozdkę. Używam serwera NAS do backupów. Ten jest podłączony do klasycznego routera, dzięki czemu mogę komunikować w sieci z moją stacją roboczą i robić z niej backupy. Router podłączony jest do urządzeń Tp-link mesh Deco M4 (https://www.tp-link.com/pl/home-networking/deco/deco-m4/). Urządzenie jest dostarczone przez dostawce sieci. Więc jest on bramą dla mojego internetu. 

    Deco M4 serwuje mi sieć WIFI w całym domu. Więc przez tą siec łaczę laptopa.  Problem w tym że nie wiem czy da się tak zrobić, aby laptop który działa w sieci WIFI Deco mógł połączyć się z serwerem NAS, który jest w podsieci routera?

     Schemat:                    przez WIFI do laptop <--- DECO po kablu LAN do ---->  ROUTER ---> po kablu LAN o NAS 

     

    Dzięki za pomoc. 


  3. W dniu 9.01.2022 o 15:51, antubis12 napisał:

    za mało  do odpalenia windowsa  i używania programów   akurat  system    u mnie używa    10 GB  ram

    te 5 GB  ram to przeglądarka Firefox    

    Zauważ że czym wiecej masz RAM tym więcej aplikacje pobierają RAM. 

    • Upvote 1

  4. Jasne, wiem o tym. Jednak sam wynik przepustowości mnie nie interesuje a realne użycie przepustowości magistrali w realnych zadaniach.  Chodzi mi o to w jakich praktycznych zadaniach osiągam max jakie daje mi dual channel i mój RAM.  Dotychczas jedyne zadanie jakie zrobiło mi wynik identyczny z AIDA była kompresja WinRAR.  

    Tyle że wskaźnik nadal pokazywał 23 Gbps.   Reszta typowych zadan ledwo rusza magisralą. Nawet gry nie biorą wiecej jak 6 Gbps, odpalone bez Vsync, GPU na max.  

     

    I nadal pozostaje pytanie - co to jest te 23Gbps?  


  5. Cześć 

    Ostatnio zrobiłem sobie kilka testów z użyciem AIDA + monitorowanie HWiNFO64.  Wnioski po  śledzeniu użycia przepustowości są dla mnie niejasne. Teoretycznie mój RAM wyciąga około 49GB/s maksymalnego transferu. Kiedy robię test AIDA to monitoring z kontrolera pamieci w CPU wskazuje 23.321 Gbps, po czym wypluwa wynik ok 49GB/s.  24 Gbps To jest + -  maksymaln wartosc jaka udalo mi sie zaobserwować.   Ktoś wie jak to czytać? Przecież według przelicznika jednostek 23.321 Gbps to  2,7 GB/s.  Totalnie bezsensu.   

    thumb_show.php?i=e64xe79bb&view


  6. 3 minuty temu, galakty napisał:

    Przecież pisałem, że u mnie szło 3466 MHz ? 

    Ach no tak, myślałem że piszesz w odniesieniu do Ryzen 3600, ale to już działanie ponad fabryczne mozliwosci kontrolera Zen 1 i jest to loteria. U mnie nie szło na 1700.   Nie ma to znaczenia. Na Zen 2 i Zen 3 ramy 3200 można fajnie podkręcić i będą działy stabilnie w dużo większymi prędkościami. Bez wywalania kasy na nowe kostki które tak defacto nie wiele wnoszą. 


  7. 32 minuty temu, galakty napisał:

    Jak na 2600 miałeś max 3200 MHz to cudów bym nie oczekiwał, to moje HyperX szły 3466 MHz CL16 bez problemu (przy 3600 MHz była ściana i dopiero na Ryżu 3600 poszły). 

    Miał max 3200 Mhz bo ten procek więcej nie obsłuży. Tak jak u mnie, na 1700 max to 3200, a na 5900X te same RAMy poszłu 3733Mhz. 

    8 minut temu, Send1N napisał:

    No właśnie w tym przypadku nie mogę się zgodzić co działało by w 99% innych gier jak masło, cs ma tak skopany silnik że grając na 120fps masz odczucie działania tego jak na 60 a przy 60 jak na 20 :E nie da się zupełnie grać płynnie, druga sprawa że każda synchronizacja w tej grze powoduje klatkowanie a sama gra wymaga minimum 170-180fps i to nawet na monitorze 60hz do płynnej gry, grałem w csa 17 lat a w cs go (usuwając grę półtora roku temu z dysku :E ) miałem przegrane 3600h.

    Ciekawe, też grałem w tą grę i nie doświadczyłem czegoś podobnego.  Na czym polega to zjawisko że przy 60fps działa jak przy 20 fps?  Możesz to rozwinąć? 

    • Upvote 1

  8. 22 minuty temu, Roman85 napisał:

    A przy okazji chciałbym was się spytać na ile mogę teraz podkręcić ramy przy tym ryzen 5600x i płycie b450. Ramy mam Corsair 16GB (2x8GB) 3200MHz CL16 Vengeance RGB Pro i na ryzenie 2600 max co mogłem uzyskać to 3200mhz. Jedynie co mogłem to poluzować timingi. Ramy są na kościach Samsunga to mogę teraz uzyskać coś więcej niż te 3200mhz?

    Ja mam HyperX Predator 3200Mhz, które działały na poprzednim Ryzenie 1700 z 3200Mhz. I to był max. Natomiast te same kości spokojnie teraz działają u mnie na 3733Mhz na 5900X w trybie OC. Timingi pobrałem ze strony producenta. Czyli z kości HyperX Predator 3600Mhz (które to spokojnie działały rónież z 3733Mhz).  Róznica w wydajności jest dla mnie pomijalna bo nie robię komputerowi stres testów grami :) ... więc tak defacto działam dalej na 3200. Kupowanie w każdym razie nowych kości to wywalanie kasy. 


  9. W dniu 25.05.2021 o 22:52, Send1N napisał:

    kolega gra w cs go mając 1660ti i ciągle mi płacze że ma spadki do 130fps na r5 2600 przy 32 graczach a w tej grze do płynnej rozgrywki trzeba mieć 200 taki silnik fatalny ;) 

    Zawsze mnie smieszą ci ultra "pro" gracze 250fps +. Gdyby rozumial jak działa ludzki mózg, zrozumialby ze nie ilosc  fps jest kluczem do sukcesu ale stabilność i przewidywalnosc zachowania sie calego interfejsu. Jesli ma spadki do 130fps, powinien grac na stale zablokowanymi na 120 fpsach z pelnym synchro na matrycy z g-sync bez spadków. Będzie miał lepsze rezultaty w grze niż gdyby miał ciągle dropy o 100fps góra dół - góra doł (lub cogorsza nieustanna utrata synchronizacji obrazu i tearing). Wiec zanim zmieni procka, niech zmieni podejście do kwestii technicznych. 

    • Like 1

  10. W dniu 27.04.2021 o 22:14, SanczoPanczo86 napisał:

    W ostatnim czasie przeszedłem z R5 3600 (@4,4GHz) na R5 5600X. Grafika to RTX 2060 Super OC od Asusa w wersji STRIX. Nie spodziewałem się wzrostu wydajności w grach, procesor kupowałem z koncepcją wymiany grafiki na RTX 3070 w przyszłości. Gram w 1080p. Po zmianie procka mam ok 10% więcej fps w praktycznie każdej grze (BF4, BF5, GTA5) w 1080p.

    Nie spodziewales się wzrostu, ale czy twoj GPU również wtedy działał na 100% w momentach testowych?


  11. Wiec moze cos od Asrock na X470? Obsługuje wszystkie generacje Zen 1 - 3 na jednym BIOSie, łaski nie robi :) dźwignie każdy model. 

     


  12. Kingston HyperX to bardzo dobre kości.  Swoje Predatory z 2019 roku zostawiłem do nowego procka, wcześniej działały na 3200Mhz z Ryzen 1700. Teraz mogę podkręcić do 3733Mhz  bez problemu ze stabilnością (Ryzen 5900X). Także na twoim przyszłym 3600X również będziesz mógł to zrobić.  3200Mhz to jest względnie optymalna wartość która nie odstaje mocno od maksymalnej możliwej (dzięki szybszjej pamięci RAM) wydajności. 


  13. 5 godzin temu, Phoenixsuple napisał:

    RTX 2060, R1700 i nie spadalo ponizej 90fps. WOW :lol2: W nastepnym poscie bedziemy mieli wykorzystana matryce 144Hz jak kapke dorzucisz fpsow :D

    No i z czego się smiejesz? Robiłem test procesora, więc ustawiłem detale obciążające kartę na niskie z dlss. Tak aby GPU nie przekraczało 60%. Rtx2060 w takich testowych warunkach nie jest wogole istotny. 

    Ok na pocieszenie dodam że obecnie mam 5900X i nie odczuwam specjalnie różnicy w grach które gram (poza Fallout 76, który potrafił chrupnąć poniżej 50fps, bo to archaik na 2 rdzenie).  Akurat mam matrycę 60hz, więc klatkaż dla adhd'owców mnie mało interesuje.  


  14. 5 godzin temu, zlotnik napisał:

    Miałem 2700 podkręconego na 4ghz i rtx 2070super i akurat było kilka miejsc w cyberpunk gdzie fps spadał poniżej 45 klatek a obciążenie gpu spadało do 60% więc nie uwierzę że na 1700 nie spadało poniżej 75

    Cóż, miejsc procesorowych moze byc setki w tak dużej grze.  Tak defacto trzeba by zebrać statystyki z całego 80 godzinnego gameplay'u oszacować jaki procent  stanowi wartość poniżej 60fps. Daje głowę że jest to procent nie nadający się na dalsze bicie piany w tym temacie. Przeszedłem na tym procku całą grę z blokadą na 60fps. Grało się bardzo komfortowo.  

    4 godziny temu, Phoenixsuple napisał:

    Swój test wykonałem w miejscu które uznałem za najbardziej obciążające z obserwacji w mojej wlasnej grze.  Jazda samochodem po mieście, klatki nie spadał poniżej 90fps.   Reszte napisałem wyżej. 


  15. Chcesz wiedziec czy to GPU czy CPU ogranicza ci gre w 60fps to odpal MSI afterburner i obserwuj uzycie GPU. Jeśli przy spadkach GPU nie dobija do 100% to wina CPU. Jesli przy spadkach GPU jest na 100% to niewyrabia GPU. Ważne, jak masz monitor 60hz to ustaw ograniczenie klatek do 60fps i nieżyłuj karty i nie marnuj prądu. Wszystkie spadki ponizej 60fps obserwuj na wykresie co jest jego przyczyną. 

    Ja gralem lata na podkreconym Ryzen 1700. Spadki ponizej 60fps zdarzały sporadycznie z powodu CPU (stare silnikowo gry jak Fallout 76 głównie). Ogolnie granie w 60fps bez spadków było komfortowe niemal w każdej grze. Mam rtx 2060. 1440p lub 1080p. Taki Cyberpunk nie schodzil ponizej 75fps spowodu CPU. Robilem testy procesorowe. 


  16. Cześć

    Czy ma ktoś wiedzę na temat tego jaki wpływ na kartę ma ma kopanie po undervoltingu?  Mam karty RTX 2060  gdzie obniżyłem na stałe do 700mv, taktowanie około 1300Mhz, GDDR jest na oryginalnym poziomie 6800Mhz. Z 125W zeszło na 80W i temperatury przy 75% wiatraku nie przekraczają 62C.   RX580 tez podobnie, stała temp około 60C i 65W poboru mocy. 

    Jak to sie ma do żywotności karty? Pracuje ona raczej dobrych warunkach i nie przegrzewa się. Ale nie wiem co z RAM. Czy karta pomimo wykorzystania 100% GPU ale działająca w swobodnych warunkach termalnych zużywa się jakoś mocno?  Dodam ze pracuje ona nie wiecej niz 8 godzin dziennie. 

    A może są  jakieś układy elektroniczne na karcie które przy dużym obciążeniu rdzenia i małym napięciu dostają w tyłek?  Może są inne miejsca które grzeją się bardziej ale tego nie podają czujniki na karcie?   

    Jakieś przemyślenia?   Dzięki! 

     


  17. Jak działa dobrze to się raczej nie updatuje BIOSu. Taka ogólna zasada bezpieczenstwa. Można flashować do poprzedniego, nie ma problemu.   Nowe BIOSy dla X470 kaszaniły obłsuge pamięci na pkytach Asrock dla przykladu.  

    Sam używam 1700, też ostatnio mi odłoczało USB na Hubie, ale nie skojarzyłem tego z niczym, dopiero miałem tak jeden raz. Zrobie prewencyjnie test na jakimś stres teście. Kręciłes tego procka? Mój jest kręcony i miałem go na 3,9. Chodził stabilnie bez obiążenia. Ale OCCT wykazał  błędy w działaniu. Więc zmieniłem na 3,8 i jest zero błędów. Sprawdz czy procek nie wywala ci błędów przy pełnym obciążeniu.  

    • Haha 1

  18. 16 godzin temu, Roberto78 napisał:

    Racja panie, w niektórych zastosowaniach dodatkowe IPC mocno nadrabia mniejszą ilość rdzeni. Różnica jest niewielka ale jest. Cena CPU podobna, troche może wyższa. 

    Niemniej jednak różnice zależą od programu jaki chcemy wykorzystać: https://www.pugetsystems.com/labs/articles/Adobe-Premiere-Pro-AMD-Ryzen-5000-Series-CPU-Performance-1960/

     

    Nie optuje tutaj za jednym i za drugim, oba CPU będą podobnie sprawde w tych zastosowaniach. Skupiłbym tutaj uwagę na GPU, aby tutaj nie było wąskiego gardła. 


  19. Cześć

    Cenowo i wydajnosciowo 3900X jest optymalnym wyborem na ten monent. Przy wyborze 5900X zyskasz niewiele a różnica w cenie jest spora. Lepiej dolozyc do GPU i SSD na projekty. 

    Musisz pamiętać że równie ważne w montażu wideo jest GPU i VRAM.  Szczególnie w programie Adobe Premiere który potrafi zaprzegnąć do renderu niemal wszystkie rdzenie CUDA.  Procesor CPU nie ma szans z GPU w tym zakresie. Przyklad 3900X jest o prawie polowe wolniejszy niż render GPU na najtańszym Turingu GTX 1650.  Wiec najlepszym rozwiazaniem jest tutaj połączenie obu elementow - dobrego wielowatkowego CPU + przyzwoity GPU. Przyzwoite minimum stawialbym tutaj na GTX 1660/RTX2060 6GB. Optimum to coś w rodzaju 2070/3070 8GB.  Lub jakikolwiek GTX/RTX z 8GB. 6GB VRAM pozwoli. juz w miare swobodnie renderowac filmy 4K. 

    12 rdzeni rowniez przyda ci sie podczas pracy w timeline.  Minimum to 32GB RAM. 

    Uzywki GPU tez bralbym pod uwagę (szczególnie w tych czasach). 


  20. W dniu 16.01.2021 o 19:49, jurekk napisał:

    Single był ważny 20 lat temu ,dzisiaj większość gier pisana jest na 8 rdzeni

     

    Nie no single jest tak samo ważne jak multi. Single determinuje ogólny wynik multi, nie na odwrót. Poprostu  4 rdzenie w nowych grach to juz za  malo, dlatego czesem lepiej wypadnie Phenom II 6 rdzeniowy pomimo nieco wolniejsze single core.  


  21. 13 minut temu, jurekk napisał:

    Phenom jesto 50 procent wydajniejszy od a8 w najnowszych grach

    Ten sam poziom mniejwięcej, czasem szybszy w single czasem wolniejszy. Średnio prawie to samo.  Jedynie w multi trochę odstaje bo ma mniej o 2 pełne rdzenie. 

    Ale w grach nie sprawdzałem.   Poszperam. 

    https://cpu.userbenchmark.com/Compare/AMD-Phenom-II-X6-1090T-vs-AMD-A8-7600-APU-2014-DKa/m417vsm14050

    image.png.c493a53abcdb458847ede8664d21e89b.png

×
×
  • Dodaj nową pozycję...