Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

szatkus

Forumowicze
  • Liczba zawartości

    699
  • Rejestracja

  • Ostatnia wizyta

Odpowiedzi dodane przez szatkus


  1. Taką ciekawostką do której mogą się przydać dodatkowe rdzenie może być reytracing w BF5 widać że tam 4 rdzenie bez reytracingu to mało a z nim nawet 6 rdzeni to nie zawiele.

    Pozatym na kompie jest masa procesów w tle do których przydają się dodatkowe wątki a dodatkowo mając te wątki można sobie coś stremować.

    Jeśli ktoś ma procesy w tle, które są w stanie zeżreć cały rdzeń procesora to chyba powienien wyczyścić system.

     

    Streamowanie to jest osobny przypadek i jeśli ktoś ma takie potrzeby to kupno większego procesora jak najbardziej ma sens. Jak ktoś lubi jak komputer podczas grania wyszukuje liczby pierwsze albo przeprowadza symulacje zmian klimatycznych w Ameryce Południowej to też. Jak ktoś po prostu gra to już niezbyt.


  2. Odświeżanie Turinga w 7nm nie ma sensu jeszcze większa przewaga Nv nic im nie da, ludzie nie chcą płacić coraz więcej za karty graficzne. A jeżeli rzeczywiście Nv będzie klepać GPU u Samsunga to będzie znaczyć, że nie chcą powiększać przewagi i chcą minimalizować koszty produkcji do min.

     

    AMD dzięki 7nm wyskrobało +40% wydajności na wat gdyby nie proces byłaby parodia i tyle.

    Gdyby ekonomia 7nm była lepsza to by to miało sens. W takiej sytuacji mogliby puścić tańsze RTXy z wyższą marżą.

     

    Koszty zaprojektowania to łyknęliby bez problemu, w 14nm to wypuścili kilka chipów nawet pod lowend.

     

    Skoro tak nie zrobili to raczej 7nm jest dalej zbyt drogie w produkcji.

     

    To by ładnie tłumaczyło, czemu nowe Radeony są takie drogie.

     

    10%? Proszę Cię, te karty miały zastąpić Polarisy a nie być następcami Polarisów w cenie Vegi.

    Jedyny komunikat od AMD był taki, że będą poniżej Radeon VII. Reszta to ploty.


  3. @szatkus

     

    Za to jeszcze do niedawna ludzie pisali, że gry nie wykorzystują więcej niż 2 rdzenie.

    Później to samo pisali o 4 rdzeniach. Dzisiaj przyszła moda na nie więcej niż 6 rdzeni.

    Nie napisałem, że się nie da. Moim zdaniem jest jeszcze spory zapas. Jak się zastanowić, co się da jeszcze rozskalować w grach to by się znalazło roboty dla kilkunastu rdzeni spokojnie.

     

    Pisałem, że moc pojedyńczego wątku jest znacznie ważniejsza. Co jakiś czas liczba rdzeni polecanych do grania sobie powoli rośnie, ale zawsze polecany procek ma wysoką wydajność pojedyńczego wątku.


  4. Na slajdzie pokazują, że rdzeń RX 5700 to 251mm, RX 580 ma rdzeń 232mm, za to podobno 2x więcej tranzystorów w Navi.

    14% wydajności za 23% mniej prądu... za cenę takich dwóch RX 580 dziś.

    Porównywanie dwóch różnych procesów technologicznych nie ma sensu. Jedyne, co wiadomo, że produkcja Navi będzie coraz tańsza, natomiast Polarisa nie za bardzo.

     

    Myślałem, że 7nm trochę szybciej stanieje, ale patrząc na to, co się dzieje to chyba nie. Inaczej to pewnie Nvidia by się wbiła i byłby zachwyt jak przy Pascalach, że tak wydajnie i tanio.


  5. Kilka lat temu gdy Bartony, Athlony XP, Athlony 64 górowały znacząco nad Intelem pod każdym względem, i tak znaczna większość ludzi kupowała procesory Intela pomimo że był droższy i słabszy to to raczej można nazwać Hipe Train.

    To niestety było trochę dawniej niż kilka lat temu :E

     

    To nie był hype train tylko przywiązanie do marki. Zresztą program Intel Inside powstał w czasach jak PC trafiły do masowego klienta, który zamiast samemu kupować podzespoły brał gotowce. Żeby wyrobić ludziom odruch, że jak nie ma naklejki z Intelem to z komputerem jest pewnie coś nie tak.

     

    PS5, Xbox 2, Google Stadia będą się raczej opierały o wielowątkowość i sprzęt od AMD a nie moc pojedynczego wontka i według mnie to właśnie to będzie prowadziło rozwój przyszłych gier.

    Tak samo ludzie pisali jak wyszedł Bulldozer. Gry się słabo skalują (a raczej trudno). PS4 ma 8 rdzeni, PS5 dalej będzie miał 8 rdzeni, ale mocniejszych. Był sobie kiedyś Cell, który miał pokazać swoją prawdziwą moc jak tylko twórcy gier okiełznają tę całą drzemiącą w nim moc. Nigdy się to nie wydarzyło.

    Krzemu długo nie da się przyśpieszać a rdzeni zawsze łatwiej będzie dodać nawet Intel się ugią i dodaje więcej rdzeni a poprzez problemy z zabezpieczeniami być może straci swój duży atut jakim było HT.

    Przecież Intel od lat sprzedawał procki po 28 rdzeni. Jedyne co się zmieniło to że procki konsumenckie mają więcej jajek, bo AMD zaczęło wrzucać ich więcej, a jak możesz zobaczyć po komentarzach choćby na pclabku to ludzi to jara, chociaż 90% z nich nie wykorzysta więcej niż te powiedzmy 6 rdzeni.


  6. Może być, że chcieli zdążyć na 7/7 i nie trafili z kosztami produkcji. Wtedy ceny będą powoli spadać do jakiejś adekwatnej ceny wraz z dojrzewaniem procesu.

     

    Dojenie dojeniem, ale te karty w takich cenach nie będą się po prostu sprzedawać.


  7. Mieli szansę, żeby powiedzieć, że ich nowa karta wcale nie będzie się głupio nazywać i te 5700 XT to był błąd w druku. Nie wykorzystali jej :E

     

    5700 bez XT ma 36 CU. Jak oni to zrobili?


  8. Dla softu bez znaczenia, czy to fizyczne rdzenie czy z HT. System musi tylko rozkładać obciążenie uwzględniając, który rdzeń jest jest który, aby nie dopuścić do sytuacji, że przykładowo 4 wątki obciążą dwa rdzenie a reszta będzie się nudzić. Dla programisty gry później nie ma znaczenia co jest co.

    SMT nie jest przezroczysty dla softu. To nie ma takiego znaczenia na PC, bo można po prostu kupić lepszy procesor, ale na konsolach sprzęt musi być w miarę przewidywalny.


  9. Jak wyjdą nowe konsole to się zdziwisz.

     

    Ludzie się dziwią że z obecnej generacji konsol da się tyle wyciągnąć, uważasz że producenci nie poradzą sobie z użyciem wszystkich wątków w przyszłej konsoli aby wyciągnąć pełnie jej możliwości >??

     

    Ps5 ma mieć 16 wątków a xbox być może więcej.

    Z tego, co kojarzę to nigdzie nie potwierdzili, że układy dla konsol będą miały aktywne SMT. Jak coś masz to podlinkuj.

    Tak na logikę to raczej słaby pomysł w przypadku konsol. SMT jest trudniejsze do opanowania i podbija zużycie energii.

     

    Wiem, że onegdaj X360 miał SMT, ale to trochę inne warunki :P


  10. VideoCardz podaję że 16 core dopiero we wrześniu

    Gdyby wcześniej wypuścili to by mogli moim zdaniem więcej. A tym zarobić. Ale moze w trakcie tego czasu się uzysk poprawi

    Takie procki mają raczej wartość marketingową. Jak ktoś potrzebuje to są Threadrippery. A jak ktoś potrzebuje coś poważniejszego to Epyci.


  11. Ta, w Metro Exodus większa przewaga niż w Far Cry New Dawn... seems legit 8:E

    No i? Jak są nowe klocki to właściwie wszystko jest możliwe.

     

    Może ta karta będzie konkurować z 2080Ti, a nie z 2070 patrząc na te 2 x 8-pin :E

     

    PS. Oczywiście mam na myśli konkurowanie w poborze prundu, a nie wydajności.

    To był ES, one zwykle mają mocniejsze zasilanie niż produkt końcowy.


  12. CCX co? Nie były publikowane dokładne informacje na temat budowy nowych CPU. Jak będą, to się dowiemy czy chiplety bazują na 4-rdzeniowych CCX'ach (jak obecne ryśki), czy są konstrukcjami prawdziwie 8 rdzeniowymi.

    W jednym z przecieków L3 był wykryty jako 4x16MB, co by wskazywało na 4 CCX. Poza tym wszystkie drobne przesłanki jak i zdrowy rozsądek wskazują na czterordzeniowy CCX.

     

    Jeśli będzie tak:

     

    To nie będzie na rynku CPU z pojedynczym chipletem jak na prezentacji. Troche dziwne to by bylo.

    Jeden chiplet ma 2 CCX.


  13. Tu już nie chodzi o 100% wydajności co rok. Ale aż pięć lat czekania? Bez przesady. Co byście powiedzieli gdyby Xbox 360 był tylko dwukrotnie szybszy od PlayStation 2?

    Słyszałeś o prawie malejących korzyści?

     

    Poza tym PS2 to był taki średniaczek, porównanie do przegiętych Xbox 360 i PS3 jest bez sensu.


  14. gdybysmy byli np Niemcami to niech co roku wychodza karty o 100% wydajniejsze ale...no wlasnie jestemy w biednej Polsce z ciulowata waluta. Zobaczcie jaki u nas jest problem ze zmiana grafy

     

    Na zachodzie RTX 2080 kosztuje 700 euro. Gdyby w PL ta karta kosztowala 700 zl to naprawde co rok mozna by bylo zmieniac na najszybsze najnowsze modele

    U nas tj 3500 zl bo jeszcze VAT itp itd. Cala wyplata na karte. Niemiec za wyplate ma 3-4 takie karty.....

    Ale popłynąłeś. Gdyby co roku wychodziły karty 100% wydajniejsze to logiczne, że segment kart za 700zł też by się dynamicznie rozwijał. Pewnie nawet szybciej, bo highendowe karty zwykle walczą z ograniczeniami technologicznymi, a ze średniego segmentu głównie z ekonomią.

     

    A tak wracając do tematu dzisiaj natrafiłem na news, że Nvidia ma produkować kolejną generację u Samsunga w 7nm z EUV. Niby bez twardych danych ciężko powiedzieć ile to znaczy, ale tak na chłopski rozum AMD może mieć problem, żeby ich dogonić nawet jak Navi jest tak dobre jak na slajdach.


  15. Chodzi o opóźnienie.

     

    Im niższe, tym lepiej i procek ogółem będzie szybszy ;)

    Zgadza się, tylko jak napisałem wcześniej to jest konsekwencją większej pojemności. Jak większy cache zwiększa wydajność o np. 3%, a większe opóźnienia zmniejszają wydajność o powiedzmy 2% to i tak jest zmiana na plus.

    Tam nie pracują idioci, a akurat dopasowanie cache to jedna z prostszych rzeczy do zrobienia.


  16. Największym problemem GCN była konstrukcja układu i związana z tym mała ilość ROPów, a drugim z kolei problemem była przepustowość. Przebudowa GCN na RDNA ma na celu zwiększenie ilości ROPów (jednostek renderujących) a w kwestii przepustowości mamy DDR6.

    Powtarzasz jakieś mity z internetu. Od dwóch lat różni ludzie sobie puszczali testy na Vegach i diagnoza była zwykle taka, że dławił się frontend. Nie było nigdy żadnej znanej przyczyny, żeby nie można było dodać więcej ROPów, ale to by nie miało sensu, bo frontend by nie wyprodukował tyle danych do przerobienia (compute by nie ograniczało, bo tego zawsze było w nadmiarze).

     

    Navi przy 8 SE ma po prostu siłą rzeczy dwa razy więcej wszystkiego na froncie (geometry, balancery itp.). Wątpię, żeby dali więcej niż 64 ROPy, bo to byłby raczej zbędny krzem.


  17. Rober Hallock z AMD:

     

    Clarification on 13% or 15%:

     

    Prior to presenting onstage @ Computex , we planned to use a Cinebench 1T-derived IPC figure. That is 13%. Slides were made and shared.

     

    In the end, we decided it would be best to use a more rigorous SPECint-derived figure. That is 15%.

    Nawet nie można powiedzieć, że czaruje, bo SPECint to faktycznie lepszy benchmark.

×
×
  • Dodaj nową pozycję...