Szanowny Użytkowniku,
Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.
Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.
Administrator Serwisu Forum PC LAB informuje, że:
- Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
- Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
- Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
- Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
- Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności
Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.
-
Liczba zawartości
117 -
Rejestracja
-
Ostatnia wizyta
Odpowiedzi dodane przez Adolph
-
-
Akurat Cinebench to chyba zawsze preferował AMD, z jednym tylko wyjątkiem Zen 1 vs Skylake (ale popularność zdobył dużo wcześniej).
Pierwotnie chyba był optymalizacowany pod P4. CB miał w nosie długość potoku, predykcję skoków, przeladowywanie bufora instrukcji, komunikację przez fsb, świetnie skalował się z wątkami, robiąc świetny użytek z HT. Więc w zasadzie ukrywał wszystkie wady netbursta jakie tylko się dało. Więc odstawiał takiego Bartona ostro. W życiu codziennym. Eee. Już tak kolorowo nie bylo:P
Jakby się zamienili. Tylko Intel jak był drogi, tak dalej jest xD
Buldo z kolei miał na modułach robudowane Alu i agu,ale średnie predyktory i już nie tak rozbudowane FPU kompletnie sypały skalowanie. Dodatkowo powiększanie modułu zwiększało rozmiar układu i pobór prądu. Co tym bardziej ubijało efektywność układu.
Przez co nie tyle nie lubił zadań FPU. Co wyraźnie był nastawiony na INT, a do tego wymagał większej ilości wątków by w ogóle wyglądać. To jakby porównać gościa który robi tylko klatę i nie robi nóg. Wygląda komicznie,do tego jest dobry w tylko jednym ćwiczeniu. AMD też sporo kolorowało skalowanie CMT.
Z ryzenami było i dalej jest dość podobnie. Czy to w kwestii AVX, SHA, SHA3, CCX/chiplety.
No nikt mi nie powie jak się bedzie zachowywać 3900X z 4CCX w dwóch chipletach, za to dowiem się, że konsole będą miały więcej R, to gry będą lepiej z tego korzystać

Banchmarki AMD to samo. Już nawet nie ten ashes of singularity, ale nawet prezentacja Vegi, bez podanej wydajności tylko patrzcie jest płynnie. Czy podawanie wydajności RX480 w CF, które było dalekie od ideału xD Temat jest głęboki i ciekawy w każdym razie.
-
A Sceptic's Guide to Magic 0R4CV-0A6EC-N36LL
King's Bounty: Warriors of the North Q6KTA-4D799-64LXW
Duke Nukem Forever YVHKQ-T7A6V-FDEKJ
Duke Nukem Forever: Hail to the Icons Parody Pack YDIIE-FAGAY-NRNPE
Duke Nukem Forever: The Doctor Who Cloned Me KTD75-NZ6Q8-DK3TZ
-
"Szef Intela chce by branża przestała skupiać się na benchmarkach"

Intel i wszyscy biegający z CB na ustach są najlepszym tego przykładem

-
Jak sobie przeczytasz dobrze wypowiedź gościa z AMD, z redditowego wątku. On się odnosił do tego co przytoczyłeś.
"The best way to do DX11 is from our GCN Performance tip #31: A dedicated thread solely responsible for making D3D calls is usually the best way to drive the API.Notes: The best way to drive a high number of draw calls in DirectX11 is to dedicate a thread to graphics API calls... "
Zalecenia dotyczące programowania pod sprzęt, robi się pod to, co sprzęt potrafi i wychodzi mu najlepiej. Jeżeli z czymś radzi sobie źle, się tego unika.
Polaris ze swoim przerobionym schedulerem nie zmienia tego, że dalej sobie nie radzi z kontekstami. A w konkretnych warunkach takie Hawaii sobie radzi tak samo dobrze.
Więc znowu. To, że sobie AMD coś wymyśliło. Nie znaczy, że jest to w jakiś sposób optymalne rozwiązanie. Albo inaczej. W tych konkretnych warunkach.
-
Przeczytaj dokładnie co napisałem.
Na przykładzie Intela:
"On the AMD GPU, the graphics driver module does not appear in the working thread but is concentrated on the main thread (see Figure 6), which means that a single immediate context bears a large amount of driver load, thus increasing the time of the working threads waiting for the main thread."
Nie korzysta z tego jak powinien. Nawet gościu z AMD na reddicie to potwierdził.
Druga sprawa. Specjalnie zwróciłem uwagę, że Fermi ma rozbudowany sheduler sprzętowy, a mimo wszystko DCL wspiera. Co oznacza, że nie przeszkadza on w zgodności z dcl.
Możesz się zastanowić nawet, czy zredukowanie sprzętowego schedulera, nie było podeyktowane, tym,że w NV stwierdzili, że poprzez działanie kontekstów sami lepiej ogarną scheduling niż dedykowany rozbudowany sprzętowy scheduler.
Warto to rozpatrzyć w kategorii gier DX 11 vs 12. Gdzie karty NV często wypadają lepiej w DX11, niż 12. Gdzie w poprawnie zrobionej konwersji DX 12. Też dostają Boost do wydajności.
Kolejna sprawa to mantle, Dx12.
One się nie wzięły znikąd w 2013/2014. Co już zostało napisane. AMD kładzie szczególny nacisk na nie, bo właśnie leży w DX11.
https://techreport.com/review/26239/a-closer-look-at-directx-12/
Co nie zmienia faktu, że Dx12 potrafi być upierdliwy z punktu widzenia dewelopera.
Na takim przykładzie:
"Think about memory management, for example. The way DirectX 11 works is, if you want to allocate a texture, before you can use it, the driver basically pre-validates that that memory is resident on the GPU. So, there’s work going on in the driver and on the CPU to validate that that memory is resident. In a world where the developer controls memory allocation, they will already know whether they’ve allocated or de-allocated that memory. There’s no check that has to happen. Now, if the developer screws up and tries to render from a texture that isn’t resident, it’s gonna break, right? But because they have control of that, there’s no validation step that will need to take place in the driver, and so you save that CPU work. "
Nie wszyscy muszą być za. A na pewno devsi wiedzieli, że będzie sporo z tym problemów xD
-
Nv miało wsparcie dla DCL od 270.xx

Od pierwszego tytuły z 2011 zaczął się raban o brak MT w sterach AMD

Inaczej sobie raban interpretujemy

-
Scheduler z GCN 1.0 nie zmieniał się z czasem. Pierwszy GCN, też ma Async i AMD raban z tym robiło jeszcze z Mantlem.
Główny problem jaki ma AMD, to przystosowanie sterów, do działania z deffered context i wsparcia dla DCL.
Nawet NV to przecież zajęło kilka lat. Fermi, jako Fermi pojawiło się w 2010. AMD dobrze wiedziało już wcześniej, że będą mieli z tym problem.
https://en.wikipedia.org/wiki/Graphics_Core_Next#Scheduler
"For a given shader, the GPU drivers also need to select a good instruction order, in order to minimize latency. This is done on cpu, and is sometimes referred as "Scheduling". "
To, też nie jest tak, że sheduler robi wszystko, a driver nic. DCL jest częścią specyfikacji DX11.
Która była znana AMD:
https://www.gamasutra.com/view/feature/132153/sponsored_feature_introducing_.php
Swoją drogą tak, NV, czy AMD pracują z MSem przy każdym API i dobrze wiedzą, co się tam będzie dziać.
-
Nie mam już Fermi, ale Fermi także wspiera dcl.
-
Może coś w tym być, ale ja temu gościowi w testy nie wierzę
Miał już wiele potknięć. Najlepsze co było chyba, to z "nvidia slows performance in new drivers"

Co to było potem w internetach ^.^
-
Bo innego rodzaju problemów podobnej miary nie ma

Na moje proste rozumienie (jakąś tam wiedzę programistyczną i doświadczenie mam), kłopot z DX11 polega na tym, że jeśli dowolny wątek CPU może wygenerować zlecenie dla sterownika, to coś musi co jakiś czas te zlecenia z wątków pozbierać. W DX11 jest to zwalane na sterownik. Z tego co piszą ludki od AMD, to bardzo szybko (robili testy), samo zbieranie tych zleceń z wątków staje się istotne obciążeniowo dla wątku głównego (operacje graficzne idą w potężne liczby).
Nawet intel poruszył ten temat pare lat temu:
"However, when the number of CPU cores is greater than two, the DirectX 11 multithreaded rendering performance is significantly better than that of single-threaded rendering, regardless of which GPU is used, and the performance increases as the number of cores increases. When paired with the NVIDIA GeForce GTX 1080, multicore performance scales very well; performance increase is almost linear from 2 to 6 cores. Even from 6 to 10 cores, the performance increase is significant. When paired with AMD Radeon RX Vega 64, the scalability is worse than that; especially when the number of CPU cores exceeds 4, the performance increase is almost negligible."
-
Zgadzam się z powyższymi wypowiedziami Twoją i Sine co do DX11 itp, ale chodziło mi również o inny aspekt.
Ja to rozumiem, ale IMHO dyskusja zlatuje na zły tor, dlatego chciałem jednak, aby wróciła do samego problemu

-
Sine, cyt: "że ludki z Nv praktycznie nic nie skrobią na tego typu forach" dalej nie ma 100% pewności
To, czy ktoś coś, gdzieś pisze, czy nie. Nie zmieni tego, że gry z DX11 potrafią chodzić na NV wyraźnie lepiej, niż na AMD, oraz tego, z czego wynikają problemy AMD.
Marketingowcy, z AMD pisali dużo rzeczy, które niekoniecznie musiały być zgodne z prawdą

Także dyskusja byłaby ciekawsza, gdy nie było o tym, że ktoś coś napisał, tylko o tym co faktycznie zostało napisane.
-
Tylko czy aby na pewno?
Patrząc na ogólne prawidłowości ekonomiczne, jedynie konkurencja ogranicza działania monopolistyczne. Gdyby nie było Ryzenów, kto wie ile płacilibyśmy dziś za CPU Intela. Gdyby nie Freesync, nie byłoby "G-Sync compatible". Z jakiejś przyczyny istnieją na wielu rynkach regulacje chroniące konkurencję. Jeśli ktoś to rozumie, to raczej nie jest dziwna negatywna ocena sposobu działania NV.
Nie zawsze. Prawidłowości ekonimiczne mówią też o duopolach, czy oligopolach. Nawet tworzone były odpowiednie modele takowych.
Ja nie pisałem o ochronie konsumenta, ale o tym, że jak chce się wprowadzać standardy, to istnieją drogi które ich wdrożenie ułatwiają, oraz poprawiają doświadczenie nie tylko użytkowników, ale też i deweloperów. To, że standardy AMD, przez takie podejście NV, nie są tak wspierane. Nie czyni podejściem NV złym. Jest odwrotnie. Swoje produkty się wspiera.
-
Partnerstwo NV, czy AMD zawszę polegało na wdrążeniu ich własnych rozwiązań i użyciu ich w jak najlepszy sposób. Jasne, w wyniku takiego partnerstwa sporo rzeczy w bibliotekach zostało przemodelowanych, czy wręcz ulepszonych żeby działać optymalnie na sprzęcie danej firmy, np. TressFX przeszedł niezłą drogą od wersji 1.0 do wersji 3.0 którą można zobaczyć na current gen konsolach np w Tom Raiderze, czy Horizon Zero Dawn.
Partnerstwo NV, a AMD ma pewną różnicę, z której wynika popularność "zamkniętych" rozwiązań zielonych.
Jak zieloni wypuszczają rozwiązanie, to udzielają szerokiego wsparcia i pracują z devsami, nie tylko w samym wdrażaniu, ale też nad tym jak poprawiać i ulepszać te rozwiązania. Poprawiajac same biblioteki. Co z kolei znowu poprawia same narzędzia. I jest to łatwiejsze dla samych deweloperów.
Z kolei jak AMD wypuszczają swoje rozwiązania opensource, to każdy inny w znacznie większym stopniu musi się męczyć, by doprowadzić to w ogóle do działania.
Oczywiście w internecie się przelewa potem fala żółci, bo NV wysyła stado inżynierów, żeby coś "zaimplementowali" i w ogóle jak tak można. No i tak jest od lat.
Co jest w sumie głupie.
Jedyne co można zarzucić - i to obu firmą nie zależnie od podejścia open, czy closed source - to to, że ich rozwiązania w dniu premiery, kiedy są ekstremalnie hype'owane są nie dorobione lub pierwsza generacja sprzętu, która ma sobie z nimi rzekomo poradzić po prostu ssie
Tego sie akurat nie obejdzie. Jeżeli chcesz sprawdzić jak coś działa, jak się zachowuje to najpierw tak na prawdę trzeba to zaimplementować. Potem dopiero możesz nad tym pracować.
Cóż gracze lubią wrzucać wszystko na Ultra.
Fallout 4AC:Black FlagMiał dropy do 35fps na GTX 970 z wszystkim opcjami włączonymi, a ta gra debiutowała w momencie, gdy na rynku był GTX 780.
God Rays w AC:BF tak samo zabijają wydajność jak (które nie są ściśle powiązane z NV) w AC: Oddysey na Atlantydzie w przejściach do bibliotek, czy ogólnie w wąskich przejściach - ~~5 lat później

Wbrew pozorom nie jest to prosty efekt. Szczególnie jak ma wyglądać dokładnie, a przy tym czysto, bez jakichś szumów, czy pikselizacji.Nawet w Wowie, nie pamiętam na którym patchu wszedł ten efekt. Chyba z Cata. To na uwczesnych sprzętach, nawet taka dość prosta implementacja potrafiła się odbić na wydajności.
To jest tylko i wyłącznie kwestia świadomości, że nie wszystko musi być włączone.
-
Zależy od strefy czasowej

-
Jego strzałów było tak dużo, że jest taka szansa, ale nie jestem Ci w stanie powiedzieć ze stuprocentową pewnością.
Żartuję tylko. Z tego co ja widziałem, to co się zgadzało. To tylko i wyłącznie dlatego, że wiadome było wcześniej

-
W ogóle pisanie newsa na podstawie wynurzeń jakiegoś jutubera, który ma swoje "źródła" jest śmiechem na sali. I jeszcze to rozwodzenie się, jaką wydajność będą mieć konkretne modele
O jakości przewidywań Moore's Law Is Dead niech najlepiej świadczy to, że żadne jego przecieki dotyczące Nvidii nigdy się nie sprawdziły. Jest nawet ban na jego gównomateriały na Reddicie NV, a pjur robi z tego newsa 
Tak z ciekawości... jakieś jego przewidywania dotyczące AMD się sprawdziły?

-
Teraz ktoś zamierzający zmienić sprzęt na nowszy i chce tylko Intela, to ma faktycznie ciężki orzech do zgryzienia. Za rogiem premiera 10th gen Inteli, kilka miesięcy później premiera 11th gen, a pewnie w 1q 2021 premiera LGA1700. Czy nie lepiej kasę schować do skarpety i ten rok zaczekać na LGA1700?

AMD wygląda tak samo od premiery 1grn. Ogólnie jest na tyle szybki postęp, że wsadzanie czegokolwiek to tylko ze świadomością, że za rok wyjdzie coś ciekawszego.
-
i tak jest w każdej dziedzinie, gdyby wejśc na forum o motoryzacji to tam pewnie każdy chwali sie tym, że jego golf ma o 10 więcej koni niż u kumpla
Co nie znaczy, że to dobre, albo ma to jakiś sens.
według mnie to całkiem normalne.Jakie normy, taka normalność. ¯\_(ツ)_/¯
-
Ja im życzę jak najlepiej, ale każdy wie jak to będzie
Z każdą nową odsłoną kart od AMD zawsze jest jakiś syf. A to wydajnościowo jednak nie jest tak super, a to chłodzenia jakieś zdupczone, a to na działające sterowniki czeka się pół roku. Jak ktoś chcę to mogę spokojnie o stówkę się założyć, że i kolejna generacja będzie miała tego typu atrakcje.Cuda wianki mogą się dziać. Zawsze fajnie i przyjemnie jak urwą te 50-100 dolków z cen NV. Ja tam marudzić nie będę

-
Ciekawe jak wycenia polskie sklepy, skoro dolar 4.20.
Czyli w sumie przy okazji jest potwierdzenie o cieńszym die. Ciekawe jak to wpłynie na temperatury w porównaniu do 9 serii.
-
Gdyby nie te wentylatory, to pewnie już dawno bym sobie taką sprawił :<
-
IPC nie jest osiągane taktowaniem, tylko mikroarchitekturą rdzeni x86 a wydajność jest wynikową IPC + taktowanie.
W tym wypadku raczej chodziło o performance equation. Jeżeli podbijesz IPC, to bez zmiany procesu, przy takim samym TDP powinieneś oczekiwać pogorszenia osiąganych taktowań.
Przynajmniej, teoria.
-
Pamietajmy jedno, nvme nie dodadza fps a loadingow na PC to ja juz nie pamietam kiedy widzialem wiec caly ten killer ficzer ssd skonczy sie na szybszym wczytywaniu i nic wiecej.
Ja tylko przypomnę jak wyglądał crash bandicoot na PS1, albo podobne gierki Naughty Dog na ps2/ps3 (Ratchet and Clank, albo The Last of Us).
Playstation 1 miało 1MB ramu, przeciętna ilość danych na level w crashu zamykały się w 30MB. Dane były cały czas strumieniowane, po bodaj 64kB, przez cały level.
Przez co porównując np do takiego Tomb Raidera, który ładował się raz, wyglądał kilka klas wyżej.
Głównym zamysłem Cerny'ego wg. tego co prezentował, było rozszerzenie tego podejścia i umożliwienie obejścia ograniczenia wielkości ramu, co pozwoliłoby przeładowywanie znacznych ilości danych w locie. Tak, aby można było budować znacznie większe, bogatsze poziomy. Dodatkowo zwolniłoby to dodatkowo ilość, już zajmowanych danych w ram, oraz na dysku, bo dane nie musiałyby być powtarzane, albo trzymane na zapas.
Jednakże, to teoria główną kwestią jest jednak to, która platforma będzie najsłabszym ogniwem i kiedy zostaną ostatecznie porzucone stare konsole + kiedy można by się spodziewać jakichś exów.
Patrząc na kondycję Naughty Dog, to nawet jak uda im się w końcu skończyć TLoU 2, to z kolejnym projektem wcale lepiej nie będzie. Skoro już przy Uncharted 4, były spore poślizgi.

Tanie granie
w Gry
Napisano
Ja tam biorę gdzie leci, choć G2a, kinguina itp staram się unikać.
Te wyżej klucze wyżej są akurat z fanaticala.
Osobiście już dawno nie preorderuję, moja lista wstydu jest dużo za długa, a ciągle dokupuję kolejne tytuły xD gry zanim się za nie zabiorę, zdążą sporo stanieć i wyjdzie gazylion DLC. Które potem muszę i tak dokupić. Lepiej mi kupić komplet po przecenach.
Co do CP To żyję nadzieją, że NV doda do RTXów, ale jak to mówią. Nadzieja matką głupich. Dla konsumenta nie ma to znaczenia, czy kupi teraz, czy po premierze akurat nie ma większego znaczenia.