Skocz do zawartości

Rekomendowane odpowiedzi

AMD wydaje na rynek karty z nieprzygotowanymi sterownikami, to potem może się chwalić wzrostami. Dziwne, że nikt nie pomyśli o tym w ten sposób, patrząc na drivery przez pryzmat wszystkich problemów i bugów w grach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nvidia niekoniecznie ubija swoje karty , ale amd nieraz dodaje wydajność, nie dużo ale zawsze jakiś procent. I też nie często. Dlatego ja poszedłem w rx5700xt , bo jak będę miał ja dłuższy czas , to jeszcze mogę trochę zyskać wydajności, co mi się podoba :)

No i jak tam karta się sprawuje, dojechał w końcu 5700XT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Karta wysłana albo dziś albo wczoraj bo daty nie ma , wiec pewnie na początku następnego tygodnia będzie u mnie:) .

 

BlindObserver jest jak piszesz , oglądałem gameplaye na tej karcie w gry jakie gram , karta tam śmiga elegancko, wiec bez problemu mogę sobie poczekać na poprawione stery pod nowsze gry :) . Dlatego te karty idzie jeszcze dostać w outlecie, bez wad , bo sterownik broi :) . Za 1600zl z grami , to myślę że fajna cena , za jedną z lepszych wersji

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zastanawia mnie ta cala aura tajemniczości wokół 5500XT , jutro premiera a tu nawet nie ma 100% pewności czy chip ma 24 czy 22CU, jaka jest cena? nvidia trochę chyba pokrzyżowała im szyki swoją ofertą, a jeszcze bardziej Polarisy na wyprzedażach.

 

Brak choćby jednego wyniku z 3D Marka czy innego bencha, cena 259 dolców na Nitro+ straszy ale to Special Edition tam się płaci 30 dolców extra za LEDy :E poj... te ledy, będę stówkę dokładać za disco-polo w budzie

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wersja 24 CU jest tylko dla Apple. To już wiesz, jaką dostaniesz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

https://videocardz.net/sapphire-radeon-rx-5500-xt-8gb-nitro-special-edition

SAPPHIRE Radeon RX 5500 XT 8GB NITRO+ Special Edition 11295-05-20G

Stream Processors 1408

Compute Units 24

TMUs 88

ROPs 32

Memory Bus Widt128-bit

Board Power 150 W, czyli będzie pobierała więcej prądu w porównaniu do rx570 (tpd 120)

Liczyłem, że wraz z zmianą procesu technologicznego na mniejszy chip będzie pobierał zauważalnie mniej prądu. np. okolice 100w

Jeśli cena przekroczy 800zł-850zł za podstawowy model z 4 gb pamięcią, to ta karta nie będzie miała sensu, bo za 750zł można kupić gtx 1650 super, rx 590 8gb za 859zł.

Edytowane przez Pawcioo10

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość

Nvidia niczego nie ubija, po prostu pisze stery pod nowe karty, a resztę olewa.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

https://videocardz.net/sapphire-radeon-rx-5500-xt-8gb-nitro-special-edition

SAPPHIRE Radeon RX 5500 XT 8GB NITRO+ Special Edition 11295-05-20G

Stream Processors 1408

Compute Units 24

TMUs 88

ROPs 32

Memory Bus Widt128-bit

Board Power 150 W, czyli będzie pobierała więcej prądu w porównaniu do rx570 (tpd 120)

Liczyłem, że wraz z zmianą procesu technologicznego na mniejszy chip będzie pobierał zauważalnie mniej prądu. np. okolice 100w

Jeśli cena przekroczy 800zł-850zł za podstawowy model z 4 gb pamięcią, to ta karta nie będzie miała sensu, bo za 750zł można kupić gtx 1650 super. Nie licząc promocji na rx 590 8gb za ok. 900zł, która jest wydajniejsza.

Jeżeli ona będzie brała 150W to praktycznie tyle samo co RX5700. U mnie RX5700xt bierze w okolicach 180W bez OC.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli mi zostaje czekać na 5600 XT w styczniu :(

 

AMD, zaskocz mnie i weź jutro pokaż 5600 XT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nikt Cię nie zaskoczy.

Co do ceny - powiem tylko tyle, że Polarisy się muszą sprzedać :lol2:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

Do tego AMD nadal nie zmieniło działania krzywej wentylatorów i jest jak było, czyli prędkość zmienia się skokowo, a nie liniowo, jak pokazuje ich oprogramowanie.

Tylko to nie ma nic do sterowników to tylko kwestia ustawień w biosie. Także nawet partnerzy niezależnie od AMD mogą to zmienić wink.gif

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli AMD nie ogarnia ustawień w biosie, skoro Afterburner ogarnia krzywą poprawnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie wiem gdzie to napisać więc walę tutaj. Jakby kogoś tak jak mnie irytowało w najnowszych sterach, że przy każdym odpaleniu gry czy filmu wyskakuje ten pop up "press xxx to turn on overlay" to w "zakładce skróty klawiszowe" każdy skrót wyzerowałem (klawisz delete) i przestało. Inaczej nie było opcji, no chyba że ja jestem ślepy. Co za dzbany z tych programistów (albo ja dzban). Ach, ktoś wie gdzie podziała się opcja ograniczenia klatek w tej najnowszej wersji? No kurwa jak ja nie cierpię kiedy wchodząc do marketu okazuje się, że "aby klienci się nie nudzili" (serio oni takie badania robią i tak im wyszło...) wszystkio jest kompletnie poprzestawiane i głupiego masła trzeba szukać godzinę. Eech, kiedyś to było a teraz to nima.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Albo jestem ślepy, co jest wielce prawdopodobne, albo w tych nowych sterach wcięło gdzieś limiter klatek. Ktoś, coś?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość

Albo jestem ślepy, co jest wielce prawdopodobne, albo w tych nowych sterach wcięło gdzieś limiter klatek. Ktoś, coś?

 

Toż jest Radeon Chill.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jesteś, usunięto to, bo teraz według AMD ta opcja ma wchodzić w skład Radeon Chill.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jesteś, usunięto to, bo teraz według AMD ta opcja ma wchodzić w skład Radeon Chill.

Tu się schował, ha.

 

Toż jest Radeon Chill.

Radeon Chill Radeon Chillem, ale wcześniej był oddzielny limiter klatek.

Edytowane przez Lypton

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Fakty anegdotyczne są zawsze zabawne. Myślę, że wszystkie media na świecie wiedziałyby, że Nvidia coś ubija, gdyby coś ubijała. Ale już się chyba tych bzdur z for nie da wyplenić i do końca życia będę czytał info, że AMD zawsze rośnie, a NV zawsze maleje :E

To polecam zajrzeć do konkurencji - są tam dwa testy starszych kart AMD i NVIDII. Wniosek jeden - jak przy premierze karty miały podobną wydajność to teraz NVidia przegrywa często sromotnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To polecam zajrzeć do konkurencji - są tam dwa testy starszych kart AMD i NVIDII. Wniosek jeden - jak przy premierze karty miały podobną wydajność to teraz NVidia przegrywa często sromotnie.

Ale na taki stan rzeczy ma co innego niż "celowe ubijanie wydajności" Nvidia tak traci po latach bo:

 

-skąpią na Vramie a jak widać po teście 290X vs 780/TI nawet ten 1GB więcej może zrobić różnice.

(co widać i dziś, 5500XT wychodzący jutro będzie mieć i 8GB, a jak chcesz od Nvidii 1650S to już jedna opcja -4GB)

 

-Długie wykorzystywanie jednej architektury przez AMD, kiedy to Nvidia praktycznie co generacje zmienia

Poza tym architektura GCN jak wiadomo lepiej sobie radzi w niższym API, robi pożytek z AsynC, a taki Kepler nastawiony głównie na dx.11

 

Tu nie ma ubijania wydajności sterownikami, tu tylko wychodzą możliwości danej architektury lub też jej ograniczenia i efektywne działanie w węższym zakresie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale na taki stan rzeczy ma co innego niż "celowe ubijanie wydajności" Nvidia tak traci po latach bo:

 

-skąpią na Vramie a jak widać po teście 290X vs 780/TI nawet ten 1GB więcej może zrobić różnice.

(co widać i dziś, 5500XT wychodzący jutro będzie mieć i 8GB, a jak chcesz od Nvidii 1650S to już jedna opcja -4GB)

 

-Długie wykorzystywanie jednej architektury przez AMD, kiedy to Nvidia praktycznie co generacje zmienia

Poza tym architektura GCN jak wiadomo lepiej sobie radzi w niższym API, robi pożytek z AsynC, a taki Kepler nastawiony głównie na dx.11

 

Tu nie ma ubijania wydajności sterownikami, tu tylko wychodzą możliwości danej architektury lub też jej ograniczenia i efektywne działanie w węższym zakresie.

Zgadza się choć też nie do końca. Nikt przecież nie zmusza Nvidii do radykalnych zmian aby za 2 lata już ich karta nie otrzymywała poprawek. To jest przecież ich wybór - AMD poszło taką drogą że stare GCN cały czas dają radę w nowych grach. Archi Nvidii po kilku latach zaczyna już odstawać wyraźnie. Jest taka prawidłowość? - w większości przypadków jest. Przynajmniej jeśli chodzi o te kilka generacji do tyłu. Tych nowszych kart testów po latach jeszcze nie widziałem.

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To polecam zajrzeć do konkurencji - są tam dwa testy starszych kart AMD i NVIDII. Wniosek jeden - jak przy premierze karty miały podobną wydajność to teraz NVidia przegrywa często sromotnie.

A ja polecam czytać ze zrozumiem. Mowa jest o "ubijaniu starszych kart graficznych Nvidii". Materiał konkurencji zupełnie nic o tym nie mówi. W żadnym miejscu tego testu nie ma nic o ubijaniu czegokolwiek.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja polecam czytać ze zrozumiem. Mowa jest o "ubijaniu starszych kart graficznych Nvidii". Materiał konkurencji zupełnie nic o tym nie mówi. W żadnym miejscu tego testu nie ma nic o ubijaniu czegokolwiek.

Pisałem już w innym wątku. W jaki sposób nvidia ogranicza wydajność na starszych generacjach w nowych grach tego pewnie się nigdy nie dowiemy. To może być już na etapie projektowania konkretnej generacji lub odpuszczanie wsparcia w najnowszych strach do najnowszych gier. Może to też być jeszcze inny sposób, którego nie jesteśmy w stanie zidentyfikować ale jedno jest pewne, coś jest na rzeczy, bo takie wątpliwości pojawiają się co kolejną generację. W przypadku AMD jakoś takie rzeczy nie są zauważalne. Teoria, że karty nvidii "słabną" przez rozwój sterowników u AMD jest co najmniej tak postępowy, jak zmiana "malucha" w samochód wyścigowy za pomocą oprogramowania :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W sumie Navi 14 od początku miał być czipem masowym a nie pomyślanym dla klientów indywidualnych. AMD podpisało wielomilionową umowę z Apple na dostawę GPU do MacBooków na 7nm. Tym chipom które nie przeszły kontroli jakości AMD obcięło 2 CU i postanowiło wypuścić RX 5500 głównie dla korporacji wypuszczających prebuildy. Odbiorcy indywidualni są klientami trzeciego wyboru.

 

https://videocardz.com/newz/amd-radeon-rx-5500-xt-to-launch-at-169-usd-4gb-and-199-usd-8gb

 

Budżetowe 5500 XT 4GB powinny zacząć się u nas od 800-850 zł

 

Sam się interesowałem tą premierą bo chciałem kartę do małego ITX'a z obsługą freesync przez HDMI więc darowałem sobie prądożerne polarisy, i żenujące 560 a tu wychodzi że trzeba będzie albo chwilę zaczekać albo iść w 1650s.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jaki jest w takim razie sens tej karty? Słabsza od 1650s, tyle samo ramu, wyższy pobór energii i do tego o 50zł-stówkę droższa. No chyba, że o czymś nie wiem.

Edytowane przez MisterMaster

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pisałem już w innym wątku. W jaki sposób nvidia ogranicza wydajność na starszych generacjach w nowych grach tego pewnie się nigdy nie dowiemy. To może być już na etapie projektowania konkretnej generacji lub odpuszczanie wsparcia w najnowszych strach do najnowszych gier. Może to też być jeszcze inny sposób, którego nie jesteśmy w stanie zidentyfikować ale jedno jest pewne, coś jest na rzeczy, bo takie wątpliwości pojawiają się co kolejną generację. W przypadku AMD jakoś takie rzeczy nie są zauważalne. Teoria, że karty nvidii "słabną" przez rozwój sterowników u AMD jest co najmniej tak postępowy, jak zmiana "malucha" w samochód wyścigowy za pomocą oprogramowania :)

Powiem tak, Wy może nie jesteście w stanie zidentyfikować, ale jest masa osób, które testują sprzęt zawodowo. I żadna z tych osób nie doszła do tych wniosków, które część użytkowników usilnie próbuje przemycać na forach. Mówimy o "ubijaniu kart graficznych", na co ani Ty, ani nikt inny nie ma żadnych dowodów. I to, że takie wątpliwości pojawiają się co generację to nic dziwnego, bo wiadomo komu jest to na rękę. Dziwi mnie natomiast, że skoro pojawiają się co generację, a nigdy niczego nie udowodniono, to jeszcze ktoś w nie wierzy. To jest dopiero ciężki przypadek.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...