Skocz do zawartości

Rekomendowane odpowiedzi

Teraz sie zastanawiam czy zwracac owego giagabyte i dolozyc do msi / sapphire?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kupilem 5700 xt gigabyte

OC ramu na 900 mhz, UV 1900 mhz z 0.975mv

 

Spory przeskok patrzac na rx 580

 

15 minut gry w destiny 2 i hotspot wynosi 92 stopnie niezbyt dobrze to wyglada :/

 

 

przecież to dobra temperatura jest jak na gigabyte, sapphire pulse ma w okolicach 88

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

przecież to dobra temperatura jest jak na gigabyte, sapphire pulse ma w okolicach 88

pulse mnie raczej nie interesuje, nitro+ lub msi gaming x

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ehh chyba trochę przesadzacie - AMD dało czujnik na GPU hotspot (junction) i wszyscy zaczynają panikować bo wypada w okolicach 90*C a GPU edge 70*C ? U zielonych tego nie ma i nie ma problemu? Znajomy do tej pory ma starego radka chyba 4870 - tam 90* C na GPU to norma. Na poważnie widać że przejście na 7nm zrobiło swoje i odebranie ciepła wytwarzanego przez tak upakowany w tranzystory mały kawałek krzemu nie jest takie proste szczególnie przy chłodzeniu powietrzem. Krótko mówiąc chłodne NAVI to zwodowane NAVI szczególnie jak chcecie mieć zegary w okolicach 2000 MHz. Ewidentnie widać że optymalne zegary dla XT to okolice 1800MHz, powyżej pobór energii rośnie znacznie. Bardziej bym się przejmował temperaturami GDDR6 ~ 90*C bo producenci kart w swoich konstrukcjach olewają chłodzenie pamięci albo zapomnieli o prawach fizyki przy projektowaniu chłodzenia.

Edytowane przez Spasiu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ehh chyba trochę przesadzacie - AMD dało czujnik na GPU hotspot (junction) i wszyscy zaczynają panikować bo wypada w okolicach 90*C a GPU edge 70*C ? U zielonych tego nie ma i nie ma problemu? Znajomy do tej pory ma starego radka chyba 4870 - tam 90* C na GPU to norma. Na poważnie widać że przejście na 7nm zrobiło swoje i odebranie ciepła wytwarzanego przez tak upakowany w tranzystory mały kawałek krzemu nie jest takie proste szczególnie przy chłodzeniu powietrzem. Krótko mówiąc chłodne NAVI to zwodowane NAVI szczególnie jak chcecie mieć zegary w okolicach 2000 MHz. Ewidentnie widać że optymalne zegary dla XT to okolice 1800MHz, powyżej pobór energii rośnie znacznie. Bardziej bym się przejmował temperaturami GDDR6 ~ 90*C bo producenci kart w swoich konstrukcjach olewają chłodzenie pamięci albo zapomnieli o prawach fizyki przy projektowaniu chłodzenia.

Wszystko fajnie ale karta zmniejsza taktowanie do 1760-1717 mhz ...

 

calosc wyglada tak iz recznie ustawilem 1900 mhz na 0.975v

vrm przy wypiekaczu przez occt to 75 stopnii, ram 74-76 / w grach stabilny zegarek to 1820-1850

temperatura gpu 68

Edytowane przez adif

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przy otwartej budzie hot spot 96st, GPU 76st vram 72st. 950mhz, a na GPU okolice 1800mhz.

Edytowane przez xtn

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wczoraj walczylem z HDR i lipa. Na gtx nie bylo problemow a na rx5700xt gry mi go nie rozpoznaja albo zle dziala. Sekiro totalnie wyprane kolory, rdr2 wogole nie widzi i opcji ni pokazuje, battlefield zmienia kolory na palete jak po lsd.

Dzis pewnie potestuje wiecej gier.

Cos ktos doradzi? Gram przez hdmi na tv.

Edytowane przez Sheeneek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wczoraj walczylem z HDR i lipa. Na gtx nie bylo problemow a na rx5700xt gry mi go nie rozpoznaja albo zle dziala. Sekiro totalnie wyprane kolory, rdr2 wogole nie widzi i opcji ni pokazuje, battlefield zmienia kolory na palete jak po lsd.

Dzis pewnie potestuje wiecej gier.

Cos ktos doradzi? Gram przez hdmi na tv.

Spróbuj zmienić port hdmi w tv

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przy otwartej budzie hot spot 96st, GPU 76st vram 72st. 950mhz, a na GPU okolice 1800mhz.

U mnie przy zamkniętej budzie,

po 30 minutach gry W3 hotspot maksymalnie

dobił do 81 stopni, ale wersja XT ma mniejszy pobór mocy.

Edytowane przez jg77xfx

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Spróbuj zmienić port hdmi w tv

Sproboje ale ten sam port nie ma zadnych problemow z gtx 1080. Ktos z was ma rx5700xt i gra z hdr? Czytale ze ponoc ludzie maja problem tylko przez hdmi, dzisiaj zobacze czy jak zmniejsze na 8bit color bedzie dzialac. Na nvidi 12 bit nie bylo zadnych problemow, tyle ze nie jest powiedziane ze mimo nastawionych 12 gtx mogl zrzucac na nizsze i tak. Mam jeszcze kilka dni na testy, jak dalej bedzie sprawialo problemu odesle rx i zostane przy gtx.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Miałem tak że z gtx przez hdmi w 4K nie było problemów a jak podłaczyłem RX580 to juz jakies problemy , zmieniłem port hdmi i pomogło

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sproboje ale ten sam port nie ma zadnych problemow z gtx 1080. Ktos z was ma rx5700xt i gra z hdr? Czytale ze ponoc ludzie maja problem tylko przez hdmi, dzisiaj zobacze czy jak zmniejsze na 8bit color bedzie dzialac. Na nvidi 12 bit nie bylo zadnych problemow, tyle ze nie jest powiedziane ze mimo nastawionych 12 gtx mogl zrzucac na nizsze i tak. Mam jeszcze kilka dni na testy, jak dalej bedzie sprawialo problemu odesle rx i zostane przy gtx.

Dzisiaj sprawdzę czy u mnie działa z SWJ: Fallen Order.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No ja tez bede sie meczyl jak dzieciaki pojda spac. Chce zeby to fajnie dzialalo bo chce zostawic RX, ale jak tego nie ogarne to niestety bede musial odeslac.

Gram praktycznie na tv i jezeli nie moge miec HDR to duza czesc atrakcyjnosci vizualii niestety przepada. Za to podoba mi sie jak fresync dziala z tv. Swoja droga zastanawiam sie czy moze to byc problem z freesync i hdr naraz, i hdmi 2.0 poprostu nie ma tyle przepustowosci?

Ty na czym wyswietlasz? Hdmi czy dp?

Edytowane przez Sheeneek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No ja tez bede sie meczyl jak dzieciaki pojda spac. Chce zeby to fajnie dzialalo bo chce zostawic RX, ale jak tego nie ogarne to niestety bede musial odeslac.

Gram praktycznie na tv i jezeli nie moge miec HDR to duza czesc atrakcyjnosci vizualii niestety przepada. Za to podoba mi sie jak fresync dziala z tv. Swoja droga zastanawiam sie czy moze to byc problem z freesync i hdr naraz, i hdmi 2.0 poprostu nie ma tyle przepustowosci?

Ty na czym wyswietlasz? Hdmi czy dp?

Na TV LG 4k przez HDMI ale sam gram bez HDR, wole ciemniejszy obraz. U mnie chyba nie ma freesync w TV tylko profil obrazu GRA. Teraz ustawiłem opcje mieszane ultra/wysokie/średnie i mam ok 60fps, obraz płynny bez tearingu.

Edytowane przez xtn

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A jak wygląda płynność filmów? U mnie strasznie klatkują i nie da się oglądać.

 

Niestety na IGPU jest wszystko ok czyli to wina karty albo sterowników. :mad2:

Edytowane przez mick.alderr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A jak wygląda płynność filmów? U mnie strasznie klatkują i nie da się oglądać.

 

Niestety na IGPU jest wszystko ok czyli to wina karty albo sterowników. :mad2:

 

Dlatego kupowanie GPU ze zwrotu to średni pomysł, jest większe prawdopodobieństwo że to niekoniecznie wina sterowników.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oddam na gwarancję jak uznam, że jest zepsuta. Tanio kupiłem, a zwrot był z powodu wysokich temperatur. Ja mam inną obudowę i podkręciłem do 2000MHz przy temperaturze 70 stopni ;)

Przed formatem wszystko działało, więc to raczej kwestia softu. Mam teraz nowsze sterowniki i Windowsa 1909.

Właśnie Windows zablokował odtwarzanie filmów i teraz mam już tylko czarny ekran:

"Dostęp aplikacji do sprzętu graficznego został zablokowany" :E

wtf

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Słabo, wynik w FC5 mocno poniżej GTX1660, zobaczymy jak pojawią się testy w innych grach. Liczyłem na coś na poziomie GTX1660Ti ale to pewnie trzeba będzie zaczekać na RX5600.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

link z videocard prowadzi do heise.de gdzie jest kolejny link, który prowadzi do zestawu HP w którym jest testowana karta - ale tam jest ona oznaczona jako 5300

 

proszę, tu

 

więc hold your horses panowie bo nie wiadomo na 100% co tu się odwala

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jakieś pierwsze testy rx5500.

Wyniki RX5500 nie napawają optymizmem - jest nawet słabszy od RX580,który będzie zapewne tańszy od RX5500

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wyniki RX5500 nie napawają optymizmem - jest nawet słabszy od RX580,który będzie zapewne tańszy od RX5500

To teraz czekajmy aż AMD spowolni w sterownikach rx580 :E:Up_to_s:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To teraz czekajmy aż AMD spowolni w sterownikach rx580 :E:Up_to_s:

AMD to nie Nvidia ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

więc hold your horses panowie bo nie wiadomo na 100% co tu się odwala

Między 5300, a 5500 różnica to chyba zastosowane memki (gddr5 vs gddr6). Rdzeń ten sam. No i OEMowy może mieć zegarki co najwyżej referencyjne.

Tu musi kosztować ~800-850zł max. Inaczej DOA.

 

Tylko niech to wreszcie wejdzie na rynek...

Edytowane przez smilehunter

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Słabo, wynik w FC5 mocno poniżej GTX1660, zobaczymy jak pojawią się testy w innych grach. Liczyłem na coś na poziomie GTX1660Ti ale to pewnie trzeba będzie zaczekać na RX5600.

 

Przecież pisałem i to nie raz, że rx 5500 to konkurent dla gtx 1650 i nie ma co się nastawiać na ta kartę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Rebel Moon część 2 sporo lepsza niż część pierwsza. Na początku trochę gadania i luzu a później zaczyna się akcja i uczta dla oka. Gdyby z pierwszej części wyciąć castingi do ekipy, fruwanie na kurczaku i inne pierdy i zastąpić je dłuższymi retrospekcjami które były przy stole w dwójce miało by to więcej sensu i zamiast 2 x 2h mógłby wyjść dobry film 3h. Mogli też zastąpić zboże jakimś rzadkim minerałem pożądanym przez wojsko np do napędzania tych dużych dział. Po obejrzeniu obu części P1 - 4/10, P2 - 6,5/10. Teraz szczerze czekam na część trzecią.
    • Wiem co czujesz 🙂.Ja przy nim prawie pada z kompa wyrwałem.A ile było Pi.....e nie gram to nie zliczysz 😄.Ale najważniejsze że się udało.I masz satysfakcję bo to jeden z najtrudniejszych soulsowych bossow https://ebd.cda.pl/620x368/15092229f8 Patrz to
    • Więc wytłumacz mi jakim cudem bez mierzenia wystarczy odpalić gówno kalibrator HDR WINDOWS i zobaczyć w jakim trybie pokazuje detal na 1000 nit, a w jakim na 570. Potem to samo zrobić w dowolnej grze z kalibracja HDR. I w każdym innym ustawieniu niż HDR + APL HIGH, ustawienie gry na 1080 nit prześwietla obraz. Więc w swoim ustawieniu masz niby 1000 nit z uciętymi w opór detalami. Faktycznie, genialna sprawa A jak ustawisz detale na 570 to on nie ma prawa zaświecić 1000 bo właśnie to ograniczyłeś w ustawieniach.  Ale żeby nie było, zjem i odpalę grę I będę srogo zdziwiony jak nie ujrze przepalonych jasności. 
    • Przy każdej zmianie traci się na tym, że kupuje się nową kartę, a sprzedaje używaną, dlatego częste zmiany są niekorzystne finansowo, chyba że się zmienia używaną na używaną.
    • Intel kompletnie tutaj nie ma sensu raz że to do gier, a dwa że jeszcze do 1440p. Powinieneś skupić się na wydajności GPU i bić po RTX 4070 Ti Super - tutaj możesz trzymać się RTX ale CPU spokojnie brałbym 7500F bo to będzie idealne najlepsze połączenie. Za 7100 zł masz właśnie taki zestaw https://proline.pl/koszyk/2878bd11 a celując w maksa to przy dopłacie za 7500 zł z 7900 XTX https://proline.pl/koszyk/316e8335 
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...