Skocz do zawartości
zgreg

[K] kartę grafiki 6850/6870

Rekomendowane odpowiedzi

polecam minimum 7770 jesli szukasz wydajnosci 6850. bo i tak juz nie sa drogie a pewniejsze

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z $$ to raczej problemu nie ma, tylko trzeba mi odpowiedzieć sobie na kluczowe pytanie czy reanimować ten konfig czy iść w całkiem nowe bebechy. @AdRjiaN ok, to będę szukał takiej jak proponujesz.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z $$ to raczej problemu nie ma, tylko trzeba mi odpowiedzieć sobie na kluczowe pytanie czy reanimować ten konfig czy iść w całkiem nowe bebechy. @AdRjiaN ok, to będę szukał takiej jak proponujesz.

wszystko zalezy od zastosowania PC ale pod jakies gry to nawet te 650ti bedzie ograniczal juz wydajnosc PC

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@ up

Z tych dwóch,to Asus ma deczko lepsze chłodzenie.

Najlepiej znajdź w podobnych pieniądzach 650 Ti Boost albo GTX 660/Ti,a będzie to lepszy wybór od tego...czegoś.

Edytowane przez Miodnyj

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

https://allegro.pl/o...-box-7502268794

Ta może być?

Moja płyta:

http://www.gigabyte.pl/products/page/mb/ga-ma785gt-ud3h_10#sp

ma PCI ex 2 (x16) czy w takim razie nie jest nieopłacalnym kupowanie takiej karty, czy jednak przepływność magistrali PCI nie ma tu znaczenia?

 

Edytowane przez zgreg

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Primo:

Ta 660ti z Twojego linku,to ma jakąś abstrakcyjną cenę-ostatnio sprzedałem GTX 770 4GB za 300 :E

Secundo:

Płyta obsłuży,bo PCI-Ex w karcie jest kompatybilne w dół.

Tertio:

Szukaj w normalnych cenach

https://allegro.pl/oferta/najtaniej-potezna-nvidia-gigabyte-gtx-660ti-2gb-oc-8753073530

 

PS.Widzę że znów psychoza cenowa za stare niewidje się zrobiła-widać idą święta :E

Tu masz taniej z OLX

https://www.olx.pl/oferta/gainward-geforce-gtx-660-ti-phantom-CID99-IDBtUF1.html#54ead028d8

lub

https://www.olx.pl/oferta/karta-graficzna-gforce-gtx-660ti-CID99-IDCu8Ze.html#e4485108a4

Edytowane przez Miodnyj

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cena dość wysoka, ale niby nowa.Dziwna sprawa trochę, skąd ma tyle 'nowek'. Byłbym nawet skłonny zapłacić te 100we wiecej za pewniaka chociaż pewnie pasta i tak do wymiany?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dużo tych "nówek",to podróby z Chin-trzeba uważać.

Ten sam gość (od Twojego linku) ma (rzekomo) powystawową 770-kę 4GB za 449,więc to byłaby dobra opcja.

Najlepiej się z nim skontaktuj i przeprowadź "wywiad".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

100zł więcej czyli okolice 300zł pewnie, a tutaj to warto szukać rx470/480 4gb krula wydajności w przedziale cenowym

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki panowie ale rozglądam się za nówką.

Którą kartę byście polecali z RX 580/90?

https://www.x-kom.pl..._by=price_asc&f[1702][87484]=1&f[1702][130815]=1

Mam na oku

https://www.x-kom.pl...-8gb-gddr5.html

ew.:

https://www.x-kom.pl...-8gb-gddr5.html

 

porównanie:

https://www.x-kom.pl/comparison/527047,518167,364467,463849

 

Obawiam się o kulturę pracy XFX fatboy kiedy się nie gra ale raczej z tego co jest w opisie powinna być niesłyszalna (choć w opiniach są różne zdania). Gwarancja 36 m-cy też kusi.

Edytowane przez zgreg

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli kolego dalej szukasz grafiki to mam coś takiego do zaoferowania: grafika

Na tej karcie na pewno więcej fps wyciągniesz niż HD6850/70

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zapomniałem napisać ale musi być od AMD bo mam monitor z freesync

Spotkałem się z opinią, że RX590 to nieopłacalny prądożerny szrot i jak już to brać

 

https://www.x-kom.pl/p/365398-karta-graficzna-amd-asus-radeon-rx-580-dual-oc-4gb-gddr5.html

no nie wiem, 8GB to zbytek, 4GB wystarczy?

 

Edytowane przez zgreg

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To musisz się sam określić ile Ci tego VRAM potrzeba.Jeśli nie grasz w dużej rozdzielni i nie zależy Ci na ustawieniach Ultra,to i 4GB w zupełności wystarczy-wtedy nie warto dopłacać do 8GB.Chyba że to ma być na wyrost i będziesz w przyszłości rozbudowywał platformę-wtedy czasem warto.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1.W tym tygodniu może ukarzą się testy 5500xt, więc możesz poczekać te kilka dni.

2.Jeśli kupujesz rx do tego phenoma to nie spodziewaj się zbyt wielkiej różnicy pomiędzy tymi dwoma kartami w twojej konfiguracji.

3.Teraz monitory z freesync nie obsługują g-sync?

Edytowane przez masterlight

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1.Czeka ć to sobie można w nieskończoność,a przy okazji płyta może nie łyknąć tak nowej karty (szczególnie w przypadku Radeona).

2.Procek da radę (ew. może mu jakiejś instrukcji brakować w nowych tytułach),a już szczególnie w FHD.

3.Jest odwrotnie-to karty nV mają obsługę FS (często da się uruchomić).

Edytowane przez Miodnyj

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Używam monitora 32" 2560 x 1440

przy okazji płyta może nie łyknąć tak nowej karty (szczególnie w przypadku Radeona

To by była lipa :/

Płyta jest dość stara, przeżyła 2 generacje procesorów, ma pci ex 2.0 x16 ponoć tylko będzie obcinac przepustowośćZamierzam wymienic powoli bebechy.

Edytowane przez zgreg

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Więc GPU ma tam więcej do powiedzenia niż procek,ale każdy GB VRAM ma znaczenie i 8GB nie będzie się nudzić.

 

Z Radeonami na starych płytach bywa czasem (rzadko,ale bywa) problem z wykryciem karty.nV jest bardziej kompatybilna ze starymi mobasami.Musiałbyś sprawdzić w jakimś serwisie komputerowym albo pożyczyć od kogoś znajomego grafikę do sprawdzenia.Na ogół to działa,ale...Na szczęście masz pełne x16,a nie jakieś wynalazki x8 czy x4-powinno to więc teoretycznie zaskoczyć.

PS.Przy takim sprzęcie obcięcie przepustowości nie będzie w praktyce odczuwalne.

 

Edytowane przez Miodnyj

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Możesz skorzystać ze zwrotu 14 dniowego, więc jakiejś strasznej lipy nie ma - jutro powinny być testy 5500xt (na amerykanskim amazonie zamówić będzie dopiero od jutra, więc w europie może być podobnie).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Możesz skorzystać ze zwrotu 14 dniowego, więc jakiejś strasznej lipy nie ma - jutro powinny być testy 5500xt (na amerykanskim amazonie zamówić będzie dopiero od jutra, więc w europie może być podobnie).

 

Nie liczyłbym że będzie w cenie RX 580,a wydajnościowo będzie podobnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • No właśnie nie jest ok, sygnał HDR ma znacznie większą rozpiętość tonalna niż te certyfikaty czy możliwości dzisiejszych ekranów, to ze ty sobie to "ustawisz" i skompresujesz sygnał kompletnie przeczy idei sygnału HDR. Jestem przekonany ze tylko ekrany które są w stanie wycisnąć z danego sygnału HDR 100% bez żadnych "sztuczek" pokazują jak ten obraz faktycznie powinien wyglądać i zapewne nie będzie tez przy nich żadnego zmęczenia wzroku czy innych problemów. A dziś jest tak ze włączasz HDR i odrazu wali po oczach jak nie zbyt nasyconymi barwami które są nienaturalne to oślepia cie w peakach bo muszą kompresować sygnał do tego co potrafi ekran. Chyba najlepszym przykładem jak źle to wszytko działa są tryby dynamicznego mapowania metadanych (nie mylić z metadanymi Dolby Vision) które TV tworzą w czasie rzeczywistym czy tam monitory ale przy tym rozjeżdża się cala dynamika obrazu bo wszytko nagle staje się dwa razy jaśniejsze nie wiadomo po co i co to ma wspólnego z dobrej jakości HDR. To jak z trybami demo w sklepach, wszystkim się podobają i nawet ludzie potem tak w domach oglądają ale dobra lub poprawna jakością obrazu nie ma to nic wspólnego. I nie mowie żeby się zaraz trzymać wytycznych jak od linijki ale włączając HDR odrazu widzę ze coś z tym obrazem jest nie tak, problem ten jest znacznie mniej widoczny przy materiałach Dolby Vision ale jako ze ekrany nadal maja zbyt słabe jasności maksymalne aby odpowiednio wyświetlić pełny zakres HDR to nawet DV jest mocno kompresowany przez co męczy wzrok. Oczywiście można sobie taka matryce przyciemnić tylko ze leci w dół wszytko a nie tylko peak wiec z HDR zostaje jeszcze mniej. I tak człowiek dochodzi do wniosku ze wali go ten cały HDR i zostaje przy SDR, który jest stały i wygląda wszędzie prawidłowo, nie trzeba nic za każdym razem kalibrować jak chcesz w coś grac albo coś ogladac.
    • Jak to może być plaskacz dla Sony? Przecież Sony jest wydawcą i chyba zależy im na dobrej sprzedaży 
    • Bo producenci płyt (ASUS, Gigabyte, MSI) nie trzymają się specyfikacji przy ustawieniach domyślnych. Domyślnie powinien być na i7 14700 PL1=65W i PL2=219W, natomiast TAU=28s (czas po którym powinien się załączyć PL1). Przy takich ustawieniach procesor też dobiłby pewnie do 100 stopni C na Fera, choć na szczęście przynajmniej na chwilę (bo później PL1=65W czyli lód). Podsumowując: producenci płyt chrzanią sprawę po całości, natomiast sam Intel zaleca absurdalne parametry pracy (PL1=65W dla i7 14700 - buahahaha ... no i oczywiście chwilowy wystrzał do 219W też od czapy przy CPU o mocy długotrwałej 65W). W przypadku i7 14700 nonK to PL2=219W. Jeśli ten CPU nie działa na standardowych, zalecanych przez Intel parametrach (PL1=150W, PL2=253W, TAU=56s) to bym go reklamował, bo po prostu jest wadliwy (powinni go pociąć i sprzedawać jako i7 14700 nonK - może by się nie zes.... 😜 przy ustawieniach ze spec.)
    • DEV może również ustalić cenę dla danego rynku osobno, a że nie zrobił tego, to też nie zobaczy mojej kasy prędko.
    • Dokładnie, coś czuję, że Szczęść Boże z drugiego miejsca przegoni Berkowicza, który będzie otwierał listę Konfy w Małopolsce i takim sposobem zdobędzie prawdopodobnie mandat.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...