Skocz do zawartości
Salvien

[Z390] do +/-1300 zł

Rekomendowane odpowiedzi

Cześć,

Trochę poczytałem o mobasach, ale dalej nie mogę dojść do wniosku, który wybrać. W zestawie znajduję się i7 9700k, g-skill trident-z 3600 cl16, gtx 1080, kraken. Płyta pod OC, dobra sekcja, wbudowane wi-fi. Zastanawiałem się nad czymś od asusa z serii gaming. Aorusy to przerost formy nad treścią? Jak oceniacie poniższe płyty ? Może polecacie coś innego ? Dzięki za pomoc :) 

MSI MEG Z390 ACE

 

ASUS ROG STRIX Z390-E GAMING

 

Gigabyte Z390 AORUS MASTER

 

ASRock Z390 PHANTOM GAMING 9

Edytowane przez Salvien

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kup tańszą płytę i 9900K

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ASRock Fatal1ty Z370 K6 / Intel i7-8700K 3.70GHz

 

To masz i chcesz wymienić na i7 9700k czy to dla kogoś?

 

 

9900K + Gigabyte Aurorus Pro z390 (830/wifi950zl) w zupełności będzie ponad przeciętne dla tego CPU. Oczywiście WiFi za 130zl jeśli router stoi obok to słaba inwestycja.

https://www.overclock.net/forum/attachment.php?attachmentid=250662&d=1548963030

 

Jak router stoi niedaleko to taka karta już spokojnie ogarnia:

https://www.mediaexpert.pl/karty-sieciowe/karta-sieciowa-tp-link-tl-wn725n,id-13725

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak chcesz robić mocne OC pamięci to z góry odrzuciłbym Gigabayte'a, ma słabo zoptymalizowany BIOS.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak, dla mnie. Wymieniam ponieważ dostałem zwrot gotówki z tytułu gwarancji producenta. Płyta pod oc wiec przyda się dobra jednostka.

Edytowane przez Salvien

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Brałbym Phantom.  :cool:

 

Czemu ta płyta jest najlepsza wśród tych, które wymieniłem :P ?

 

Jak chcesz robić mocne OC pamięci to z góry odrzuciłbym Gigabayte'a, ma słabo zoptymalizowany BIOS.

 

 

 

W takim wypadku co z mocna sekcja pod OC polecasz?

 

Kup tańszą płytę i 9900K

 

 

Boje się, ze słaba płyta nie uciągnie OC ramu, procesora i grafiki. Raz brałem tańsze mobo i lepszy proc i słabo na tym wyszedłem. 

Komputer typowo pod gry, jest sens dopłacać 500 zł i brać 8/16 zamiast 8/8 ? W moim wypadku rdzenie będą miały większe znaczenie ? 

Edytowane przez Salvien

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie będą, jak do gier 8/8 wystarczy. Chyba, że :

 

1/ Chcesz się pościgać w 3dmarki

2/ 9900K to raczej fajnie mieć 360mm chłodnicę wody przy nawet najmniejszym O/C

3/ W większości gier nie ma różnicy ale to absolutnej, a jak jest to nie na tyle, żeby w ogóle sobie tym głowę zawracać.

 

Gigabyte nie tyle co ma słabo zoptymalizowany bios tylko trochę bardziej chaotyczny, kwestia przyzwyczajenia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Można przyjąć zasadę że 9700K z OC ma wydajność zbliżoną do 9900K bez OC. Na procku bez OC z kolei łatwiej jest wykręcić wyższy zegar na ramie. Nawet dorzucając średnie OC na 9900K będzie pewnie łatwiej ogarnąć Ram.

 

Czy dopłacisz do Proca czy do Płyty wyjdzie pewnie blednę koło :)

 

GTX 1080 - do gpu najlepiej dopłacić. Tania płyta z390 (pod OC Ramu) + i7 (zablokowany) pozwoli na zakup sensowniejszego GPU.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na obecną chwilę chciałbym kupić płytę i procka na trochę dłużej a grafikę wymienić z czasem jak wyjdzie coś sensownego albo cena rtxów będzie ciekawsza. Biorę aoursa, dzięki :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W dalszym ciągu lepiej sobie darować podkręcanie procesora a wymienić GPU :)

 

Do GTXa 1080 bez znaczenia czy kupisz 8700 czy nawet 9900K, po prostu nic Ci to nie da. Szczególnie jak będziesz chciał grac np WQHD. Ale nawet w FHD wymiana na 1080TI lub 2080 da wyraźnie większego kopa niż procek. Co za różnica czy w grach będzie obciążony w 40% czy 60% ? :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Proca i tak muszę kupić, bo obecnie nie mam żadnego więc zależy mi na takim, żeby go nie wymieniać dłużej, płyta tak samo. Grafika też jest w planach, ale na chwilę obecną 60hz/1080p zupełnie wystarcza. Wymiana grafiki jest w planach, ale nie na obecną chwilę. Dostałem zwrot kosztów za te produkty od producenta więc jest trochę łatwiej z zakupem. Widzę, że jest małe zainteresowanie 1080 na allegro, produkt prawie nowy, kupiony za 2.7, ale dostałbym pewnie za niego jakieś 2k, albo niżej. Nie wiem czy jest to opłacalny deal. 

Edytowane przez Salvien

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

60hz ogarniesz spokojnie 8700 za 1400zl zamiast 9900k za 2400zl.

 

Na obu będzie stale 60fps jeżeli tylko grafika pozwoli. A jeżeli 8700 przestanie wystarczać to 9900k w tym czasie też będzie już przestarzały. Bo to będą czasy ddr5, pcie4.0 oraz pewnie dwu krotnie większej ilości rdzeni.

Edytowane przez Minciu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cena 8700 drastycznie wzrosła, więc za podobną cenę mam 9700, którego chciałem brać, 9900 mija się z celem, ponieważ będę używał go tylko do grania.

Edytowane przez Salvien

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

60hz ogarniesz spokojnie 8700 za 1400zl zamiast 9900k za 2400zl.

 

Na obu będzie stale 60fps jeżeli tylko grafika pozwoli. A jeżeli 8700 przestanie wystarczać to 9900k w tym czasie też będzie już przestarzały. Bo to będą czasy ddr5, pcie4.0 oraz pewnie dwu krotnie większej ilości rdzeni.

 

Co sądzisz o GTX 1080ti od aoursa ? Dopłacać do RTX'ów nie ma sensu. Skok fpsów znikomy, a cena przy mojej sytuacji (używana), musiałbym dołożyć kolejne 2k.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co sądzisz o GTX 1080ti od aoursa ? Dopłacać do RTX'ów nie ma sensu. Skok fpsów znikomy, a cena przy mojej sytuacji (używana), musiałbym dołożyć kolejne 2k.

 

Ja się przesiadłem z GTX1080Ti Xtreme na RTX2080Ti Xtreme od Aorusa ... Różnica jest +20% do +25% (w/g 3dmarka z moimi poprzednimi rezultatami) na korzyść oczywiście 2080Ti... ale czy warto za to płacić tyle ... kwestia budżetu. W/g mnie dla normalnego Kowalskiego nie warto. O ile nie gamingujesz na ultra-high w 4K to tym bardziej nie warto. Sprawa się komplikuje troszkę przy 4K i super detale, bo tu RTX pokazuje na co go stać. Wszystko poniżej 4K - nie warto.

 

i7-5930K na 4.4GHz karta 1080Ti też cośtam podkręcona, ale podobnie co RTX2080Ti, proc i9-9900K tutaj seria. Różnica taka :

 

79847e0aa4.png

Edytowane przez _File_

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja się przesiadłem z GTX1080Ti Xtreme na RTX2080Ti Xtreme od Aorusa ... Różnica jest +20% do +25% (w/g 3dmarka z moimi poprzednimi rezultatami) na korzyść oczywiście 2080Ti... ale czy warto za to płacić tyle ... kwestia budżetu. W/g mnie dla normalnego Kowalskiego nie warto. O ile nie gamingujesz na ultra-high w 4K to tym bardziej nie warto. Sprawa się komplikuje troszkę przy 4K i super detale, bo tu RTX pokazuje na co go stać. Wszystko poniżej 4K - nie warto.

 

i7-5930K na 4.4GHz karta 1080Ti też cośtam podkręcona, ale podobnie co RTX2080Ti, proc i9-9900K tutaj seria. Różnica taka :

 

 

 

Czyli zostaje przy 1080ti od aorusa. Udało mi się dorwać sztukę za 2 tysiące z 2 letnią gwarancją, więc myślę, że nie będzie z nią problemu. Obecnie gram na 1080p, możliwe, że będę zmieniał monitor na 1440p. Jedynym dylematem jest granie 1080p na monitorze 27 cali, ponieważ wtedy jest "podobno" pikseloza, a wątpię, że ta karta da radę pociągnąć długo w 1440p na ultra. A większość monitorów 1440p jest właśnie 27' w górę. :/

Edytowane przez Salvien

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1440p też nie problem dla 1080Ti. Problemy zaczynają się od pełnego 4K i pełnych detali.... Standard 1440p raczej w/g mnie odchodzi jest 1080p budżetowe i 4K.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Standard 1440p raczej w/g mnie odchodzi jest 1080p budżetowe i 4K.

Jesteś w błędzie i to dużym. Właśnie 1440p teraz zyskuje na popularności a 1080p odchodzi. Kto się raz przesiadł na 1440p z 1080p już nigdy do FullHD nie wróci. Są już GPU co w 1440p pozwalają osiągnąć sensowny fps nawet okolice 144Hz nie zabijając przy tym ceną. 4K? Jeszcze nie teraz, owszem zyskuje powoli na popularności, ale nie ma jeszcze GPU w sensownej cenie pozwalające uciągnąć to 4K w zadowalającym fps. Monitory 4K/144Hz owszem są ale w cenach z kosmosu. Jak spadną cenowo do obecnych "gamingowych" monitorów fullHD, wtedy będzie można mówić o rozpowszechnieniu tej rozdzielczości.

Edytowane przez blubaju

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • A mi w ich testach VRR coś nie gra, testowali AOC którego mam (VA) i według nich i tej scenki migocze jak diabli. Posiadam go od dwóch dni i ani jednego mignięcia nie widziałem.  Tutaj też ludzie się sprzeczali, który model migocze, a który nie.
    • Model ASUS TUF Gaming , o którym wspominasz jest to fajnie prezentujący się 27 calowy monitor IPS 2K (2560 x 1440) z natywnie 240 Hz, po OC 260Hz (1ms) dodatkowo pokrycie barw DCI-P3 wynosi 90 % więc monitor zapewni dobrą jakość i wyrazistość a obraz będzie płynny i przyjemny. Niektóre gry wykorzystują HDR więc z tym monitorem również można skorzystać z tej funkcji. Według mnie plusem jest też jasność na poziomie 400 nitów oraz technologie synchronizacji FreeSync i G-Sync (dla amd i nvidia).  Oczywiście są też tańsze modele z rozdzielczością 2K 240Hz patrz Lenovo Legion z lepszym pokryciem bartw DCI-P3 95% i z funkcją PIVOT - aby móc dostosować sobie wysokość i kąt pochylenia monitora do swoich potrzeb.
    • Chociaż faktycznie, niezawarcie umowy o produkcji w Polsce plus offset to wina Plaszczaka który brał wszystko z półki. Z samolotami bez uzbrojenia też się popisał, więc pewnie MON odkręca wszystko i spróbuje podpisać offset + produkcję w ostatniej umowie. Czemu się nie dało w drugiej? A no Plaszczak to Plaszczak co tutaj więcej dodawać.   Jak podpisywać umowy z Niemcami potrafią Czesi którzy w Europie mniej znaczą niż Polska ale jednak potrafią negocjować. Pomysł żeby brać pociski z Korei jako lewar na Niemcy nawet nie skomentuję, bo to poziom debila mógł wymyślić. 
    • Przede wszystkim to przynajmniej moim zdaniem zmiana bez sensu. Co do OC to jest to poblokowany CPU (coś jak non k u intela), więc tylko UV  
    • Fajnie że podałeś typ tego extendera bo z samego zdjęcia tak niskiej jakości trudno wywnioskować. Po zdjęciu wnioskuje, że to ten typ:  https://rbline.pl/extender-poe-pft1320-36882.html    Ogólnie standardowe extendery jakie stosowałem tylko regenerują sygnał nie są switchami czyli nie rozdzielają sygnału. W tym przypadku mają w sobie switcha. Różnica jest taka, że takie urządzenie różni się od typowego switcha tym, że zasilanie bierze z "głównego" switcha POE i nie ma w sobie zasilacza (taka jest idea extenderów). Na stronie którą podlinkowałem jest informacja  Więc można łączyć kaskadowo. Jednak pod 1 wyjście nie podłączysz kolejnych 2 extenderów (pewnie sam z siebie pobiera na własne działanie ze 2 W) oraz 3 kamer (każda np. po 6W). Czyli nie możesz podłączyć urządzeń które w sumie biorą więcej niż 15W. Jeszcze jedna uwaga. W specyfikacji masz 1 x PoE (802.3af/at). Oznacza to, że aby na 2 wyjściach w expanderze mieć 15W to switch musi być POE+ 802.3at, czyli na jednym porcie musi dać 30W. Jak dasz standardowego switcha 802.3af (czyli 15W) to w extenderze nie możesz podłączyć do każdego z dwóch wyjść urządzeń biorących 15 W. Wtedy tylko 1 port będzie działał z teką mocą  albo 2 gdzie suma mocy nie przekroczy 15W (Możesz wtedy np. podłączyć tylko 2 kamery np. po 6W).   
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...