Skocz do zawartości

Rekomendowane odpowiedzi

Gość

Jakby tak 4060 to byl odpowiednik 3080 12GB tylko w okolicy 220-240W to fajna karcioszka by była.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, Wu70 napisał:

3070 ktoś tu ostatnio kupił za 2k

Na Allegro pokoparkowe RTX 3070 kończą się na licytacjach w przedziale 1700-2000 zł. W zależności o wersji oczywiście. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
15 minut temu, Wu70 napisał:

3070 a 3080 to dosyć duży i wyraźny skok, na pewno odczuwalny. To już GA102 i byle co z nowej generacji tego nie przebije patrząc na to jak obcinają segmenty ;)

Z punktu widzenia takiego kombinatora jak ja widzę tu doskonałą okazję do wymiany niewielkim kosztem a wydajność pozwoli ominać następną gen, gdybym miał 3070 to już bym wertował olx. :D
3070 ktoś tu ostatnio kupił za 2k, 3080 jest dużo i bankowo któryś górnik sprzeda za 2.5k a 3080Ti/3090 jest za mało i są zbyt drogie.

Wydaje ci sie bo patrzysz na wysokość słupków albo na gry gdzie karty robią powyżej 100-150 fps.
Wydajność w krytycznym momencie (czyli przy 60 fps) miedzy RTX 3070 a 80 nie będzie miała większego znaczenia. Bo to będzie teoretycznie 60 vs 48 FPS. A gracze z niższych wersji kart raczej celują w niższy FR. Wiec wydawać teraz ponad 3000 zl żeby w krytycznym momencie mieć parę klatek więcej "zapasu" jest kompletnie nieopłacalne.

892f7eb26d65a258c51988fdf77ff8a1.png

 

15 minut temu, ŁowcaPisowców napisał:

Chodzi o telefony?

I TV.

8 minut temu, Radio_Tirana napisał:

Na Allegro pokoparkowe RTX 3070 kończą się na licytacjach w przedziale 1700-2000 zł. W zależności o wersji oczywiście. 

Po koparkowe szroty. I znowu desperacja.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
36 minut temu, kadajo napisał:

Cala generacja nie ma. Bo na co się mają przesiąść ludzie z RTX 3070 albo 3060Ti ?

4080 4GB jak sie pojawi :E 

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Radio_Tirana napisał:

Na Allegro pokoparkowe RTX 3070 kończą się na licytacjach w przedziale 1700-2000 zł. W zależności o wersji oczywiście. 

Tak, gracz z forum kartę do grania a nie kopania powinien sprzedać w górnych widełkach i to otwiera okazję na bardzo małą dopłatę do 3080 (byle chociaż rok gw trafić), a to znowu zapewnia wydajność na bardzo długo. :)

4 minuty temu, kadajo napisał:

Wydaje ci sie bo patrzysz na wysokość słupków albo na gry gdzie karty robią powyżej 100-150 fps.
Wydajność w krytycznym momencie (czyli przy 60 fps) miedzy RTX 3070 a 80 nie będzie miała większego znaczenia. Bo to będzie teoretycznie 60 vs 48 FPS. A gracze z niższych wersji kart raczej celują w niższy FR. Wiec wydawać teraz ponad 3000 zl żeby w krytycznym momencie mieć parę klatek więcej jest kompletnie nieopłacalne.

Jak będzie 48 vs 62 (realny przykład z w3 4k test ppc) to jest to kolosalna różnica i tym bardziej warto zmienić niskim kosztem, jak ktoś nie potrafi korzystać z okazji to nie ma tematu :)

  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, Wu70 napisał:

Jak będzie 48 vs 62 (realny przykład z w3 4k test ppc) to jest to kolosalna różnica i tym bardziej warto zmienić niskim kosztem, jak ktoś nie potrafi korzystać z okazji to nie ma tematu :)

Niskim kosztem to się zmienia detale, a nie wydaje pieniądze żeby mieć parę klatek więcej. ;)

  • Thanks 1
  • Upvote 5

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość

Lubię czytać ten wątek. 2 lata temu też lubiłem czytać podobny wątek przy okazji premiery Ampere. Jest hype, ekscytacja nową technologią, oczekiwanie na nową generację kart, która może zapewnić niezły skok wydajności, wspomagana dodatkowo nowymi, ciekawymi rozwiązaniami. Całość nieco psuje mi ta fala marudzenia i jęczenia skoncentrowana na „absurdalnych” cenach, „złej” nVidii i całej reszcie.

Nie za bardzo rozumiem czemu to ma służyć – no chyba, że to jakaś forma zbiorowej terapii i upewniania siebie nawzajem, że to właśnie ta zła nVidia, słaba złotówka, zmowa na rynku producentów wafli krzemowych, niskie płace, itd., gdzie na końcu mamy obraz „biednego Polaka”, którego przez wszystkich innych na nic nie stać i który cierpi niesprawiedliwość spowodowaną przez „innych”.

Nie wiem zatem, co takie jęczenie daje (niektórzy posuwają się do złorzeczenia i życzenia nVidii upadku czy innej katastrofy)) – no ale jak komuś pomaga – to niech sobie marudzi dalej :)

Ja spokojnie się przygotowywałem do premiery nowej generacji. Było mnóstwo czasu, by odkładając 200-300 zł miesięcznie mieć spokojną sytuację, by skupić się na szczegółach (przecież nie znamy jeszcze wyników szczegółowych testów!) i planować zakup (lub nie), na podstawie własnych możliwości, nie obarczając winą innych, w tym producenta chipów, jakby to był nasz najlepszy ziomek, który wywinął nam podły numer.

Co wybieram?

Jeśli 4090 będzie min 40-50% szybszy od 3090 bez stosowania supersamplingu – to z pewnością złożę zamówienie na tę kartę 12 października. Odłożone ponad 7k zł plus sprzedaż 3080 i być może jeszcze parę zł powinno wystarczyć, bym miał doskonałą kartę na kolejne 2-3 lata.

Drogo? Jasne, że tak. Niemniej nie winię za to nikogo – podejmuję świadomą decyzję, na którą przygotowywałem się przez ostatnie 2 lata.

Liczę na to, że poczytam tutaj więcej o pasji do technologii, a spory będą okazją do tego, żeby podyskutować o wydajności i nowych rozwiązaniach, a nie o oceanie frustracji zranionych i pokrzywdzonych przez złe korporacje i makroekonomię.

Tego sobie i wszystkim Wam życzę :)

Edytowane przez Gość

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, peejay71 napisał:

Liczę na to, że poczytam tutaj więcej o pasji do technologii, a spory będą okazją do tego, żeby podyskutować o wydajności i nowych rozwiązaniach, a nie o oceanie frustracji zranionych i pokrzywdzonych przez złe korporacje i makroekonomię.

Zawsze możesz zacząć dyskusję o pasji do technologii :E Bo jedyne co zrobiłeś, to pojęczałeś na jęczących.

  • Like 1
  • Haha 2
  • Upvote 7

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, peejay71 napisał:

Lubię czytać ten wątek. 2 lata temu też lubiłem czytać podobny wątek przy okazji premiery Ampere. Jest hype, ekscytacja nową technologią, oczekiwanie na nową generację kart, która może zapewnić niezły skok wydajności, wspomagana dodatkowo nowymi, ciekawymi rozwiązaniami. Całość nieco psuje mi ta fala marudzenia i jęczenia skoncentrowana na „absurdalnych” cenach, „złej” nVidii i całej reszcie.

Nie za bardzo rozumiem czemu to ma służyć – no chyba, że to jakaś forma zbiorowej terapii i upewniania siebie nawzajem, że to właśnie ta zła nVidia, słaba złotówka, zmowa na rynku producentów wafli krzemowych, niskie płace, itd., gdzie na końcu mamy obraz „biednego Polaka”, którego przez wszystkich innych na nic nie stać i który cierpi niesprawiedliwość spowodowaną przez „innych”.

Nie wiem zatem, co takie jęczenie daje (niektórzy posuwają się do złorzeczenia i życzenia nVidii upadku czy innej katastrofy)) – no ale jak komuś pomaga – to niech sobie marudzi dalej :)

Ja spokojnie się przygotowywałem do premiery nowej generacji. Było mnóstwo czasu, by odkładając 200-300 zł miesięcznie mieć spokojną sytuację, by skupić się na szczegółach (przecież nie znamy jeszcze wyników szczegółowych testów!) i planować zakup (lub nie), na podstawie własnych możliwości, nie obarczając winą innych, w tym producenta chipów, jakby to był nasz najlepszy ziomek, który wywinął nam podły numer.

Co wybieram?

Jeśli 4090 będzie min 40-50% szybszy od 3090 bez stosowania supersamplingu – to z pewnością złożę zamówienie na tę kartę 12 października. Odłożone ponad 7k zł plus sprzedaż 3080 i być może jeszcze parę zł powinno wystarczyć, bym miał doskonałą kartę na kolejne 2-3 lata.

Drogo? Jasne, że tak. Niemniej nie winię za to nikogo – podejmuję świadomą decyzję, na którą przygotowywałem się przez ostatnie 2 lata.

Liczę na to, że poczytam tutaj więcej o pasji do technologii, a spory będą okazją do tego, żeby podyskutować o wydajności i nowych rozwiązaniach, a nie o oceanie frustracji zranionych i pokrzywdzonych przez złe korporacje i makroekonomię.

Tego sobie i wszystkim Wam życzę :)

Zaczynaj już odkładać na RTX 5xxx bo nie zdążysz na premierę ?

  • Haha 9
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minut temu, kadajo napisał:

Wydajność w krytycznym momencie (czyli przy 60 fps) miedzy RTX 3070 a 80 nie będzie miała większego znaczenia. Bo to będzie teoretycznie 60 vs 48 FPS. A gracze z niższych wersji kart raczej celują w niższy FR.

Wg mnie dokładnie odwrotnie. Ja zawsze miałem monitor 60Hz, a obecnie 75Hz i właśnie ta różnica między 50 a 60FPS jest bardzo odczuwalna. Po prostu jestem przyzwyczajony do tego, co daje monitor i odczuwam spadki. Ów 60Hz to jest takie minimum godności, a poniżej czuć już brak płynności. Jak ktoś siedzi na 144Hz, to pewnie dla niego takie 60Hz tragedią, więc wszystko to jest właśnie kwestia przyzwyczajenia. I to przyzwyczajenie do 60Hz spowoduje duży dyskomfort przy 50Hz.

  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość
1 minutę temu, kadajo napisał:

Zaczynaj już odkładać na RTX 5xxx bo nie zdążysz na premierę ?

czas pokaże, ale dzięki za dobrą radę :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, Karister napisał:

Wg mnie dokładnie odwrotnie. Ja zawsze miałem monitor 60Hz, a obecnie 75Hz i właśnie ta różnica między 50 a 60FPS jest bardzo odczuwalna. Po prostu jestem przyzwyczajony do tego, co daje monitor i odczuwam spadki. Ów 60Hz to jest takie minimum godności, a poniżej czuć już brak płynności. Jak ktoś siedzi na 144Hz, to pewnie dla niego takie 60Hz tragedią, więc wszystko to jest właśnie kwestia przyzwyczajenia. I to przyzwyczajenie do 60Hz spowoduje duży dyskomfort przy 50Hz.

No ale co to zmienia. Lepiej kupić kartę która da ci większy zapas mocy czy mniejszy ? A jak takiej karty nie ma to kupujesz byle co ? 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość

Paradoksalnie przy monitorze 144hz te 50fps zamiast 60fps tak nie boli bo jest freesync i nawet tego nie widac.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, Krzkra napisał:

Nawet kastrat się sprzeda jak będzie wydajność na poziomie 3090Ti. Wątpliwe czy będzie, ale jeżeli tak to dziś 3090ti kosztuje ponad 6tys. tyle samo będzie kosztować 4080 12gb. Jak ktoś nie ma karty to wybierze 4080 kastrata zamiast 3090ti. 

Nie będzie wydajność na poziomie 3090ti. Ale skorygują Twoje zdanie: Nawet kastrat się sprzeda, jak ludzi się oszuka i powie, że RT i AI to ważna rzecz

@Kynareth
 

Cytat

Kiedy obniżali wydajność sterownikami?


E... Zawsze?

Od GF FX 5800  jawnie oszukiwali tnąc detale w benchmarkach. Potem cudowali z wykrywaniem nazw plików typu 3dmark2006.exe. Jak ich złapali to myślisz, że co? Przestali nagle po 20 latach i już są moralni? :szczerbaty:
Jak był dym, że specjalnie ubili wydajność w Wiedźminie 3 to nagle NVidia znalazła "błąd" i patrz pan, jakie cuda, Keplery nagle dostały sporego kopa. Do tego ludzie na redditach minusują tego typu wypowiedź na potęgę broniąc tym, że "przecież Nvidia wyjaśniła, że był to błąd, zareagowali i gitara" :D
A tesselacja krawężników i wody pod miastem na mapce bez wody w  Crysis, bo Radki miały mniej tesselatorów? Uczciwe i spoko, nie? ;)

Masz też bardzo jasne przesłanki:
- masz wypowiedź insidera na jakimś forum, gościa co pracował w teamie od sterowników. On mówił, że przed DX12, to Nvidia robiła optymalizację do gier w temacie shaderów ZA DEVELOPERÓW. Tak to wyglądało. Dlatego karty AMD miały tak ciężko. 

- teraz weź to pod uwagę i patrz na gry, które są na tym samym silniku, wyglądają tak samo. Stara gra i masz np. 1070-980ti, a 1060=970. Nowa gra, wydana gdy 9xx już nie ma w produkcji i... 1060=980ti.

No ale to oczywiście przypadek, na pewno były nowe funkcje w karcie, których 9xx nie ma i to dlatego. A że ich nie widać to tam szczegół. Że takie coś, zaburzenie relacji kart między starą a nową generacją, występuje prawie zawsze (ostatnio mniej, bo NV nie potrzebowała, a do tego DX12)
Weź pod uwagę, że oni tam robią poprawki za developera. Mogą je dać wszystkim kartom, ale nikt się nie dowie, bo nie ma jak sprawdzić jak to jest, więc jak myśli, co zrobi Nvidia o moralności Mafii? Da je starszym kartom choćby to była kwestia jednego kliknięcia czy nie da aby poprawić "wydajność" nowych?

Ostatnio jedynie wydajność w grach na Vulkanie wygląda podejrzanie. Tutaj cholera wie. Może i te async compute, choć różnice są dużo większe i w grach pisanych pod konsole i async, starsza generacja nie dostawała tak mocno od kart AMD.
A! Właśnie. AMD. Relacja stara generacja vs. nowa generacja się zmienia, ale relacja stara generacja vs karty AMD też. I ja rozumiem, że karty AMD się nie zmianiły i że konsole miały tą samą architekturę, i że ogólnie architektura Radków była bardziej przyszłościowa. I rozumiem, że nowe karty dostają faktycznie optymalizacje sterowników i  z czasem przyspieszają. No ale to jest 5-10%. Raz na dekadę 15%. Łącznie.
A nie 20-30%.

Nie wiem jak będzie teraz. Mogą cudować z RT. Np. nie dawać optymalizacji starej generacji, bo i tak nikt im tego nie udowodni. Także nie mówię, że Nvidia zrobi to znowu. Strategie się mogą zmieniać. W każdym razie nie oburzaj się jak ktoś pisze, że NV ubija softem stare karty, bo oszukują od prawie 20 lat.

A. Jeszcze jedno. Można optymalizować zarządzanie wątkami, co ma wpływ na użycie CPU. Tego też nikt im nie udowodni. Jak dasz nowej karcie poprawkę i zwolni 10% mocy CPU, to stara generacja dostanie po tyłku w niskiej rozdzielczości albo w grach gdzie masz dużo FPS (np. z możliwych 400fps będzie 360)

No, oczywiście Linusy i inne youtubowe "eksperty" porobiły testy :D - polegające na zainstalowaniu starego sterownika do karty i sprawdzeniu, czy chodzi na nim lepiej. Wniosek - to są internetowe teorie spiskowe, Nvidia jest cacy. :szczerbaty:

Mieliśmy generacje konsol na tej samej architekturze. Gry były pod klocka z 2005 a potem pod Radeona w PS4/Xone. Przez wiele, wiele lat. Gier specjalnie na PC się prawie nie robiło. Można było obserwować.
Jak Was stać to nie śledziliście tego tak jak ja. Ja zawsze jadę na starej generacji, nie licząc GF4, 6800 i 8800. I widać  było jak na dłoni. 
A i tak na reddicie krzyk, że bzdura, bo się nie znam, bo nawet jak gra wygląda tak samo i wychodzi na tym samym silniku przez wiele lat, to silnik może być już zupełnie inny i wykorzystać funkcje karty nowej generacji. Tak jak kiedyś hardware T&L, instancing i tak dalej. Bo oczywiście nowe karty mają funkcje, z których gry korzystają.
A, nie. Czekaj. 
;)

Wystarczy trochę obserwacji, serio. I brak złapania AKURAT NA TYM Nvidii za rękę, to nie argument.
 

Cytat

Ja od Gamescomu 2018 pisałem, że 2080 Ti powinien kosztować $699 i od Computexu 2019, że 5700 XT powinien nazywać się RX 680 i kosztować góra $229. To się ze mnie śmiano i pisano, że jestem rozszczeniowy. Patrzcie gdzie to doprowadziło. GTX 580 był $500, 4080 jest $1200.

Zgadza się. Pamiętam, że pisałem to samo i też dostawałem negatywne komentarze na ten temat. To był największy plaskacz od AMD w historii GPU wtedy. Dali nazwę 5700 następcy chipu w RX 480  - i tyle było z tego pozytywnego wpływu konkurencji i AMD na ceny kart do grania. A 2080ti to byla karta do obliczeń, którą wypchano jako kartę do gier na zasadzie "o kurde, oni kupuję te Titany za chore ceny, to spróbujemy wydoić ich bardziej". Istnienie 1660ti moim zdaniem to dowód na to, że następcą 10xx miała być seria kart o układach z tej rodziny. A nie żadne RT i AI w Touringu. Udało się, ludzie łyknęli i teraz mamy to samo z 40xx. Po co robić dwa chipy jak projektowanie i testy drogie.

Edytowane przez Ronson

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No nie przesadzajmy, czuć - nie czuć rwania ekranu przy takich dropach ale spadek na 60fps zawsze czuć.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, ŁowcaPisowców napisał:

Paradoksalnie przy monitorze 144hz te 50fps zamiast 60fps tak nie boli bo jest freesync i nawet tego nie widac.

Przy 50fps jest blisko końca zakresu pracy freesynca więc na pewno z niego wypadniesz i będzie mocno czuć, mając średnio 60 dużo rzadziej będziesz wypadał (to są średnie, klatki będą trochę latać góra/dół).

Jedynie gsync ma pełny zakres

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość
4 minuty temu, caleb59 napisał:

No nie przesadzajmy, czuć - nie czuć rwania ekranu przy takich dropach ale spadek na 60fps zawsze czuć.

Tutaj raczej byla mowa spadku z 60fps na 50fps. Ale tutaj to co mowisz ze czuc to jest jeszcze inna sprawa, bardzo wiele monitorow 144hz ma tak zestrojony overdrive pixela, ze dziala dobrze tylko w gornych granicach czyli 120-140. 

Edytowane przez Gość

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, kadajo napisał:

No ale co to zmienia. Lepiej kupić kartę która da ci większy zapas mocy czy mniejszy ? A jak takiej karty nie ma to kupujesz byle co ? 

To jest zupełnie inny temat. GPU oczywiście najlepiej jest kupić jak najlepszą, bo często pół roku po premierze pojawia się nowa gra z wyśrubowanymi wymaganiami. Ja się odniosłem do kwestii odczuwalności FPS. 60 i 48FPS to jest olbrzymia różnica w, jak sam piszesz, kluczowym zakresie. Stwierdzenie, że nie ma to znaczenia, kłóci się z tym.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Wu70 napisał:

Przy 50fps jest blisko końca zakresu pracy freesynca więc na pewno z niego wypadniesz i będzie mocno czuć, mając średnio 60 dużo rzadziej będziesz wypadał (to są średnie, klatki będą trochę latać góra/dół).

Jedynie gsync ma pełny zakres

g-sync compatible to 48-144Hz więc też niepełny a ludzi, którzy decydują się na wbudowany moduł w monitor jest jak na lekarstwo. Żadna to tajemnica, że zalecany overdrive monitora przy korzystaniu z tej technologii to średni, większość nigdy tego nie zmienia.

Edytowane przez caleb59

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, caleb59 napisał:

g-sycn compatible to 48-144Hz więc też niepełny a ludzi, którzy decydują się na wbudowany moduł w monitor jest jak na lekarstwo.

Miałem na myśli właśnie moduł (gsync), gsync compatible to właśnie odpalony freesync u nv

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość

Gsync compatible to jest 20-144hz (chyba ze monitor nie obsluguje). Modul fizyczny gsync daje inne korzysci. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • pewnie że wole niestety kosmici w komputroniku tylko pracują a na to nie mam wpływu tak jak i na to że zasilacz 1600 w jest niedostępny więc bedzie musiał wystarczyć 1300 w tak dokładnie wydaje po to 26 tys by "chapnąć" 2600 i kupic najtańszy tv 55 cali cholera trafił mi sie myśliciel i wizjoner a jak pomógł swoim mądrym postem cholera od teraz moje życie sie zmieni
    • @up Skill to w moim przypadku za dużo powiedziane. RL1 to w dużym stopniu przedsięwzięcie strategiczno-logistyczne, a nie tylko poznawanie movesetu przeciwników. Kluczem do walki z Malenią było ogarnięcie właściwego buildu i taktyki, bo jak chciałem po prostu wszystko wydodge'ować, to miałem poważne problemy z przejściem nawet pierwszej fazy. Dla zainteresowanych:
    • Chce pan tanio i szybko? To ma pan tanio, szybko i ekologicznie   To wyżej to taka robota na boku bo zmieniałem ram z 16 GB na 32 GB i eksmitowałem 5800x3d i na powrót dałem 5700G. Koszt zmiany ramu to jakieś 70 - 80 złotych o ile poprzednie g.skille pójdą za 120  - 130 zł. Tak, te klevvy kupiłem nówki za 101 zł za komplet  Fajnie, że mają czujnik temperatury.   
    • Pewny jesteś nazwy płyty? Według Google to MSI. Co do pytania to raczej nie warto bo praktycznie nic to nie zmieni. Chyba, że o ile dobrze rozumiem, to pamięci z i5 działają na 2666 MHz a z i7 oraz i9 na 2933 MHz. Wtedy za około 200 zł dojdą 4 wątki, trochę szybszy zegar i szybciej działające pamięci.  https://allegro.pl/oferta/procesor-intel-core-i7-10700f-2-90ghz-lga1200-15372094649?utm_medium=afiliacja&utm_source=ctr_2&utm_campaign=a87648d1-a282-4a5a-bbdf-1f1e1cd28cc4&utm_content=4ac103486af9#  
    • kupiłem se kołpaki (ze wzgledow praktycznych - psy mi sikaja na tarcze) i tak, wiem ze bieda, ale oryginały były w tej samej cenie a te mi sie podobaja bardziej - i TAK, wiem ze jestem w mniejszosci bo wiekszosci sie nie podobaja
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...