Skocz do zawartości

Rekomendowane odpowiedzi

13 godzin temu, lukadd napisał:

Kapkę cenowo odlatują :E

No z deczka, ale wiesz...ASUS :E  A w środku i tak podobno siedzi Seasonic ;) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 godzin temu, kadajo napisał:

Nie wiem, czy tam coś nie jest kobinowane aby zacząć kopać inne krypto.

Przez DLSS 3 :rotfl:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 godzin temu, Ronson napisał:

Na tych "średnich", czyli np. Reverb G2 i tak przyda się 3090 lub lepiej

Za mało, kupiłem i zwróciłem, bo 3080Ti nie dawała rady w starej grze jaką jest Assetto Corsa :( ACC nawet nie odpalałem, to by się mijało z celem. A co dopiero do VR o których piszesz, to chyba dopiero 60xx

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, Karister napisał:

Przewiń sobie ten wątek o jakieś 24h albo wygoogluj "12VHPWR specification". Wytrzymałość wtyczki to 30 podłączeń. Powpinasz kilka razy, wygniesz kable i się rozpuszcza. Przejściówka to kompletny szajs, a nowe złącze to zwykły szajs.

Blacku na swoim profili już wyjaśniał ten wątek, nawet molex ma w specyfikacji 30 podłączeń ;) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Phoenixsuple napisał:

Blacku na swoim profili już wyjaśniał ten wątek, nawet molex ma w specyfikacji 30 podłączeń ;) 

Lol, pracuje z molexami od lat i chinskie tanioszki z chinskimi konektorami dopiero po jakichs 5 tys cykli zaczynaja mi przysparzac problemow. Co do tych palonych przwodow to juz dziwna sprawa jak na moje oko, zakladam ze chcieli sie zmiescic w zakresie topienia i im nie wyszlo. Te przewody z tego co pamietam moga operowac zazwyczaj do max 70 stopni. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, C3Q napisał:

Lol, pracuje z molexami od lat i chinskie tanioszki z chinskimi konektorami dopiero po jakichs 5 tys cykli zaczynaja mi przysparzac problemow. Co do tych palonych przwodow to juz dziwna sprawa jak na moje oko, zakladam ze chcieli sie zmiescic w zakresie topienia i im nie wyszlo. Te przewody z tego co pamietam moga operowac zazwyczaj do max 70 stopni. 

Ja osobiście to bym i tak kupił zasilacz z natywnym kablem i darował sobie przejściówki ale z racji, ze nie wydam złotówki na obecne modele kart to problemu z zasilaczem mieć nie będę ?

Edytowane przez Phoenixsuple
  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nVidia "rozegrała to dobrze" ? : ) hehe...

Kurczę, trza kupić teraz coś, bo potem to tupet będzie, z drugiej strony - jak mam wymieniać zasilacz pod 3xxx, to wolę kupić ATX 3.0...

Ktoś tu pisał, że te złączki to lipa? Topią się? OMFG... czyli jednak kupujemy na fulla AM4 + ATX obecny + 3xxx pod nos i czekamy 2 lata aż rynek się unormuje.

Nie wiem, czy to jest dobre rozegranie. Mam nadzieję, że AMD nie będzie aż tak prądożerne... masakra, w tych czasach takie coś "zinżynierować"...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Proponuje części użytkowników czytać temat i nie wrzucać co chwile czegoś co już było ;)

  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli do nowych rtxów ale tylko 4090? potrzeba zasilacza z nowym złączem które jest słabo zaprojektowane i zasilacz taki kosztuje obecnie minimum 1k zł?
Przejściówki rozwiążą sprawę ale trzeba dobrej jakości?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 minut temu, Keken napisał:

Czyli do nowych rtxów ale tylko 4090? potrzeba zasilacza z nowym złączem które jest słabo zaprojektowane i zasilacz taki kosztuje obecnie minimum 1k zł?
Przejściówki rozwiążą sprawę ale trzeba dobrej jakości?

Zasilacz jest dobrze zaprojektowany, przejsiowki sa nie najlpeszym rozwiazaniem. Jak kupisz zasilacz z natywnym zlaczem to bedzie ok ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, Phoenixsuple napisał:

Zasilacz jest dobrze zaprojektowany, przejsiowki sa nie najlpeszym rozwiazaniem. Jak kupisz zasilacz z natywnym zlaczem to bedzie ok ;)

Przy 12-15k złotówek za kartę, zasilacz za 1,5-2k złotówek to taniocha. :E

  • Haha 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Porównanie AD102, AD103 oraz AD104. Jezu, jaki ten tańszy 4080 jest przykrojony... mniej niż połowa!

5BwLuDjFczOlwJib.jpg

RTX 4060 będzie ile, 25% pełnego chipu?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bo to jest 4070. A Nvidia jeszcze bezczelnie nam wmawia ze on jest taki super ze dlatego go nazwali 4080.

Historycznie patrząc xx70 zawsze odstawał +/- 30% od xx80, ciekawe jak będzie tutaj.

  • Like 2
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 godzin temu, Ronson napisał:

Wstaw tam "tanie" przed VR, to będzie poprawnie ;)

Od pikselozy z Rifta 1 i Vive, to już trochę czasu minęło. Są już HP Reverb G2, PImax 8KX, a jak Ci tego mało to możesz albo wyskoczyć z 3 tysięcy Euro i kupić Vario, albo poczekać kilka miesięcy lub kilka miesięcy + tradycyjny u nich poślizg, i kupić Pimaxa 12K. To ma ekrany 6K na oko. Chyba starczy ;)
Będzie też Pimax Crystal za 1500-2000€, ale to badziewie jest pozbawione jedynej dużej zalety chińskich PImaxów - dużego FOV, więc bez sensu. No ale w kwestii PPI będzie bardzo dobrze.
Do tych VR o wysokiej rozdzielczości to by się przydał 4090. Nieszczęściem jest sytuacja. Jakby skupić się na wydajności VR, to połowa chipu z 4090 i 1/3 jego ceny dałyby te same efekty. A AMD w VR potrafi mocno kuleć z racji sterów, także też na wybawienie nie ma co liczyć.
Na tych "średnich", czyli np. Reverb G2 i tak przyda się 3090 lub lepiej, do supersamplingu, który mocno w VR się przydaje.

Sprawa jest prosta: bez szybkich i przystępnych kart, VR się nie rozwinie. W mobilne VR nie wierzę, bo przecież nawet pecety (jak mój np.) nie dają rady, a co dopiero działające na baterii. Pimaxa 12K oczywiście nigdy nie próbowałem, więc nie wiem jak to wygląda. Ale Quest 2 jest niewygodny, wąskie pole widzenia i nadal pikseloza, nie wiem jak można twierdzić inaczej. Tylko jedna osoba, którą znam używa VRa, u reszty się gdzieś kurzą.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, Kynareth napisał:

RTX 4060 będzie ile, 25% pełnego chipu?

Kto wie, czy w ogóle dostaniemy 4060 w obecnym kształcie. Skoro przez cały okres kryptocyrku rzeźbili RTX 2060, tak do 2024 mogą rzeźbić RTX 3060 dla mało wymagających konsumentów. 

  • Confused 1
  • Sad 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, Kynareth napisał:

Quest 2

To zabawka dla dzieci ;)  Niestety do porządnego VR jest potrzebna bydlęca moc :E, ciekawe jak 4090 będzie sobie tam radziła :hmm:

Edytowane przez maras2574
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeszcze dodam, że ta jedna osoba ma Pimax 5K + PC, a reszta ma zestawy z mniejszą rozdzielczością i węższym polem widzenia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, ŁowcaPisowców napisał:

Untitled.jpg.a700de150253368cbb71c1bec71d76bf.jpg

Ale to jest porównanie do kosztu karty z i tak już wielką, rozdmuchaną Nvidiową marżą. No i wliczają na pewno w  ten koszt GPU ogrom kasy na badania. Tylko, ze ta kasa poszła w badania nad AI i inne pierdoły potrzebne graczom jak gospodarce Glapiński. 
Do tego 3080 była wycinana z całego chipu. Ogromnego, drogiego chipu. Inaczej by to wyglądało jakby chip od razu był projektowany mniejszy. Spodziewali się 700. Moim zdaniem tyle będzie jak się już 30tki wyprzedadzą, ale ta karta mogłaby spokojnie kosztować 450-600, jakby Nvidia nie nakładała chorych marż. I nie ważne, że przy 600 byłaby ta marża mniejsza. Cena wafli mogła se wzrastać, ale 4080 12GB ma ponad DWA razy miej powierzchni. Czytam strony o technologiach produkcji proców. Nie to, że taki mądry jestem, bo rozumiem tak jakoś 30% tego co piszą na np. semiwiki ;) ale coś tam czytam, śledzę, interesuję się jak są wywiady z ludźmi z TSMC czy opis spotkań z nimi na konferencjach. NIGDZIE nie było "łojezu, ceny +200% za wafel!"
Marża jest chora i tyle. To jest karta o powierzchni 60tek. Nawet 700 za to "4080" to przegięcie pały. 

Apropo przegięć pały to też fajnie producenci kart jadą widzę. Jak high-endowa karta za 4000 jest droższa o 700zł, bo ma droższe PCB i chłodzenie, to się da, ale jak taka sama karta tylko z droższym chipem i powiedzmy jeszcze trochę drożśzym PCB i chłodzeniem, to już 2000 albo 4000? Seems legit. Przecież 4090 FE nie ma taniego PCB i chłodzenia. To nie tak, że CAŁĄ różnicę sobie liczymy. W każdym razie za 1500zł to się kupowało nie tak dawno całą kartę ze sporym chłodzeniem z segmentu mid-to-high end. Dowalanie cen typu +2000zł to jest też golenie frajerów ze strony producentów kart, choć po tych wypowiedziach od EVGA ostatnio, to taką pazerność przynajmniej rozumiem i potrafię w jakimś stopniu usprawiedliwić. Nie, że calkiem. W jakimś procencie. I tak są wuje. ;)

 

3 godziny temu, maras2574 napisał:

Za mało, kupiłem i zwróciłem, bo 3080Ti nie dawała rady w starej grze jaką jest Assetto Corsa :( ACC nawet nie odpalałem, to by się mijało z celem. A co dopiero do VR o których piszesz, to chyba dopiero 60xx

Za mało czego? Rozdzielczości? W którym headsecie? W Asetto Corsa to ja w VR na 760tce grałem. Coś mi się wydaje, że to była kwestia ustawień, może źle dobrana pamięć i leciałeś na uspcalingu. Competitione to fakt. Ta gra już wymaga w VR bardzo dużo. A może proc był słaby?

Bydlęca moc do VR owszem, potrzebna, ale bardziej od CPU i czasów dostępu do pamięci (lub duuużo cache) i w GPU w sekcji ROP i tego co ogarnia geometrię. Jakby przeprojektować dzisiejsze układy GPU pod VR to by nie potrzeba monstrów po 500W. Patrząc na Questa i PSVR, zakładam, że spokojniei wydajność 3090ti w VR możnaby osiągnąć na karcie biorącej 100W. No może 150, bo PS5 potrafi połowę tego, a i tak ma mnóstwo "zbędnych" tranzystorów. 
Jak PS4pro w Wipeout z PS3 potrafi wypluć 120fps w 1080p, a 60fps w 4K, to sobie sam dopowiedz, czy faktycznie do 4K potrzebujemy 6090ti. Na mobilnym Snapdragonie 845 modyfikowanym lekko pod VR na Queście są gry w stałych 120fps. Nieważne jak biedne. Są. To już jest szok, bo jakby ten Quest został z tą samą wydajnością, ale dodali mu takie ciężkie shadery i inne RT/tensor/whatever, to byś miał 50W zamiast tych 5ciu czy ilu tam (max 10W na GPU, skoro całość bierze z 10-20 a to całe APU, RAM, kamery i wyświetlacz)
 

@Kynareth

 

Tryb standalone w Q2 otwiera możliwości. No nie graficzne, wiadomo, że do PC VR to nie ma startu w tej kwestii. Ale są gry, które działają i przy słabej grafie. Możliwość chodzenia na dworzu to jest coś naprawdę fajnego (o ile nie świeci słońce akurat)
Co do rozdzielczości - większość gier na standalone idzie poniżej natywnej, a do PC wszystko mieli kompresja niestety. Trzeba na PC DSR z 4x wrzucić najlepiej i ręcznie zmienić przepustowość kabla USB na 250, żeby zobaczyć max tego, co to potrafi w trybie VR. No ale co kto lubi. Moim zdaniem rozdzielczość w VR jest ostatnim najważniejszym elementem. Dla tych, którzy mają sokoli wzrok i muszą mieć jak na monitorze, to są Vario https://varjo.com/ tylko one też mają sporo wad. Dobrego headsetu do PC VR to obecnie nie ma, niestety. Bo dla mnie PC VR to obowiązkowo powinien być FOV przynajmniej jak w PImaxie 5K. Jako absolutne minimum. Bo na to wydałbym moc obliczeniową w pierwszej kolejności a zwykłe pole widzenia to ogarnia PS4 i Quest 2 (jakoś). Niestety mamy chińskie Pimaxy i zero zainteresowania innych tym rynkiem, a jak już to w chorych cenach, bo tak jak piszesz - bez tanich i wydajnych kart (wydajność w VR 3060tki za 600zł, 3070tki za 1000zł i 3090ti za 2000) ten rynek nie rozkwitnie, a skoro producent HMD wie, że kupi tylko ten, co już wydał 4000zł na kartę, to doi na HMD też, bo zakłada, że jego grupa docelowa jest bogata.

Co do kurzenia się po zakupie, to jest to często kwestia błędów popełnianych przez właścicieli i nie tyczy tylko tej technologii. Ale to wchodziłbym w  temat psychologii i mechanizmów typu "im dłużej nie grasz, tym mniej chcesz wracać" - i tyczy tak gier 2D, jak VR, jak i w ogóle każdego typu rozrywki.  Poza tym w VR trzeba na PC przebierać w śmietniku i to długo, żeby znaleźć coś fajnego, do tego mieć akcesoria i chęć ich używania (PC VR to w 2/3 gry na kierowncach/wolantach) i na koniec mieć taki headset, który nie ma wad tak wielkich, że aż się właścicielowi odechciewa (dla mnie za mały FOV to taka wada w wielu grach/scenach)

Edytowane przez Ronson
  • Like 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, Ronson napisał:

Za mało czego? Rozdzielczości? W którym headsecie? W Asetto Corsa to ja w VR na 760tce grałem. Coś mi się wydaje, że to była kwestia ustawień, może źle dobrana pamięć i leciałeś na uspcalingu. Competitione to fakt. Ta gra już wymaga w VR bardzo dużo. A może proc był słaby?

Że 3090 to za mało, chodzi o Reverb V2. Proc 12700k

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Aha. No to albo były problemy z przycinkami o których wspomniano wcześniej, że występują na serii 30xx od którychśtam sterów, albo coś w tle psuło wydajność, albo ustawienia. Bo G2 ma niestety soft Windows Reality, więc sporo mocy się marnuje na dzień dobry, a do tego dość wysoka rozdzielczoś. Mimo wszystko w grze z 2013-14r. to nie może sobie nie radzić, skoro ja miałem te 75fps na low na GTX 760 w tej grze na Oculus Rifcie. Coś ewidentnie nie tak i na pewno 4090tka nie jest jedynym rozwiązaniem problemu 
PS. Dopisałem w edicie trochę do poprzedniego posta tuż przed tym jak dodałeś swój, ten wyżej teraz.

Apropo.
Bardzo. Nie, nie bardzo. BARDZO mnie ciekawi czy ten cache da się wykorzystać w VR na 4090tce.

Edytowane przez Ronson
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Quest 2 to bardzo fajne gogle dla odpowiednio napisanych gier. Po podłączeniu do PC tez dają radę. Marudzić zamiast grać zawsze można. Ogolnie gogle uwiązane kablem do PC to zaprzeczenie najważniejszej cechy takich gogli, czyli swobody ruchu. 

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, Ronson napisał:

Aha. No to albo były problemy z przycinkami o których wspomniano wcześniej, że występują na serii 30xx od którychśtam sterów, albo coś w tle psuło wydajność, albo ustawienia. Bo G2 ma niestety soft Windows Reality, więc sporo mocy się marnuje na dzień dobry, a do tego dość wysoka rozdzielczoś.

Nie nie, żadnych przycinek, chodzi o samą wydajność. W Assetto nie było nawet 90fps :(  

9 minut temu, Ronson napisał:

PS. Dopisałem w edicie trochę do poprzedniego posta tuż przed tym jak dodałeś swój, ten wyżej teraz.

:thumbup:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

VR jest teraz w moim odczuciu na takim etapie jak gry 3D były we wczesnym PlayStation 1. Czyli wygląda to źle, jest słabo i kiepsko. Widzieliście gry 3D PS1 bez ulepszeń graficznych? Strasznie wyglądają. Mam wrażenie, że analogicznie prezentuje się obecny VR. Różnica jest taka, że wtedy jak poczekałeś rok, to sprzęt sporo taniał i wychodził sporo lepszy przez ten rok. Więc jak cię nie było stać, to po prostu czekałeś trochę i już cię prawdopodobnie było. A jak cię w 2020 nie było stać na RTXa 3090, to cię prawdopodobnie nadal nie stać (chociaż z drugiej strony to staniał z 1500 USD do 1000 USD: https://www.amazon.com/ZOTAC-Graphics-IceStorm-Advanced-ZT-A30900J-10P/dp/B08ZL6XD9H).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Jako palacz jestem za. 
    • niestety ale produkty marki Herman Miller w Polsce są obarczone jakimś dziwnym januszowym skokiem ceny względem całego świata. Aeron za 5800 zł dziś kosztuje 9000 bez zniżek, rabatów, promocji - Embody to wydatek w okolicach 6800-7500 zł w zależności od sklepu i przeceny (bez przecen to koszt ok 9000 zł...) no krótko mówiąc dramat.
    • Wczoraj znalazłem czas na włączenie i porównanie obu monitorów (DW vs C3). Testowałem w Horizon Forbidden West i Alan Wake 2 w HDR, takich samych ustawieniach graficznych i natywnej rozdzielczości każdego panelu. Stwierdzam, że C3 jest jednak zauważalnie jaśniejszy i 4k robi różnicę jeśli chodzi o ostrość obrazu, tuszowanie mankamentów (w 3440x1440 przy obracaniu kamerą dookoła Aloy jest delikatne jakby smużenie/blur, którego w 4k nie widać-przy wyłączonym FG, blurze, aberacji i tym podobnych i przy włączonym DLSS Q). Wielkość ekranu, 4k i 250 więcej nitów w oknie 10% wg mnie przyczyniają się do jaśniejszego obrazu i sprawiającego lepsze wrażenie HDR. Potwierdzam to co pisał wcześniej na ten temat @MSky7  Ponadto po 3 dniach i około 18h pracy panelu banding zdecydowanie zmalał i na tyle, że na razie nie ma sensu robić pixel refresha (odpowiednik panel refresha w DW). Nie widać go w grach i filmach - jest tylko czasami widoczny na szarych/near black tłach, ale liczę, że po tych 100-200h (tyle oledy potrzebują na ostateczne 'dostrojenie się') będzie dalsza poprawa. W środkowej części ekranu mam pink tint, ale niewidoczny w grach i filmach na ciemnych/szarych tłach i tylko nieco widoczny na białych tłach stron internetowych. Będę monitorował - avs forum mówi, że tint po pierwszym pixel refreshu powinnien nieco zmaleć. Banding i tint występują w każdym woledzie (chyba, że ktoś trafi na idealny panel, ale to jak wygrać los na loterii), ale na szczęście z czasem maleją lub znikają - najważniejsze, żeby nie było ich widać w grach i filmach. W swoim 5 letnim C8 też przy okazji zrobiłem pixel refresh i zniwelowałem w dużym stopniu banding, który w tym TV miałem dość widoczny w grach i filmach te 3-4 lata temu. Przy okazji ponadto porobiłem testy (slajdy) DW i panel jest praktycznie całkowicie czysty jeśli chodzi o banding i tint (pierwsza generacja paneli qd oled szczególnie miała bardzo dobre panele pod tym względem, a sam qd oled mówi się jest lepszy pod względem bandingu czy tintu). Biorąc pod uwagę powyższe, na 95% C3 zostaje ze mną, a DW (wciąż na gwarancji Dell Polska do sierpnia 2025) idzie na sprzedaż. Po weekendzie podejmę ostateczną decyzję, ale na obecną chwilę jestem bardzo zadowolony z C3. Zastanawiam się tylko za ile wystawić takiej jakości DW. Biorąc pod uwagę
    • Też się trochę przeraziłem wymaganiami. Ale to EA w sumie.
    • Tez mi sie tak wydaje jesli chodzi o ten RTX HDR, szczegolnie, ze potrafi ubic pare% z wydajnosci. Patrze na ten reshade i troche nie wierze w to ile sie zmienilo od czasow W3 kiedy ostatni raz go uzywalem  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...