Szanowny Użytkowniku,
Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.
Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.
Administrator Serwisu Forum PC LAB informuje, że:
- Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
- Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
- Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
- Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
- Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności
Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.
KaBaSZo
-
Liczba zawartości
601 -
Rejestracja
-
Ostatnia wizyta
Odpowiedzi dodane przez KaBaSZo
-
-
Godzinę temu, wkamil73 napisał:Używki na gwarancji 6900xt z niewielkim przebiegiem idą za 3kzł a ty chcesz za 200 zł mniej sprzedać 6800 nie xt? Optymistyczne założenie.
Nie patrzyłem na używki. Powiedzmy, że średnia za 6900XT to jednak 3200.
Imo rynek jest tak popsuty a nowe karty tak namieszały z cenami, że ceny za używki z gwarancją typu 6900XT 3.2k, 6800XT 3k, 6800 2.8k są realne. Bez gw przesunąłbym wszystkie o 200zł w dół.
Wygląda na to, że teraz ludzie dali sobie na wstrzymanie z zakupem, ale jak wyjdzie 7800 za 3.5k z wydajnością ~6900XT to wtedy wyprzedadzą się używki. -
Tych kart nie ma. Jego jest jak nowa. 2800 to uczciwa cena. 3k to bardzo optymistyczna cena dla sprzedawcy :]. 6700xt masz za 2200 a to jest ~20% wolniejsze.
Z tego co widać to XT cały czas wiszą w sklepach, wiec ludzie i tak nie kupują. Chyba czekają na 7800.
-
Od czasu do czasu XT da się kupić za 3k ale raczej jest po 3.5k. Jeżeli chcesz sprzedać to myśle ze za 2.8-3k.
-
To w sumie słabo, że ta nazywa się TI, bo mogliby później wypuścić taką z 16GB i ~8000 rdzeni jako TI za grubszą kasę.

Jest tyle hejtu na karty z wyższej półki. Ludzie jeszcze nie wiedzą co ich czeka po premierze RTX4070/4060 i RX7800/7700 :D.-
1
-
-
Panowie!
Przecież mamy dwie podobne karty. Przypomnieliście mi o tym, bo jak pisałem to zawsze odnosiłem się do 3080 10GB a jest jeszcze 12GB.Ze specyfikacji widać, że więcej RAM to więcej SM i TMU.


Przepustowość 912GB/s vs 760GB/s. Względna wydajność wg. techpowerupa 4%, 6%, 8% (1080p, 1440p, 2160p).
Jeżeli w parze z większym ramem idzie więcej jednostek to tak jak pisałem 4070TI 16GB byłby już inną kartą, o wiele droższą i pewnie te 5% lepszą w 4K od 3090TI. Czy wtedy wszyscy byliby zadowoleni?
-
7 minut temu, GregM00 napisał:
4080 ma 8 kości po 32 bity, 4070ti - 6 kości po 32 bity. Przepustowość na pin jest taka sama, wynosi 1 bit na cykl
Z tego briefu wynika, że GDDR6X koduje dane w taki sposób, że przesyła dwa bity danych na cykl i podwaja przepustowość względem GDDR6.
Natomiast nie wiem jaka jest różnica w przejściu z 1GB 64bit na 2GB 32bit bo to i to jest GDDR6X ale przepustowość mają taką samą (chodzi o RTX 3080 vs 4080). ?
Po prostu zostaliśmy przyzwyczajeni do dużych liczb :). Większe zawsze lepsze, ale przecież cała nowa seria idzie węższymi szynami, dlatego wstrzymałbym się w decydowaniu co jest problemem 4070TI w 4K.
Recenzenci mogliby się za to wziąć a nie wysuwać wnioski, że węższa szyna to gorzej (jeszcze raz patrz 4080 vs 3090TI).
Takie duże przepustowości jak 1000Gbps na pewno mają znaczenie jak ktoś trenuje modele sieci neuronowej ale nie w grach.
Ktoś musi ustalić minimalną przepustowość pod 4K i wtedy będzie spokój
-
@kadajo
Właśnie 4080 ma węższą szynę ale taką samą przepustowość jak 3080.
Po prostu kości się zmieniły wtedy były chyba 1GB 64 pinowe a teraz są 2GB 32 pinowe ale o większęj przepustowości na pin.@GregM00
Dla mnie to jest przepustowość a nie szybkość. Jeżeli wszystko nam mieści się w VRAM to szyna nie powinna robić różnicy w wydajności.
Oczywiście jak będziemy mieli szerszą szynę to możemy pchać więcej danych ale coś musi je przerobić. Mi cały czas chodzi o identyczne parametry 4070TI tylko 12GB (192bit) vs 16GB (256bit). imo nie będzie różnicy w wydajności jeżeli gra bierze < 12GB. -
31 minut temu, GregM00 napisał:Bo to ile gry używają VRAM jest mało istotne. Szerokość szyny przekłada się na to, jak szybko dane zostaną odczytane/zapisane do VRAM. Jeśli rdzenie dostają potrzebne dane z opóźnieniem, to stoją i nic nie robią.
Niemniej to nie jest takie proste do oceny, bo operacje wykonywane przez rdzenie są różne, sporo z nich operuje na wewnętrznych rejestrach i dochodzi cache.
W grach najlepiej takie rzeczy wychodzą, np. zmniejszenie szczegółowości tekstur powinno pokazać, czy problemem jest zatkanie na VRAM.Niby dlaczego szybkość odczytu/zapisu do VRAMu ma zależeć od szerokości szyny. Od szerokości szyny i częstotliwości zależy przepustowość. Na gpu mamy kilka kości każda o takiej samej "szybkości" działania. Jeżeli jest tych kości więcej to możemy równocześnie odczytywać i zapisywać więcej danych a tym samym osiągać większą przepustowość. Jeżeli mamy więcej rdzeni to są one wstanie przerobić większa liczbę danych.
Staram się po prostu to zrozumieć, bo w recenzjach hejtują szynę, ale przecież jej szerokość jest związana z liczbą kości. Nikt nie pokusił się, żeby jakoś zweryfikować czy wydajność w 4k to problem szyny i tutaj faktycznie przydałoby się zobaczyć wykresy dla 4k z ustawieniami tekstur low med high.
Liczę na to, że NVidia jednak dobrała liczbę jednostek pod vram niż miałaby dać tam rdzeń, który poradziłby sobie z wiekszą liczbą danych ale chcieli przyoszczędzić to wywalili dwie kości.21 minut temu, kadajo napisał:To jest tylko teoretyzowanie, kupujesz nowe GPU żeby raczej grac w gry teraźniejsze i przyszłe a te będą miały tylko coraz większe wymagania. Chcesz 4k ? Chcesz wysokiej jakości obiektów i tekstur ? Chcesz porządny PP? Chcesz AA bo grasz na 120" ekranie i na nim w 4k widać aliasing? Potrzebujesz jak największej przepustowości pamięci I wydajnego GPU. Potrzebujesz jak najwięcej RAM'u.
Jak twórcy gier mają zrobić coś porządnego jak się klientom wpycha taka biedotę w zawyżonych cenach, potem grafika stoi w miejscu 5 lat.Lament dotyczy tego, że szyna jest za wąska a nie że jest za mało vramu.
-
Szyna 256bit = 16GB ram. Wtedy pewnie nie obniżyli by jej ceny.
Zastanawia mnie to czy szyna jest tutaj problemem. 4080 tez ma węższa szynę od 3080.
Wątpię żeby gry potrzebowały przepustowości 500GBbs. 4070ti radzi sobie w 4K z kartami o przepustowości 1000Gbps. Ma teoretyczny pixel i texture rate tj 3090ti. Pewnie brakuje papu w postaci rdzeni/tmu/rop.Wlasciwie to jeżeli gry używają poniżej 12GB vram to dlaczego szyna ma być problemem. Skoro tam sa kości 2GB 32 pin. Więcej kości, większa szyna, większa przepustowość ale pewnie tez więcej rdzeni żeby to wykorzystać a to już byłaby inna i droższa karta.
Ktoś coś na ten temat?
-
Ja tylko stawiam górna granice
nadal mam cicha nadzieje ze te karty nie beda aż tak rozczarowywujace (w tym sensie ze to nie będzie wydajność 6800xt albo nizej).
-
-
W dniu 22.12.2022 o 09:09, Phoenix. napisał:Raczej na minus skoro 7900XTX jest srednio 35% szybszy w takim tescie HU w sredniej z 16 gier od 6900Xt. 7900XT to powinien byc 7800XT. 60CU jak bedzie to jest gruba obcinka w stosunku do najwyzszych modeli, chyba ze tam zegary beda wyzsze i beda nadrabiac.
Jeżeli ktoś zastanawiał się nad kupnem 7800 to ma ciężki orzech do zgryzienia. Wydajność xtx a przede wszystkim xt sugeruje ze navi 32 co najwyżej dogoni 6900xt. A zrobi to najprawdopodobniej w tej samej cenie. Jedyna zaleta bedzie prawdopodobnie niższy pobór energii.
Osobiscie polowałbym na wyprzedaże 6900/6950XT za < 4k przed premiera 7800. Udało mi się kupić 6800xt za 2900 wiec już nie czekam. Wątpię żeby perf 7800 usprawiedliwiał dopłatę ok 1k zł :). -
Patrząc na te ceny i relative performance 7900XT względem 6900XT nie wiem czy jest sens czekać na 7800 tylko brać 6800XT za ~3k.
Człowiek naczekał się tyle czasu a przyjdzie mu kupować starą generację albo TOP jeżeli ktoś chce wydać 6k.
W przypadku Nvidii raczej będzie podobnie aczkolwiek nie patrzyłem dokładnie na względne wyniki, żeby określić jak ciasno będzie na wykresach :). -
14 minut temu, Pitt_34 napisał:Ja tam nie widzę żadnego hejtu, za to widzę w tym roku ceny 10k+, a za dwa lata kurteczka zapowie 15/20k za 5090, skoro teraz ludzie tyle płacą to za dwa lata zapłacą jeszcze więcej. I w taki sposób będziemy dymani co premierę. Pokazaliśmy, że płacimy tyle ile sobie zażądają to dlaczego nie podnosić co premierę cen.
O ile dobrze pamiętam to ostatnio Nvidii spadły przychody (nie dziwota - krypto), więc jakoś muszą to odrobić. Zrobią to na tych biednych gamerach, których mieli gdzieś jak mogli wciskać karty kopaczom.
Sam nikogo osobiście nie będę hejtował za to, że wydaje tyle pieniędzy. Wiadomo, "mam to mogę".
Ja też mam ale tego nie zrobię, bo po prostu nie spina się to ekonomicznie a na dłuższą metę rozwali rynek. Tylko kto by się tym przejmował...Dzisiejszy konsument nie jest świadomym klientem.
-
1
-
1
-
-
Na 160cm nie zmieścisz tv i monitora (na szerokość). TV musi być centralnie, bo inaczej nie ma sensu. Po bokach będziesz miał głośniki i na tym skończy się miejsce
--> tutaj chodzi mi o to, że nawet 42'' cali pewnie tak nie zmieścisz.
Właśnie tak mam rozstawione z kolumienkami na 20cm szer. Musiałbyś mieć jakiś stojak, komodę albo cos innego obok biurka na ten drugi monitor ale wtedy korzystałbyś z TV jako monitora a ten drugi tylko jako dodatek.
Możesz pomyśleć o jakimś ramieniu na monitor tylko znowu twoje głośniki mogą ci przeszkadzać i nie znajdziesz dobrego miejsca do montażu ramienia tak, żeby wyginać je w taki sposób aby przesunąć monitor przed telewizor.
Poza tym dochodzi jeszcze kwestia głębokości biurka, która w przypadku jednego ekranu przed drugim będzie przetestowana do granic możliwości a raczej pewne jest, że jej za braknie.
Z tym możesz sobie poradzić jeżeli masz miejsce żeby wysunąć biurko. Wtedy TV zamontuj na ścianie a biurko będziesz miał wolne.
Jak widać jakieś opcje są, tylko trzeba to dobrze przemyśleć ;).
Podsumowując można to zrobić tak:
TV na ścianę, wysunąć biurko do przodu a monitory dać na ramiona montowane z boku blatu.
Przy czym z ramionami to zależy od tego czy głośniki nie będą przeszkadzać. Jak są wysokie to pewnie będzie problem. -
Siedzę przed C1 48" w odległości ~70cm i jest git.
Uważam, że 55" na taką odległość to za dużo (siedziałem przed takim). Poza tym przy 55" w 4k robi się już mizerne PPI - to tak w kwestii jak ktoś chce używać go jako monitora do kompa a nie tylko do grania.
PPI dla 48" jest ok, na 42" będzie najlepiej ale jeżeli chodzi o wielkość to nie uważam żeby 48'' było za duże do 70-80cm.
TV na fabrycznej stopce. Raczej nie podnoszę ani nie opuszczam głowy (jeżeli tak to minimalnie), natomiast delikatnie skręcam głowę w prawo i lewo, ale tak samo masz przy dwóch monitorach (nawet większy skręt).
Swoją drogą podziwiam odwagę mocowania TV za tyle patoli na stojaku z szklaną podstawą :).-
1
-
-
2 godziny temu, DjXbeat napisał:Pisząc 90% osób miałem na uwadze posiadaczy kart AMD. Jak by RT wydajnościowo dzisiaj było po ich stronie to te osoby raptownie uznają RT za coś dobrego, pożytecznego bo teraz jest zbyteczne.
IMO RT to jest fajny dodatek, ale daleko mu do bycia wymaganiem numer 1.
Ile rocznie wychodzi gier, w których RT istotnie poprawia grafikę? W ile gier z tej grupki zagrasz?
Recenzenci ograją większość, więc dla nich jest to fajny ficzer, ale dla zwykłego Janusza, który zagra w 1/2 gry już niekoniecznie.
Za rok czy dwa lata od premiery wyjdzie gra, która w 4k z RT ubije naszą kartę i znowu będziemy mieli problem. Wyjdzie na to, że zagramy w 3-4 gry w 4k + RT z rozsądnym fpsem a wydamy kupę siana ;). Za cenę RTX 4090 możemy kupić wszystkie konsole i starczy nam pieniędzy na mnóstwo gier.
Kolejna premiera kart i tak kółko się kręci.Chciałbym zwrócić uwagę na to, że gry AAA z RT to jest mały kawałek tortu. Większość ludzi gra w sieciówki pokroju Fifa, Lol, Cod, Fortnite itp. Dorzucimy do tego też gry indie i wychodzi na to, że takie rzeczy jak RT są jednak dla wąskiego grona osób, ale kłótni zawsze co niemiara ;). Dział marketingu robi swoje, należy im się podwyżka :D.
Do tych rzekomych "90%" na pewno nie należę i wątpię, że jest to taki procent. Jak w AMD będzie RT z rozsądną wydajnością to ok a jak nie to trudno. IMO to nie jest w tym momencie tak ważne jak wielu uważa. Ważne na pewno jest dla producentów, bo mogą przepychać się z konkurencją a ludziom wciskać cyferki.
W tamtym roku ograłem dużo gier na Xbox Series X. W tym roku siedzę i czekam na gry na PS5 xD. Po doświadczeniach z obecną generacją konsol jeszcze jakiś czas temu uważałem, że dla ludzi z pc-tami kupowanie konsol traci sens.
Chodzi o to, że wychodzi coraz mniej ex-ow, w zasadzie tylko Sony je teraz wydaje, ale zaczyna też wchodzić z tymi grami na PC. W gry MS możemy grać na PC a wydaje mi się że oni chcieliby się przenieść całkowicie w chmurę (zamiast konsoli jakiś dongle do TV).
Ale... wchodzi NVidia ze swoją polityką cenową i już nie wiem co sądzić :). MS i Sony powinni całować ich po stopach, bo złożenie PC będzie wymagało coraz więcej pieniędzy.
Najgorsze jest to, że ludzie bezkrytycznie przyjmują to co robi ta firma... i w głos siły portfela klientów raczej nie ma co liczyć. A fanboje są najgorsi - może oni myślą, że firma dba o klientów?
Osobiście kupię AMD i nie patrzę co ma NVidia, bo ewidentnie są odklejeni.
Jeszcze jedno. GOTY pewnie zgarnie nowy God of War, który jest grą na PS4/PS5 co pokaże jak istotne są bajery graficzne :).-
1
-
4
-
-
W tym roku dostaliśmy Steam Decka i jakość grafiki zeszła na drugi plan :).
Swoją drogą chciałem zapytać czy uważacie, że czyste RT to jest przyszłość, bo przecież UE5 wprowadza Lumen.
Może takie prężenie muskułów przez NV nie ma sensu, przecież bez DLSS to i tak jest niegrywalne w 4k. -
2 minuty temu, MroczneWidmo napisał:W rasterze tak ale w RT które tak NVIDIA promuje byłoby lepsze i to za 100 dolarów mniej.
Teraz to może nie ma znaczenia, ale w następnym roku wychodzi taki avatar ktorego bez rt nie odpalisz i tu 7900xt moze wypadac wyjatkowo niekorzystnie.
Tę grę wydaje Ubisoft, więc w takim wypadku nikt jej nie odpali ;).
-
Jestem zawiedziony, że nie wprowadzono jeszcze 7800xt. Mogli być przed nvidia i zgarnąć cały rynek w tej półce cenowej.
Jeżeli zaś chodzi o te wszystkie ficzery to nie dbam o to. Trzeba mieć zasady i nie być dymanym przez marketing xD. Gry z RT nie przekonują mnie. Wydaje mi się, że gra musi być zaprojektowana pod tą technikę a nie tylko dawać możliwość zmiany rendera i później wszystko świeci się jak psu jajca a fanboye krzyczą, że tak wygląda świat za oknem ;).
W pierwszej kolejności liczy się dla mnie to, żeby gra była dobra a później czy jest najlepiej wyglądającą grą na rynku.
Niestety dobrych gier coraz mniej i przy zakupie karty zastanawiam się głównie nad tym jaką kwotę warto mi wydać.-
1
-
1
-
-
1 godzinę temu, m1chal3k napisał:Panowie ogrywam właśnie Hadesa i mam do Was pytanie. Czy za każdym razem muszę walczyć z Furia ? Raz już ja pokonałem ???♂️
W tej grze chodzi o to, żeby przejść ją nie ginąc. Na początku jesteś za słaby, żeby to zrobić, dlatego giniesz, ulepszasz się i idziesz kolejny raz.
Wydaje mi się, że w zależności jaką broń weźmiesz to pojawi się inna Furia.Odpowiadając na pytanie: Tak musisz z nią walczyć za każdym razem.
-
1
-
-
Patrzyłem na nią, ale zarówno ona jak i gigabyte nie obsługują 2560x1440/120 po hdmi a jak mam brać 21:9 to fajnie byłoby mieć taka konfigurację pod xboxa.
-
Dzięki za sugestie.
Naprawdę ciężki wybór :D.
Mam jeszcze jedno pytanie do ultrawide, które też rozważam. Czy któryś jest wstanie wyświetlać obraz 2560x1440@120 po hdmi czy nie ma co na to liczyć? Mógłbym to wykorzystać z xboxem.
Iiyama ma tylko 60Hz, Gigabyte G34WQC 60 po hdmi 120 po dp
Wydaje się, że znalazłem Dell S3422DWG. -
Mam rx480 - miała być w tym roku wymieniona ale nastały złe czasy

Obecnie gram w większości na konsoli zwłaszcza w jakieś większe tytuły jak rdr2 i co tam game pass przyniesie jeżeli mnie zainteresuje.
Na kompie w strategie i stare klasyki xD. Nie gram multi.Nie gram dużo, więc potrafię męczyć jedną grę tygodniami xD.
Nie ukrywam, że chciałbym spróbować czegoś innego niż po prostu kupić drugi taki sam.
Najważniejsze jest, żeby nie było problemów z czytelnością, bo jednak więcej czasu monitor będzie używany do pracy. Stąd pytania o VA, bo z jednej strony chciałbym się przekonać czy obraz jest fajniejszy od ipsa, ale jeżeli występują problemy z wyświetlaniem tekstu to taki panel odpada.
Ultrawide-y kuszą przestrzenią roboczą tylko są trochę droższe. Teraz trafiłem na takie iiyama G-Master GB3466WQSU (VA) i ACER Nitro XV340CK P (IPS).
Dodam, że na swoim 27'' skaluje interfejs na 125%. Na 32'' 4k pewnie nie skalowałbym w ogóle, ale i tak wydaje mi się, że pomimo niższej rozdzielczości na 21:9 będzie więcej przestrzeni w poziomie. Na wysokość więcej mi nie potrzeba.
Przeważnie korzystam z podziału ekranu na 3/4 + 1/4 (w uproszczeniu, bo szerokie okno ma troche mniej). Na 32'' i 21:9 na pewno będzie to bardziej komfortowe (wąskie okno będzie szersze xD). Natomiast na 21:9 powinienem jeszcze uzyskać podobny schemat co teraz ale z jeszcze jednym skrawkiem po lewej co też mogłoby mi się przydać.

Ocena zestawu za 6k
w Zestawy komputerowe
Napisano
Nie lepiej spróbować wziąć rabat na zestaw z 4070TI?
Tą inno3d, tylko trzeba poszukać czy ktoś ja testował. 12GB raczej będzie ok do ultrawide. 3600zl za 6800xt to kupa hajsu już lepiej wziąć używkę z gwarancja.