Skocz do zawartości
azgan

Raytracing w grach - Przyszłość rozwoju gier czy tylko kolejna ciekawostka?

Rekomendowane odpowiedzi

W AC Unity na ultra to nawet RTX3080 ma problem żeby wyciągnąć 120 fps w 1440p. W 4k jeśli dobrze pamiętam łapał spadki poniżej 60 fps. Taka gra i tyle. 

Tylko jaki to ma związek z tematem?

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Ronson naucz się może w normalny sposób prowadzić dyskusję. Jak chcesz, żeby cię traktować poważnie to sam się tak zachowuj.

Ja nie powinienem używać określenia, że wyssałeś sobie coś z palca. Więcej nie będę się w ten sposób zwracał. Dlaczego ty jednak nie napisałeś w normalny sposób swoich racji tylko od razu się przywaliłeś do mnie? Większość z tego co napisałeś w ostatniej odpowiedzi to jest czysta manipulacja. Czy ty byś chciał, żeby ktokolwiek tobie odpowiadał w ten sposób, przeinaczając twoje wcześniejsze odpowiedzi, wyrywając jakieś fragmenty z kontekstu czy po prostu wymyślając a właściwie kłamiąc? Myślę, że nie. Ja na pewno się nie zniżę do takiego poziomu. Przecież ja do ciebie napisałem w normalny sposób. Zadałem ci kilka prostych pytań, które miały ci uświadomić, że się mylisz. Chyba nie przerosła cię próba odpowiedzenia na nie? Musiałeś się uciekać aż do czegoś takiego?

14 godzin temu, Ronson napisał:

- nie macie racji z krytyką parcia w RT, bo wcale rasteryzacji nie brakuje wydajności
-
brakuje, tu masz przykład

W ten sposób to można znaleźć przykład na wszystko. W rasteryzacji nie brakuje wydajności. Ja tak uważam i cały czas podtrzymuję swoje zdanie. Na pewno nie udowodnisz, że jest inaczej, biorąc za przykład RTX 2060, kartę z wiadomego segmentu, już właściwie sprzed dwóch generacji i do tego jedną grę.

14 godzin temu, Ronson napisał:

- ale z DLSS starczy
-
ale DLSS nie jest bezstratny

Ja nie użyłem takich argumentów. Nie wchodziłem też w żadną polemikę, czy DLSS powoduje utratę jakości. Serio czepiasz się o to, że napisałem, że jak brakuje wydajności RTX 2060 w rozdzielczości 2560x1440 to można skorzystać z DLSS. Ja mam RTX 2070, gram właśnie w tej rozdzielczości i sam z niego korzystam. On napisał, żeby oni ogarnęli temat. W większości gier się właśnie ogarnia to w ten sposób, żeby można było grać na słabszej karcie w wyższej rozdzielczości, że implementuje się DLSS i FSR. Więc o co chodzi?

14 godzin temu, Ronson napisał:

- no to.. zobacz. w 1080p jednak daje radę ta karta wydana 4 lata po premierze gry jako mid-end.

Jeszcze raz powtórzę pytanie, jakie ma znaczenie ile lat ma gra?

14 godzin temu, Ronson napisał:

- ale my o 1440p pisaliśmy
- no ale uber! kto gra w uber? Weź se obniż detale,
- ale tam nie ma nawet hairworks załączonego i nawet jeśli to chodzi znacznie lepiej na rozsądzniejszych ustawieniach, to nadal to jest tylko 1440p i celowanie w tylko 60fps.
- no to.. to.. yy..  to jest offtopic! I marudzicie!

Ale zmyślasz i przekręcasz. Ja tylko stwierdziłem fakt, że gra ma o wiele mniejsze wymagania na ustawieniach wysokich. A ja sam gram na ustawieniach Uber w Wiedźmina 3 w rozdzielczości 2560x1440, ale jednak mam kartę o wystarczającej do tego wydajności.

Kiedy już przestaniesz się upierać, że jak trochę starsza gra to musi mieć niskie wymagania, to wtedy może dostrzeżesz, że jest wiele innych gier, które wcale nie mają grafiki na wyższym poziomie a też ich nie uruchomisz w natywnym 2560x1440 w 60 FPS na RTX 2060.

16 godzin temu, Ronson napisał:

Prawie osiem lat po premierze gry, która nie była robiona "na wyrost"

karta z low endu powinna z palcem w porcie HDMI bujać w 60fps w 1440p.

Błędne założenie to i błędny wniosek.

Też kolejna manipulacja. Piszesz o tym, że gra jest osiem lat po premierze ale oceniasz wydajność na karcie sprzed dwóch generacji, która miała premierę prawie cztery lata temu.

A zastanawiałeś się czemu te ustawienia zostały nazwane Uber? Może więc jednak Wiedźmin 3 miał tą grafikę na wyrost?

Ja pierwszy raz grę przechodziłem jak miałem jeszcze GTX 960 i wtedy to mogłem pomarzyć o 60 FPS i wysokich ustawieniach. Czy nikt już tego nie pamięta, jakie wymagania miała ta gra? Pisałem ci żebyś sprawdził, jak działał Wiedźmin 3 na kartach graficznych dostępnych w czasie premiery gry. Dodam jeszcze, że to, że gra jest do tej pory używana do testowania wydajności kart graficznych też o czymś jednak świadczy, tak samo jak to, że gra nadal wyjątkowo dobrze się prezentuje graficznie na tle nowszych gier.

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@kadajo

Cytat

narzekanie na 1% low itd. to takie trochę szukanie na sile problemu

Nie mógłbym się bardziej niezgodzić. Ale to nie temat na dyskusję o tym.

 

 

4 godziny temu, SebastianFM napisał:

@Ronson naucz się może w normalny sposób prowadzić dyskusję. Jak chcesz, żeby cię traktować poważnie to sam się tak zachowuj.

No nie. Najpierw wypowiadasz się w obraźliwym tonie o interlokutorach, a potem pouczasz innych jak mają prowadzić dyskusję? Najpierw wypisujesz jakieś bzdury robiąc nielogiczne fikołki, a jak to wyśmiewam, to mnie nazywasz robieniem z siebie klauna.
Nie traktowałeś mnie ani przez chwilę poważnie, choć ja się starałem.

Cytat

Większość z tego co napisałeś w ostatniej odpowiedzi to jest czysta manipulacja. Czy ty byś chciał, żeby ktokolwiek tobie odpowiadał w ten sposób, przeinaczając twoje wcześniejsze odpowiedzi, wyrywając jakieś fragmenty z kontekstu czy po prostu wymyślając a właściwie kłamiąc?

O popatrz. Jaki przypadek. Nie przyznałem tego co piszesz, że sam przyznałem. Napisałem tylko o tym, że nie potrafię napisać ładnie i zgrabnie, krótko i na temat, a rozpisuję się niezręcznie i niepotrzebnie używam zbyt wielu słów i zdań. Przyznałem, że czytanie tego może się wydać nudne i że dziennikarz czy pisarz ma prawo mi wytykać, że piszę okropnie do bani. I tylko o to chodziło. Czyli zrobiłeś dokładnie to co w zacytowanym tekście wyżej. 
 

Cytat

W ten sposób to można znaleźć przykład na wszystko. W rasteryzacji nie brakuje wydajności. Ja tak uważam i cały czas podtrzymuję swoje zdanie. Na pewno nie udowodnisz, że jest inaczej, biorąc za przykład RTX 2060, kartę z wiadomego segmentu, już właściwie sprzed dwóch generacji i do tego jedną grę.

Zarzucasz, że manipuluję i tak dalej dalej, ale no sorry, zachowujesz się niepoważnie w dyskusji, to na miejscu jest potraktowanie tego z uśmiechem. Kompletnie ignorujesz argumenty drugiej strony, bo ty masz inne zdanie. No OK, ale to jest tylko Twoje zdanie. Moim zdaniem nawet obiektywnie błędniejsze niż moje czy autora przykładu o 2060.
Tu mamy kolejny przykład "na pewno mi nie udowodnisz". Ja nie. Bo ja już wysiadam, serio. Szkoda mi czasu. Podaliśmy Ci tyle przykładów i argumentów, że już to zrobiliśmy - udowodniliśmy ponad wszelką wątpliwość, że wydajności w rasteryzacji będzie brakować jeszcze dekadę w przypadku cudu i ze 2-3 bez niego. Przykład kolegi z 2060 i Wiedźminem jest poprawny. Nie najlepszy, bo oczywistością jest, że się nie gra na pierdołach ustawionych na maxa tam, gdzie kosztuje to sporo a nic nie daje. Ale mimo nieoptymalnego przykładu, był on poprawny i spełnił swoje zadanie. Kolega udowodnił Ci, że się mylisz. 

 

Cytat

Ja nie użyłem takich argumentów. Nie wchodziłem też w żadną polemikę, czy DLSS powoduje utratę jakości.

Nie, ale pisałeś, że można użyć DLSS jakoby to było remedium na brak wydajności. Otóż może Tobie pasuje to co robi DLSS z obrazem, ale dla mnie i dla jakiejś grupy osób, to jest niedopuszczalne. Nie można więc tego użyć jako argumentu, że rasteryzacji starczy. 

Cytat

i FSR. 

Wolałbym grać w 480p niż w 8K z FSR2. To jest jakieś nieporozumienie co ta technologia robi z obrazem. Wychodzi w ruchu kompletna sieczka. Jakby mi sprzedawali 4090 za 50zł ale z wymuszonym włączonym FSR 2 wszędzie, to bym nie kupił takiego badziewia.  Dobra, chyba starczą te dwa przykłady żeby przekazać jak bardzo nienawidzę jakości obrazu po włączeniu tej cud-technologii. 
Fakt, że używasz tego jako opcji mającej według Ciebie znaczenie w dyskusji, świadczy o tym, że nasze poglądy na to są tak biegunowo odrębne od siebie, że się już bardziej nie da. 

Cytat

Jeszcze raz powtórzę pytanie, jakie ma znaczenie ile lat ma gra?

Ma takie, że po ośmiu latach mamy nędzę. PC cehowały się zawsze rozdziałką daleką od konsol. Graliśmy w 384-480p gdy konsole w 240p. Graliśmy w 768-960p gdy konsole w 480p (w sumie to nie P, ale dla uproszczenia). Graliśmy w 1080p gdy konsole w 720p.
Teraz konsole dostały pierwsze gry w natywnym 4K i 60fps na sprzęcie z 2016r.
Gra sprzed 8 lat na sprzęcie sprzed 4 lat wyrabia max w 1080p, czyli rozdziałce w której niektóre gry na PS3 chodziły w 1080p60 w 2006r. 

To jest dobry argument na to, że w tym segmencie brakuje wydajności w rasteryzacji. Brakuje w każdym segmencie. 
Pisałem ile ma tranzystorów 40xx. I do tego zegary sporo w górę. To razem potencjalnie 3-4x lepsza wydajność. Oczywiście nigdy praktyczna nie dobije do wydajności teoretycznej, ale +50-60% przy tym, gdy mamy 2,7x więcej tranzystorów i do tego o kilkadziesiąt procent wyższe zegary, w dodatku w porównaniu do generacji, która już sporo tranzystorów marnuje na RT I AI, to jest nieszczęście dla całej branży.
Karta z ceną 400$+VAT (już pomińmy, że ona nie staniała przez 4 lata prawie wcale, co też nie jest normalne, ale wiadomo, Covid, shortages, kopacze) powinna grę sprzed 4 lat wciągać nosem. W 4K 120fps. Na dobrych ustawieniach, więc powiedzmy, że te 80fps w tym przypadku z durnym uber (choć są ustawienia max, które są poniżej tego co powinno byc nazwane medium, ale to już inny temat, głównie chodzi o cienie, których prawie nie widać, to jest to, co mocno obniża wydajność na uber)

Jak pisałem, to jest nieszczęście. A szczególnie dla tego co najfajniejsze w grach, czyli VR, bo 3D to rewolucja większa niż RT, a VR to rewolucja większa niż RT i 3D razem wzięte. 
Tymczasem wydajność w rastrze potrzebną do 2D i potrzebną BARDZO do VR się olewa. Karty za 500zł kosztują 1500 i nie stanieją, bo mają RT i DLSSy. Karty za 1500zł kosztują 3000, a te za 3000 kosztują 10 000. I nie stanieją bo jak nie gracze, to kupią je ludzie do pracy, do renderingu z RT, do obliczeń itp. 
Jakby karty się do tego nie nadawały to mogłyby kosztować sporo mniej bo nie kanibalizowałyby zysków z tego segmentu (non-gaming). 
 

Cytat

Kiedy już przestaniesz się upierać, że jak trochę starsza gra to musi mieć niskie wymagania, to wtedy może dostrzeżesz, że jest wiele innych gier, które wcale nie mają grafiki na wyższym poziomie a też ich nie uruchomisz w natywnym 2560x1440 w 60 FPS na RTX 2060.

Gram na PC od 1992r. Ustawiam pod maksymalną płynność od jakoś 1994r. 
Jest to gra robiona pod konsole debiutujące w roku 2013, oparte o ultra-low endowy procesor (co niweluje mocno fakt, że ilość geometrii w wersji na PC jest sporo wyższa) i niedrogie, dalekie od high-endu (2013) GPU. To jest nadal karta, którą dziś możemy kupić w sklepie. Za 1800, lub biedawersje w sklepach "firma krzak" za 1500. Są nawet w wielu miejscach jeszcze po 2000 i niejeden laik się na to nadzieje (niestety)
To nie wida technologii i nie cała wina Nvidii, że tak teraz jest, ale to jest jakieś kuriozum. Gra sprzed 8 lat.
Oferujące zaledwie 10-15% mniejszą wydajność 1660s i 1660ti, są/były o 1/3 tańsze. A ja nie sądzę, aby NV wyceniała je uczciwie. Raczej specjalnie tak, żeby kierować ludzi na RTXy, tak jak od zawsze producenci dysków twardych sprzedają dysk X za 300zł i 150% X za 360zł.
To tylko przykład na najniższy segment. 
Kart 1760 nie było (30xx).
Kart 1860 też nie będzie (40xx).
Za chwilę konsola za 500€ będzie oferowała lepsze VR niż karta do PC za te 500€, a gdzie cała reszta i gdzie ta naturalna przepaść jakościowa pomiędzy konsolą a PC? 
Jak zabierzesz Pecetom już wszystko, tak jak teraz zabrano mu 90% zalet, to w roku 2030 obudzisz się w świecie, gdzie nie ma żadnego rynku PC w tym sensie jakim go znamy. Zastąpią go laptopy i jakieś niszowe, absurdalnie drogie zabawki dla snobów, które będzie cała branża gier olewać tak jak olewali robienie gier pod więcej niż 400MB na tekstury w latach 2006-2013, choć karty na PC to miały. Tak jak olewano support dla SLI. Tylko teraz to będzie na dużo większą skalę olewania. PC gaming zamieni się w Windows gaming. Gaming PC będzie oznaczał laptopka z TDP 90-120W, albo i 65W później. Na PC będzie tak samo rozmyte mydło jak w grach na konsole, a zamiast ostrego jak żyleta obrazu w 120fps jakim cieszyli się pececiarze od roku 1999, będzie rozmyty i pokiereszowany bełt, wydalony na ekran przez AI. 
I RT będzie jedną z kul, które rozwalą ten cały pecetowy Zamek w Chmurach. 


Co do zarzutu, że (znowu to robisz!) że czegoś nie wiem i mam się doszkolić - tutaj, że pograć na kartach z tamtych lat. Grałem na 760 i 780tce. Grałem na 980ti (w 3D 2x1080p). Wiem jak ta gra chodzi. Wiem jak reaguje na ustawienia. To, że ją używają do testów to raczej kwestia tego, że jest megapopularna i tak jak kiedyś przez chyba 10 generacji się testowało w Quake 2 i Quake 3, tak tutaj też. Po prostu ludzie są ciekawi. Ostatnio wkraczamy z procami i kartami w erę 2160p120, więc to było dla widza interesujące. A teraz będzie interesujące kiedy do tego doskoczą (w końcu) sprzęty mid-end i high-end. 

Jeszcze raz, dla perspektywy:

8800GT 512MB =  700mln tranzystorów. 16 ROP. 64 TMU (56, ale nie ma danych ile tranzystorów aktywnych było w GT)
4090: 70 miliardów tranzystorów
rezultat:
1600 ROP? Nie. 192
 6400 TMU? Nie. 568

I ja wiem, to nie skaluje się proporcjonalnie, a 1000ROP nic nie da jak nie poprawimy pamięci, no ale jeśli cały cache w 4090 to zaledwie 5 miliardów tranzystorów, to można by było to dać w raster i uzyskać kopa jak należy, a nie RT i dręczyć ludzi badziewiem, które w ruchu albo robi zupę z obrazu,  albo sieczkę, albo wyłazi, że mamy jednak te 16x za mało pikseli nawet do 2D, a 160x za mało do VR. 
Chciałbym zauważyć, że RT nie jest tutaj jedynym winowajcą. Ale jest niczym cysterna benzyny dolewana do pożaru zamiast gaszenia. I tak sporo mocy marnujemy od dawna w imię lepszego światła, realizmu i jakości obrazu statycznego.
A potem człowiek odpala coś na konsolce 80Watt, Decku,  Switchu  z 10-25W, czy na Queście w VR  z TDP pewnie 5-10Watt i się zastanawia "skoro to tak wygląda, to co do cholery poszło nie tak z kartami do PC, które biorą 400W?!"

Kiedyś NV zrobiła Fermi 480. I napakowała tam zbędnego graczom balastu. I potem wyszła 560ti, która tego balastu nie miała. Wydajność skoczyła, koszt spadł, pobór prądu poleciał na łeb na szyję też, przy okazji. Znacznie więcej niżby można tłumaczyć innym procesem produkcji.
Teraz niestety nikt odchudzonej karty nie zrobił, więc nam trudno pokazać czarno na białym różnicę i to, co tracimy przez parcie na RT. Ale zostaje logika, doświadczenie, i ekstrapolacja z tych danych, które mamy.

Edytowane przez Ronson

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, Ronson napisał:

No nie. Najpierw wypowiadasz się w obraźliwym tonie o interlokutorach, a potem pouczasz innych jak mają prowadzić dyskusję? Najpierw wypisujesz jakieś bzdury robiąc nielogiczne fikołki, a jak to wyśmiewam, to mnie nazywasz robieniem z siebie klauna.
Nie traktowałeś mnie ani przez chwilę poważnie, choć ja się starałem.

Co ty mi znowu wmawiasz. W którym miejscu napisałem o tobie czy kimś innym obraźliwie? To tobie już ktoś wcześniej zwracał uwagę, jak się do mnie odnosisz. Ja nie napisałem żadnej bzdury, nie robię żadnych nielogicznych fikołków (cokolwiek to znaczy). Ty lubisz sobie wymyślać takie rzeczy? Ja przecież nie będę cały czas dementował twoich nieprawdziwych stwierdzeń.

3 godziny temu, Ronson napisał:

O popatrz. Jaki przypadek. Nie przyznałem tego co piszesz, że sam przyznałem. Napisałem tylko o tym, że nie potrafię napisać ładnie i zgrabnie, krótko i na temat, a rozpisuję się niezręcznie i niepotrzebnie używam zbyt wielu słów i zdań. Przyznałem, że czytanie tego może się wydać nudne i że dziennikarz czy pisarz ma prawo mi wytykać, że piszę okropnie do bani. I tylko o to chodziło. Czyli zrobiłeś dokładnie to co w zacytowanym tekście wyżej. 

O ścianie tekstu sam napisałeś. Do kiepskiego ratio do treści też się przyznałeś. Ja to określiłem jako lanie wody. Przykłady z tyłka dawałeś więc to też prawda.

3 godziny temu, Ronson napisał:

Zarzucasz, że manipuluję i tak dalej dalej, ale no sorry, zachowujesz się niepoważnie w dyskusji, to na miejscu jest potraktowanie tego z uśmiechem. Kompletnie ignorujesz argumenty drugiej strony, bo ty masz inne zdanie. No OK, ale to jest tylko Twoje zdanie. Moim zdaniem nawet obiektywnie błędniejsze niż moje czy autora przykładu o 2060.
Tu mamy kolejny przykład "na pewno mi nie udowodnisz". Ja nie. Bo ja już wysiadam, serio. Szkoda mi czasu. Podaliśmy Ci tyle przykładów i argumentów, że już to zrobiliśmy - udowodniliśmy ponad wszelką wątpliwość, że wydajności w rasteryzacji będzie brakować jeszcze dekadę w przypadku cudu i ze 2-3 bez niego. Przykład kolegi z 2060 i Wiedźminem jest poprawny. Nie najlepszy, bo oczywistością jest, że się nie gra na pierdołach ustawionych na maxa tam, gdzie kosztuje to sporo a nic nie daje. Ale mimo nieoptymalnego przykładu, był on poprawny i spełnił swoje zadanie. Kolega udowodnił Ci, że się mylisz

Ja ignoruję argumenty? Ciekawe. W poprzedniej odpowiedzi wcale się nie odniosłeś do moich argumentów. W tej tak samo to ty pominąłeś moje.

Możesz zakończyć w dowolnym momencie, ja cię do niczego nie zmuszam, łaski nie robisz. Nie kłam tylko, że udowodniliście coś ponad wszelką wątpliwość. Napisałem wszystko w poprzedniej odpowiedzi i nie mam zamiaru powtarzać.

Jak sobie dobraliście przykład tak, żeby pasował do postawionej tezy, to nie dziwne, że spełnił zadanie. Tylko nie ma żadnej wartości i nic nie udowadnia ten jeden przykład.

Możesz i 100 razy powtórzyć, że ty czy on coś udowodniliście ale to nadal nic nie zmieni.

DLSS pominę.

3 godziny temu, Ronson napisał:

Ma takie, że po ośmiu latach mamy nędzę. PC cehowały się zawsze rozdziałką daleką od konsol. Graliśmy w 384-480p gdy konsole w 240p. Graliśmy w 768-960p gdy konsole w 480p (w sumie to nie P, ale dla uproszczenia). Graliśmy w 1080p gdy konsole w 720p.
Teraz konsole dostały pierwsze gry w natywnym 4K i 60fps na sprzęcie z 2016r.
Gra sprzed 8 lat na sprzęcie sprzed 4 lat wyrabia max w 1080p, czyli rozdziałce w której niektóre gry na PS3 chodziły w 1080p60 w 2006r. 

To jest dobry argument na to, że w tym segmencie brakuje wydajności w rasteryzacji. Brakuje w każdym segmencie. 
Pisałem ile ma tranzystorów 40xx. I do tego zegary sporo w górę. To razem potencjalnie 3-4x lepsza wydajność. Oczywiście nigdy praktyczna nie dobije do wydajności teoretycznej, ale +50-60% przy tym, gdy mamy 2,7x więcej tranzystorów i do tego o kilkadziesiąt procent wyższe zegary, w dodatku w porównaniu do generacji, która już sporo tranzystorów marnuje na RT I AI, to jest nieszczęście dla całej branży.
Karta z ceną 400$+VAT (już pomińmy, że ona nie staniała przez 4 lata prawie wcale, co też nie jest normalne, ale wiadomo, Covid, shortages, kopacze) powinna grę sprzed 4 lat wciągać nosem. W 4K 120fps. Na dobrych ustawieniach, więc powiedzmy, że te 80fps w tym przypadku z durnym uber (choć są ustawienia max, które są poniżej tego co powinno byc nazwane medium, ale to już inny temat, głównie chodzi o cienie, których prawie nie widać, to jest to, co mocno obniża wydajność na uber)

Tu już się niepotrzebnie rozpisujesz. Znowu powtarzasz to samo. Znowu jakieś bezsensowne powinno, i uzasadnianie tego, równie bezsensowne, ceną. Ustawienia Uber to Uber. Są wyższe niż wysokie. Jakby się nazywały maksymalne to nic by to nie zmieniło.

VR to już kolejna zmiana tematu, pominę.

Ceny kart to też dyskusja na inny temat, pominę.

Konsole też pominę.

Twoje przewidywania dotyczące przyszłości PC tak samo mogę pominąć.

3 godziny temu, Ronson napisał:

Co do zarzutu, że (znowu to robisz!) że czegoś nie wiem i mam się doszkolić - tutaj, że pograć na kartach z tamtych lat.

Wcześniej ci tak napisałem, ponieważ twierdziłeś, że gry nie korzystają z realistycznego oświetlenia.

Teraz wcale nie kazałem ci grać na starych kartach graficznych. Napisałem ci tylko, żebyś przypomniał sobie jaką wydajność oferowały karty graficzne w momencie premiery Wiedźmina 3. Dlaczego nie odniosłeś się do wcześniejszego stwierdzenia, że Wiedźmin 3 nie miał grafiki na wyrost.

3 godziny temu, Ronson napisał:

Grałem na 760 i 780tce. Grałem na 980ti (w 3D 2x1080p). Wiem jak ta gra chodzi. Wiem jak reaguje na ustawienia. To, że ją używają do testów to raczej kwestia tego, że jest megapopularna i tak jak kiedyś przez chyba 10 generacji się testowało w Quake 2 i Quake 3, tak tutaj też. Po prostu ludzie są ciekawi. Ostatnio wkraczamy z procami i kartami w erę 2160p120, więc to było dla widza interesujące. A teraz będzie interesujące kiedy do tego doskoczą (w końcu) sprzęty mid-end i high-end. 

Nie masz racji, że Wiedźmin 3 jest używany to testowania kart graficznych ponieważ gra jest popularna czy, że ludzie są ciekawi. Gdyby ta gra nie obciążała w wystarczającym stopniu najmocniejszych GPU, to wyniki wydajności byłyby wtedy spłaszczone i nie miałoby sensu jej używanie do testów.

Podsumowując. W całej twojej odpowiedzi, znowu zbyt długiej i poruszającej zbyt wiele dodatkowych tematów, nie odniosłeś się do większości moich uwag i pytań, tego co było najistotniejsze. Zamiast tego wolałeś mi kolejny raz wmawiać, tym razem, że kolega coś mi udowodnił. Przykro mi bardzo. Nic nie udowodnił. Twój i kolegi argument o RTX 2060 i wydajności Wiedźmina 3 okazał się inwalidą.

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, SebastianFM napisał:

Co ty mi znowu wmawiasz. W którym miejscu napisałem o tobie czy kimś innym obraźliwie? To tobie już ktoś wcześniej zwracał uwagę, jak się do mnie odnosisz. Ja nie napisałem żadnej bzdury, nie robię żadnych nielogicznych fikołków (cokolwiek to znaczy). Ty lubisz sobie wymyślać takie rzeczy? Ja przecież nie będę cały czas dementował twoich nieprawdziwych stwierdzeń.


Ile razy zignorujesz to co niewygodne? PIsałem trzy razy: wypisujesz dyrdymały typu "doucz się" czy "marudzicie" lub "jęczenie". Jest to pogardliwe i nieprzyjemne. To jest brak szacunku do rozmówcy i to Ty od tego zacząłeś.

O ścianie tekstu sam napisałeś. Do kiepskiego ratio do treści też się przyznałeś. Ja to określiłem jako lanie wody. Przykłady z tyłka dawałeś więc to też prawda.

Tak, ale pisanie rozwlekle nie znaczy "lanie wody". Lanie wody to pisanie rozwlekle bez żadnych treści, jak się nie ma nic do napisania/powiedzenia. Wiem, bo w liceum nie jeden raz ta taktyka mnie uratowała przed pałą, bo nie czytałem danej książki wcale, ale lanie wody mnie ratowało :D
Nie przyznawałem się też nigdzie to przykładów z tyłka. Bo takich nie dawałem. (tyłka też nie)


 

Ja ignoruję argumenty? Ciekawe. W poprzedniej odpowiedzi wcale się nie odniosłeś do moich argumentów. W tej tak samo to ty pominąłeś moje.

Mam się odnosić do każdego zdania? Odpisywałem głównie na to, z czym się nie zgadzam najmocniej. No dobra. Napisz do czego mam się odnieść konkretnie. Od razu uprzedzam, że z niczym co pominąłem się nie zgadzam i nie widzę w tym przegranej w dyskusji, więc się nie łudź, że ominąłem bo mi nie pasowało do narracji.
 

 

DLSS pominę.

Co to ja miałem. Aha. "W poprzedniej odpowiedzi wcale się nie odniosłeś do moich argumentów. W tej tak samo to ty pominąłeś moje."

Tu już się niepotrzebnie rozpisujesz. Znowu powtarzasz to samo. Znowu jakieś bezsensowne powinno, i uzasadnianie tego, równie bezsensowne, ceną. Ustawienia Uber to Uber. Są wyższe niż wysokie. Jakby się nazywały maksymalne to nic by to nie zmieniło.

Bezsensowne to jest wg. Ciebie. No to idźmy dalej, bo czemu nie? Golf mi na max ustawieniach na 386SX strasznie wolno chodził. To dzisiaj też mógłby słabo chodzić, bo ustawienia były max? Gdzie w tym logika? Przecież to jest ignorowanie argumentu poprzez uznanie "nie podoba mi się, więc go ignoruję, ale to nie jest ignorowanie, bo nie ma co ignorować, skoro argument jest głupi". To są fikołki o których wspomniałem. 
Uber-struber. Rok 2014 vs. 2022. Bo karta low end po ośmiu latach to owszem, POWINNA dawać radę z tym 1440p w uber w gierce, która nie miała grafy "na wyrost". I owszem, "powinna" jest na miejscu. NIe jest jęczeniem, że "kiedyś to było a teraz to nie ma czasów". Jest argumentem o tym, że zakłócona została normalność, co działa na szkodę graczy i całej branży, bo niszczy zainteresowania większej grupy ludzi. PC do gier (tylko do gier! nie mówię o gry+praca) wybierało sporo osób, aby mieć więcej niż konsole. Dziś nawet Call of Duty ma support dla 120Hz i chyba też sterowania myszką na konsolach.Jak karty poniżej 6000zł będą wymagały czekania 8 lat aby ogarnąć te 60 czy 120fps, to se konsolowiec w tym czasie kupi nową generację i odpali patcha pod nextgena  lub remaster. Chciałbyś, żeby ludzie z PS6 dostali 10% lepszą wydajność, 20GB RAMu zamiast 16, ale za to audiofilski system dźwięku, bo akurat tak zadycowali jacyś ludzie, którzy akurat tak się złożyło bardziej niż gameplayem interesują się dźwiękiem? To przerysowanie, ale tak się dzieje z RT. To jest coś za coś, a nie tylko cud-wspaniała technologia, która musi się rozwijać naszym kosztem. Nie jest cud-technologią. Nie jest nawet czymś bardzo fajnym dla wszystkich tych, którym superrealizm w grach nie jest do niczego potzrebny. Nie jest za darmo. Ma ogromne negatywne strony i nie musimy się na to godzić "bo zawsze od czegoś trzeba zacząć" i że "to jedyna droga postępu". Juz pisałem trzy razy. RT jest dla fanatyków realistycznego światła. Wbrew temu co się niektórym wydaje, nie każdy ma fioła na punkcie tego świetlnego realizmu. Rozwijać to się będzie tak samo i bez gier, bo UE 5 już zaczyna być używany do filmów a grafikom się real-time RT bardzo przyda. Do poglądu i nawet do renderowania wstępnego, takiego z np. minutą czy 10 na klatkę. Bo bez tego musieliby czekać wielokrotnie dłużej, a procesory mają dopiero 16 rdzeni w mainstreamie. 

 

VR to już kolejna zmiana tematu, pominę.

Jasne. Po co. To najważniejsze i najfajniejsze co mamy przed sobą w grach. Ale pomiń. Pomiń obraz w ruchu wpływający na nie tylko doznania wizualne, ale i na to jak bawi niejeden typ gameplayu. Pomiń interakcję w grach. Pomiń problem pop-inu. Pomiń problem ze scenami, gdzie RT się tak nie nadaje, że nawet na prezentacjach Nvidii i silników graficznych sugerują developerom jakich scen i lokacji (oraz pór dnia) unikać, żeby RT się nie wywaliło na cyce. 
Pomiń zalety grania z większym FOV (nawet w 2D, bo 8K pozwoli pograć na TV 70" z bliska tam, gdzie upscalowane 4K już będzie wyglądać do bani i sugerować odsunięcie się od ekranu. Pomiń nadchodzącą rewolucję wyświetlaczy noszonych. 
Popomijaj wszystko i wtedy zostanie RT jako jedyna droga rozwoju. 


 

Ceny kart to też dyskusja na inny temat, pominę.

RT wpływa na ceny. Ceny wpływają na kształt całego rynku PC. Wazna kwestia nawet dla kogoś kogo stać na  4090 za tygodniówkę

Konsole też pominę.

Jak wyżej. Jak wszyscy przesiądą się na konsole, to będziesz żebrał do developera żeby chociaż ustawienia ponad konsolowe dodał do gier. A pomarzyć będziesz mógł o  porządnych menu czy opcjach na.. no niech będzie coś co byś chciał.. na większą ilość promieni w grze opartej o RT. Tak jak wszysy olali 3D Vision jak okazało się to niszowe i tak jak olali w ostatnich latach PC VR z tego samego powodu. Kupisz se takiego 8090Ti za 20000 i będziesz mógł sobie pooglądać benchmarki. 
 

Wcześniej ci tak napisałem, ponieważ twierdziłeś, że gry nie korzystają z realistycznego oświetlenia.


Gdzie?

Pisałem, że nie chcę aby korzystały. Że nawet wolę gdy tego nie robią w wielu przypadkach. Że nie muszą. Ale nie że nie korzystają. Przecież nie jestem ślepy i widzę co się dzieje. Przez ten realizm w ogóle nie mam ochoty zmieniać karty, choć zawsze to robiłem szybciej niż powinienem, bo po prostu bawiło mnie podziwianie postępu i ładnych lokacji, światów itd.
Teraz jest realizm w grach. Lepszy mam za oknem. Leci rekord niezmieniania karty. Do VR byłby sens. Do tych gierek teraz, to na palcach jednej ręki wyliczę te, które naprawdę fajnie wyglądają. Fajnie, a nie realistycznie, choć może być i tak - MS FS 2020 wygląda realistycznie, ale mimo to ma ładne widoczki. Wiedźmin 4 będzie w moich oczach wyglądał gorzej niż pierwszy trailer Wiedźmina pokazywany jak jeszcze to robili pod PC, na E3. Ale przecież widzę i wiem, że świat idzie w to realistyczne oświetlenie czy mi się to podoba czy nie. NIGDY nie pisałem, że gry nie korzystają z tego realistycznego oświetlenia. Korzystają, w sensie użycia techniki. Wiele jednak korzysta z techniki, ale bez korzyści dla wyglądu czy dla gracza, a wręcz ze stratą. W tym sensie to OK, w sensie "nie zyskuje na tym". 


 

Teraz wcale nie kazałem ci grać na starych kartach graficznych. Napisałem ci tylko, żebyś przypomniał sobie jaką wydajność oferowały karty graficzne w momencie premiery Wiedźmina 3. Dlaczego nie odniosłeś się do wcześniejszego stwierdzenia, że Wiedźmin 3 nie miał grafiki na wyrost.

Sugerujesz, że nie wiem, to mam się doszkolić. Ja Ci odpisałem, że nie potrzebuję Twoich nauk, bo dobrze wiem jak ta gra chodzi. Pisałem na czym grałem, bo pisałeś, że nie wiem/wiemy jak gra chodziła na sprzęcie dostępnym w dniu premiery (no akurat to premiera była na 5 miesięcy przed nową generacją, czyli 980ti zwaną w 2015r. "Titanem") no to dlatego Ci napisałem na czym grałem. 

Do czego mam się odnieść w temacie grafiki W3 na wyrost? Miał pierdoły na shaderach na ustawieniach na max "na wyrost" w sensie, że guzik to dawało a ubijało wydajność. Nie miał natomiast nawet na ustawieniach MAX ustawień jakie by pomogły zbliżyć się do wyglądu z niesławnego trailera - zasięg rysowania geometrii. Nawet w modach było to ograniczone. Czy potem łaskawie pozwolili dać "ile się chce" to nie wiem, już nie śledziłem. Inna sprawa, że silnik był tak zrobiony, że zabijało to proce, ale to już inny temat.

 

Nie masz racji, że Wiedźmin 3 jest używany to testowania kart graficznych ponieważ gra jest popularna czy, że ludzie są ciekawi. Gdyby ta gra nie obciążała w wystarczającym stopniu najmocniejszych GPU, to wyniki wydajności byłyby wtedy spłaszczone i nie miałoby sensu jej używanie do testów.

Oczywiście, że w przypadku "sufitu" by trzeba dostosować ustawienia. Jasne, że jakby się wypłaszczało to taki test nie miałby sensu, ale to nie jest jakaś wyjątkowa gra. Było ich całkiem sporo, a to, że nadal nie każda karta dźwiga to w max ustawieniach w 2160p120 nie jest argumentem, że gra była taka ciężka, a argumentem, że obecny stan wydajnośći w każdym segmencie cenowym jest do bani i tyle.

 

Podsumowując. W całej twojej odpowiedzi, znowu zbyt długiej i poruszającej zbyt wiele dodatkowych tematów, nie odniosłeś się do większości moich uwag i pytań, tego co było najistotniejsze. Zamiast tego wolałeś mi kolejny raz wmawiać, tym razem, że kolega coś mi udowodnił. Przykro mi bardzo. Nic nie udowodnił. Twój i kolegi argument o RTX 2060 i wydajności Wiedźmina 3 okazał się inwalidą.

No i jak mam się odnosić do każdego zdania to co ja mam napisać tutaj odnośnie tego akapitu? Że kompletnie się z tym nie zgadzam? Po co?

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak to jest że włączenie DLSS zmniejsza znacznie zapotrzebowanie karty na W? 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak lecisz bez limitu klatek(przy założeniu braku wąskiego gardła od strony CPU)to wpływa w niewielkim stopniu na spadek poboru mocy z racji renderowania w niższej rozdzielczości.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Ronson jak wkleiłem tą twoją ostatnią odpowiedź do Worda to mi wyszły 3 strony! A ty mi jeszcze zarzucasz, że nie odniosłem się do wszystkiego z poprzedniej. Ja celowo wymieniłem rzeczy, które pominąłem.

2 godziny temu, Ronson napisał:

Co to ja miałem. Aha.

Tak, nie będę zmieniał tematu na rozważania o jakości DLSS. Dyskusja dotyczyła waszej tezy, że wydajność kart graficznych w rasteryzacji jest niewystarczająca.

2 godziny temu, Ronson napisał:

Bezsensowne to jest wg. Ciebie. No to idźmy dalej, bo czemu nie? Golf mi na max ustawieniach na 386SX strasznie wolno chodził. To dzisiaj też mógłby słabo chodzić, bo ustawienia były max? Gdzie w tym logika? Przecież to jest ignorowanie argumentu poprzez uznanie "nie podoba mi się, więc go ignoruję, ale to nie jest ignorowanie, bo nie ma co ignorować, skoro argument jest głupi". To są fikołki o których wspomniałem. 
Uber-struber. Rok 2014 vs. 2022. Bo karta low end po ośmiu latach to owszem, POWINNA dawać radę z tym 1440p w uber w gierce, która nie miała grafy "na wyrost". I owszem, "powinna" jest na miejscu. NIe jest jęczeniem, że "kiedyś to było a teraz to nie ma czasów". Jest argumentem o tym, że zakłócona została normalność, co działa na szkodę graczy i całej branży, bo niszczy zainteresowania większej grupy ludzi. PC do gier (tylko do gier! nie mówię o gry+praca) wybierało sporo osób, aby mieć więcej niż konsole. Dziś nawet Call of Duty ma support dla 120Hz i chyba też sterowania myszką na konsolach.Jak karty poniżej 6000zł będą wymagały czekania 8 lat aby ogarnąć te 60 czy 120fps, to se konsolowiec w tym czasie kupi nową generację i odpali patcha pod nextgena  lub remaster. Chciałbyś, żeby ludzie z PS6 dostali 10% lepszą wydajność, 20GB RAMu zamiast 16, ale za to audiofilski system dźwięku, bo akurat tak zadycowali jacyś ludzie, którzy akurat tak się złożyło bardziej niż gameplayem interesują się dźwiękiem? To przerysowanie, ale tak się dzieje z RT. To jest coś za coś, a nie tylko cud-wspaniała technologia, która musi się rozwijać naszym kosztem. Nie jest cud-technologią. Nie jest nawet czymś bardzo fajnym dla wszystkich tych, którym superrealizm w grach nie jest do niczego potzrebny. Nie jest za darmo. Ma ogromne negatywne strony i nie musimy się na to godzić "bo zawsze od czegoś trzeba zacząć" i że "to jedyna droga postępu". Juz pisałem trzy razy. RT jest dla fanatyków realistycznego światła. Wbrew temu co się niektórym wydaje, nie każdy ma fioła na punkcie tego świetlnego realizmu. Rozwijać to się będzie tak samo i bez gier, bo UE 5 już zaczyna być używany do filmów a grafikom się real-time RT bardzo przyda. Do poglądu i nawet do renderowania wstępnego, takiego z np. minutą czy 10 na klatkę. Bo bez tego musieliby czekać wielokrotnie dłużej, a procesory mają dopiero 16 rdzeni w mainstreamie. 

Znowu się rozpisujesz niepotrzebnie a ja nie odpowiem na wszystko z tego akapitu, ponieważ moja odpowiedź zaraz będzie 2 razy dłuższa od twojej.

Ja nie ignoruję żadnych argumentów. Gdzie nie widzisz logiki w mojej wypowiedzi? Po co od razu jakiś przykład z 386SX? Logiki to nie ma jedynie w tym, że patrzycie na wyniki na ustawieniach Uber dla RTX 2060 w rozdzielczości 2560x1440. Poniżej zresztą jest cytat twojego stwierdzenia, że te ustawienia i tak nic nie dają.

Ja cię nie przekonam, że grafika w Wiedźmin 3 była na wyrost w momencie premiery. Ja podałem swoje argumenty. Do ciebie one nie trafiają to trudno. Nie ciągnijmy tego dalej.

2 godziny temu, Ronson napisał:

Jasne. Po co. To najważniejsze i najfajniejsze co mamy przed sobą w grach. Ale pomiń. Pomiń obraz w ruchu wpływający na nie tylko doznania wizualne, ale i na to jak bawi niejeden typ gameplayu. Pomiń interakcję w grach. Pomiń problem pop-inu. Pomiń problem ze scenami, gdzie RT się tak nie nadaje, że nawet na prezentacjach Nvidii i silników graficznych sugerują developerom jakich scen i lokacji (oraz pór dnia) unikać, żeby RT się nie wywaliło na cyce. 
Pomiń zalety grania z większym FOV (nawet w 2D, bo 8K pozwoli pograć na TV 70" z bliska tam, gdzie upscalowane 4K już będzie wyglądać do bani i sugerować odsunięcie się od ekranu. Pomiń nadchodzącą rewolucję wyświetlaczy noszonych. 
Popomijaj wszystko i wtedy zostanie RT jako jedyna droga rozwoju. 

To są zupełnie osobne tematy do dyskusji. A to, co pogrubiłem to znowu jakieś twoje dziwne twierdzenie.

2 godziny temu, Ronson napisał:

RT wpływa na ceny. Ceny wpływają na kształt całego rynku PC. Wazna kwestia nawet dla kogoś kogo stać na  4090 za tygodniówkę

Ty używałeś ceny jako argumentu w dyskusji zupełnie na inny temat. Przypominam, że rozmawialiśmy zupełnie o czymś innym niż ceny RTX'ów.

2 godziny temu, Ronson napisał:

Jak wyżej. Jak wszyscy przesiądą się na konsole, to będziesz żebrał do developera żeby chociaż ustawienia ponad konsolowe dodał do gier. A pomarzyć będziesz mógł o  porządnych menu czy opcjach na.. no niech będzie coś co byś chciał.. na większą ilość promieni w grze opartej o RT. Tak jak wszysy olali 3D Vision jak okazało się to niszowe i tak jak olali w ostatnich latach PC VR z tego samego powodu. Kupisz se takiego 8090Ti za 20000 i będziesz mógł sobie pooglądać benchmarki. 

To jest jakaś twoja czarna wizja która się nie sprawdzi. Jak na razie wygląda to zupełnie inaczej i nic nie wskazuje, żeby miało się zmienić.

2 godziny temu, Ronson napisał:

Pisałem, że nie chcę aby korzystały. Że nawet wolę gdy tego nie robią w wielu przypadkach. Że nie muszą. Ale nie że nie korzystają. Przecież nie jestem ślepy i widzę co się dzieje. Przez ten realizm w ogóle nie mam ochoty zmieniać karty, choć zawsze to robiłem szybciej niż powinienem, bo po prostu bawiło mnie podziwianie postępu i ładnych lokacji, światów itd.
Teraz jest realizm w grach. Lepszy mam za oknem. Leci rekord niezmieniania karty. Do VR byłby sens. Do tych gierek teraz, to na palcach jednej ręki wyliczę te, które naprawdę fajnie wyglądają. Fajnie, a nie realistycznie, choć może być i tak - MS FS 2020 wygląda realistycznie, ale mimo to ma ładne widoczki. Wiedźmin 4 będzie w moich oczach wyglądał gorzej niż pierwszy trailer Wiedźmina pokazywany jak jeszcze to robili pod PC, na E3. Ale przecież widzę i wiem, że świat idzie w to realistyczne oświetlenie czy mi się to podoba czy nie. NIGDY nie pisałem, że gry nie korzystają z tego realistycznego oświetlenia. Korzystają, w sensie użycia techniki. Wiele jednak korzysta z techniki, ale bez korzyści dla wyglądu czy dla gracza, a wręcz ze stratą. W tym sensie to OK, w sensie "nie zyskuje na tym". 

Przecież w Wiedźminie 3 też jest realistyczna grafika. To ty byś chciał, żeby wszystkie gry miały grafikę w stylu np. Fortnite?

2 godziny temu, Ronson napisał:

Do czego mam się odnieść w temacie grafiki W3 na wyrost? Miał pierdoły na shaderach na ustawieniach na max "na wyrost" w sensie, że guzik to dawało a ubijało wydajność. Nie miał natomiast nawet na ustawieniach MAX ustawień jakie by pomogły zbliżyć się do wyglądu z niesławnego trailera - zasięg rysowania geometrii. Nawet w modach było to ograniczone. Czy potem łaskawie pozwolili dać "ile się chce" to nie wiem, już nie śledziłem. Inna sprawa, że silnik był tak zrobiony, że zabijało to proce, ale to już inny temat.

Zauważ, że dyskusja zaczęła się właśnie od tego, że @Kynareth podał wyniki na ustawieniach Uber i na tej podstawie ocenił wydajność RTX 2060 w rozdzielczości 2560x1440. Skoro to nic nie dawało, to tym bardziej wydajność tej karty, którą ty sam nazwałeś low-end, w tej rozdzielczości powinna być oceniana na rozsądnych, dopasowanych do możliwości ustawieniach. 

Ustawienia Uber zwiększaja m. in. szczegółowość, zasięg roślinności i to też ma duży wpływ na wydajność.

2 godziny temu, Ronson napisał:

Oczywiście, że w przypadku "sufitu" by trzeba dostosować ustawienia. Jasne, że jakby się wypłaszczało to taki test nie miałby sensu, ale to nie jest jakaś wyjątkowa gra. Było ich całkiem sporo, a to, że nadal nie każda karta dźwiga to w max ustawieniach w 2160p120 nie jest argumentem, że gra była taka ciężka, a argumentem, że obecny stan wydajnośći w każdym segmencie cenowym jest do bani i tyle.

Nie mogę się z tobą zgodzić. Przypomnę, że wcześniej argumentowałeś, że po prostu gra jest popularna a ludzie są ciekawi. To jakie inne gry sprzed tylu lat mogłyby być użyte do obciążenia w pełni najnowszych i najmocniejszych GPU?

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, sideband napisał:

Jak lecisz bez limitu klatek(przy założeniu braku wąskiego gardła od strony CPU)to wpływa w niewielkim stopniu na spadek poboru mocy z racji renderowania w niższej rozdzielczości.

 

Bez limitu klatek, w Control włączenie DLSS zbija mi pobór na karcie o ~40W. Klatek dodaje ~30. Chyba wąskim gardłem nie jest mój procesor. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Albo winny jest procesor albo silnik gry. A karta faktycznie idzie na 100% z DLSS ? Sprawdzałeś to ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Porównanie jak najnowsze wtedy Assassin's Creedy działały na Radeonie 4870 z 2008 oraz 3060 Ti z 2020, który jest tamtego odpowiednikiem cenowym. W 2008 było 38 fps w 2560x1600, a w 2020 było 61 fps w 2560x1440, obie gry na Ultra. Biorąc pod uwagę nieco wyższą rozdzielczość w pierwszym przypadku, to ten 60% wyższy framerate nie jest imponujący. A monitory 1440p są dziś o wiele tańsze niż monitory 1600p były w 2008. Więc nie zgodzę się, że mamy w pełni wystarczającą wydajność w rasteryzacji. AC Valhalla nie ma też w ogóle ray-tracingu. Przypomnę jak Nvidia dudniła o VR w 2016, a potem całkowicie przerzucili się na RT i VR kompletnie olali, podczas gdy VR to całkowita zmiana interakcji i doświadczenia z grą, a nie tylko inny sposób oświetlenia.

17397.png

index.php?ct=articles&action=file&id=670

Poza tym polecam sprawdzić tabelę, którą sporządziłem dla laptopowych XX60 Nvidii: 

Cofnęli się w gigapikselach i gigateksturach, by podnieść wydajność RT i DLSS, nie pytając się, czy graczy faktycznie tego chcą.

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gry w kwestii rasteryzacji się praktycznie zatrzymały. I co się dziwić jak nagle duża cześć mocy GPU idzie w efekty RT.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, kadajo napisał:

Gry w kwestii rasteryzacji się praktycznie zatrzymały. I co się dziwić jak nagle duża cześć mocy GPU idzie w efekty RT.

I to jest jeden z powodów, dla których ja - jako fan RT! -  mówię STOP.
RT - brawo - jako ficzer, ale nie kosztem rasteryzacji, a tu niestety jest d00p00nia w progressie od długiego czasu. :(

  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja tam nie wiem, za malo siedze w renderingu wby wiedziec jak ominac rasteryazacje a jedoczesnie stworzyc obiekty lepszej jaksoci i detalach, zawsze rozumialem ze to kwestia "siatki".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 godzin temu, SebastianFM napisał:

@Ronson jak wkleiłem tą twoją ostatnią odpowiedź do Worda to mi wyszły 3 strony!
Wplotłem swoje odpowiedzi do bloku z cytatem. Połowa to "Twoja wina" ;)
 

Tak, nie będę zmieniał tematu na rozważania o jakości DLSS. Dyskusja dotyczyła waszej tezy, że wydajność kart graficznych w rasteryzacji jest niewystarczająca.

Pisałem, że użyłeś tego DLSSa jako powód, dla którego uważasz, że rastera starczy. No ale OK, rozumiem że chodzi o dyskusję o DLSS jako takim. OK.

Znowu się rozpisujesz niepotrzebnie a ja nie odpowiem na wszystko z tego akapitu, ponieważ moja odpowiedź zaraz będzie 2 razy dłuższa od twojej.

Ja nie ignoruję żadnych argumentów. Gdzie nie widzisz logiki w mojej wypowiedzi? Po co od razu jakiś przykład z 386SX? Logiki to nie ma jedynie w tym, że patrzycie na wyniki na ustawieniach Uber dla RTX 2060 w rozdzielczości 2560x1440. Poniżej zresztą jest cytat twojego stwierdzenia, że te ustawienia i tak nic nie dają.

Dlatego uznałem ten przykład za tylko poprawny. Możnaby dać lepsze.

Ja cię nie przekonam, że grafika w Wiedźmin 3 była na wyrost w momencie premiery. Ja podałem swoje argumenty. Do ciebie one nie trafiają to trudno. Nie ciągnijmy tego dalej.

OK

 

Ty używałeś ceny jako argumentu w dyskusji zupełnie na inny temat. Przypominam, że rozmawialiśmy zupełnie o czymś innym niż ceny RTX'ów.
RT ma wpływ na cenę i jest to częścią dyskusji o RT, bo ma to ogromny wpływ na to jak karłowacieje PC gaming

To jest jakaś twoja czarna wizja która się nie sprawdzi. Jak na razie wygląda to zupełnie inaczej i nic nie wskazuje, żeby miało się zmienić.
No OK, to powiedz mi po co ludzie będą mieli kupować PC, jak konsole nie będą w niczym gorsze? Ustawienia grafiki, obsługa myszki, VR, 120Hz - to wszystko już konsole dostały (ustawienia grafiki uproszczone, ale są już gry z menu jak w pecetowych grach nawet!) 

Przecież w Wiedźminie 3 też jest realistyczna grafika. To ty byś chciał, żeby wszystkie gry miały grafikę w stylu np. Fortnite?
Nie, Fortnite ma realistyczny model oświetlenia. Chyba. Tu mogę strzelać w płot bo nie wiem, kompletnie mnie ta gra nie interesi, ale pamiętam, że to UE 4.0 na tym miało startować. Już pisałem, że światło w W4 będzie gorsze od W3 w moich oczach. Realistyczniejsze - owszem. Do niektórych scen - lepsze. Ale W3 nie ma realistycznego światla, przez co ma żywsze kolory, a to jak wyglądał trailer na E3, którego potem CDPR się wyrzekał, że tej wersji to nigdy nie było - to był ideał. Np. Dragon Age: Inquisition też wygląda super, ale od bardzo małej odległości od kamery już narzuca realizm - symulację pary i brudu w powietrzu. Efekt? Wszystko w średniej dali wygląda jak przykurzone, a w oddali to już zupełnie bez życia. Realistycznie? Tak. Lepiej? Nie. Zdecydowanie gorzej. Nienawidzę prstrokatych kolorów, ale w realistycznym oświetleniu to masz albo szaroburo albo kolory tak pstrokate, że aż się można pohaftować, a i tak nie żywe. No poza nocą i pierwszym planem, bo  z bliska jest często OK, choć w słońcu i tak wszystko wygląda jak tania ruska imitacja za PRLu.  Przykładem Sunset Overdrive. Przekolorowane ale kolory nie cieszą. No porażka po prostu. Jestem fanem studia, ale do dziś nawet w to nie zagrałem. 

Zauważ, że dyskusja zaczęła się właśnie od tego, że @Kynareth podał wyniki na ustawieniach Uber i na tej podstawie ocenił wydajność RTX 2060 w rozdzielczości 2560x1440. Skoro to nic nie dawało, to tym bardziej wydajność tej karty, którą ty sam nazwałeś low-end, w tej rozdzielczości powinna być oceniana na rozsądnych, dopasowanych do możliwości ustawieniach. 
2060 to nigdy nie był low-end. Reprezentuje teraz wydajność, którą powinno mieć tylko kilka kart z absolutnego low (lowest;) endu>
Ustawienia są głupie, ale wynik nadal ważny, ale już mieliśmy ten temat zostawic, co sam zasugerowałeś.

Ustawienia Uber zwiększaja m. in. szczegółowość, zasięg roślinności i to też ma duży wpływ na wydajność.
To bardzo ważne ustawienie, które bardzo obciąża sprzęt. I pierwsze które leciało jak ludziom brakowało FPS. Pamiętam. Ale nie samo GPU. Spadki jakie widziałeś wtedy, gdy gra debiutowała, wynikały też w mniejszym stopniu z tego, że ludzie odpalali na zabytkach typu gtx 560, czy Keplerach, które na początku Nvidia specjalnie w tej grze spowalniała, a odblokowała po tym, jak w necie zrobiła się o tym afera. Ludzie też mieli wtedy dość wolne proce, a to jednak ma spory wpływ na wydajność wyższych ustawień tego parametru. No i na koniec - nawet na max, i tak ten zasięg rysowania nie był przesadzony. To jest coś ważnego, a nie jak cienie, gdzie masz -20% a różnicę musisz szukać z lupą pół godziny, żeby dostrzec cztery inaczej zaświecone piksele. 2060 to potwór obliczeniowy jak na tą grę. Ustawienia uber to nie powinno być dla niego nic wielkiego. 
 

Nie mogę się z tobą zgodzić. Przypomnę, że wcześniej argumentowałeś, że po prostu gra jest popularna a ludzie są ciekawi. To jakie inne gry sprzed tylu lat mogłyby być użyte do obciążenia w pełni najnowszych i najmocniejszych GPU?
Chyba większość. Ale jeśli W3 nie pasuje, to myślę, że czas zgodzić się, że się nie zgodzimy. Producenci scrolli  w myszkach już i tak zacierają ręce. ;)
Odpowiem tylko ogólnie, żebyś nie uznał tego za ucieczkę bo nie mam argumentów - jak chcesz mieć normalny obraz  w ruchu, a nie plamę/sieczkę, to musisz mieć zero spadków poniżej odświeżania. Przy 120Hz to jest 120fps i nie może spaść nawet do 118. To już wrzuca większość gier. Dla segmentu low end 1080p, wyżej w 1440 i 2160p. A gdzie obsługa monitorów 240, 360 i wchodzących nieśmiało 480tek? A gdzie 7680x2160, która to rozdzielczość bardziej pasuje w 2022/3r do "PC gaming res" niż 1440p? A gdzie VR gdzie poza renderowaniem 2 ekranów masz jeszcze istotnie większy FOV, kasujący ulubioną formę "optymalizacji" w nowych grach? A jeszcze masz 3D, gdzie sztuczki 2D od razu kłują w oczy i musisz to zastępować prawdziwą geometrią. No i widzisz obraz większy, więc widzisz mocniej braki w ilości poligonów i jakości tekstur.  Granie w 1440p60 gdy PS5/Xbox X mają zazwyczaj okolice tego, to nie jest moim zdaniem ustawienie "PC gaming". I nie chodzi o to, że każdy ma tak grać, bo sam mam monitor 1080p (nie ma lepszego do 3D niestety) i rozumiem, że ceny sprzętu są zaporowe. Rozumiem też, że jak ktoś podziela błędą opinię DF, to "rozdzielczość jest nieważna, bo żyjemy w erze "post-resolution", AI driven blablabla". Ale jednak PC musi. Po prostu musi mieć przewagę. To jego główna cecha. Już dobra, niekoniecznie tak jak kiedyś, bo dzisiaj musiałoby być 4320p120 ogarniane przez najszybsze karty. Ale no jak masz faktyczną rozdziałkę 1080p + AI, na karcie za 8000+zł to coś jest nie tak. A tak bywa, jak chcesz RT, szczególnie jak chcesz RT inne niż cofające wiele elementów do tyłu - wolę cubemapy niż superzaszumiony crap RT. Nawet Quake 2 RTX omawiany na DF wymaga sporo jak poustawiasz wszystko na "OK, wygląda dobrze". No pograłem na 3060tce. Nie wyglądało to dobrze wcale. Podbiłem na "ładnie" to  w 1080p i zgubiło płynność :szczerbaty: Pooglądałem sobie jeszcze slideshow w 4K z DSRem 4:1 do 1080p i tymi ustawieniami. Nadal gra wyglądała do bani, tyle że miała RT. Potem pograłęm trochę w dobrej płynności aby dać grze szansę i uznałem, że nie dopłaciłbym w 1998r. nawet do zmiany karty, żeby grać z RT zamiast normalnie. Cała ta różnica to mega-przełom w realiźmie. Ale dla mnie to "eetam". Do tego obraz jest miękki (w natywnej, w DSR to wiadomo, moja wina, że nie monitor 4K) czego nie lubię. Wyglądało to na żywo podobniej do filmu na YT niż do natywnego obrazu na żywo, co niestety cechuje chyba wszystkie nowoczesne "realistyczne" silniki. Nie jest to wina samego RT, a po prostu moda i kierunek wybierany przez devów, którym się wydaje, że pogoń za światłem cechuje 100% graczy. 
Czyli popatrz. Ja bym dzisiaj za 4090 zapłacił pewnie 4000zł za kartę i 6000 za funkcje w niej (RT, DLSS) których nie potrzebuję, bo mi nie imponują, nie są przydatne. Kiedyś za tyle to kupowałeś kierownice, których nie było na konsolach. Dźwięk 5.1 którego nie było na konsolach. Lepszy sprzęt do 3D Vision (2002r.) którego nie było na konsolach. Kartę do modów, aby grać z teksturami w Oblivionie o jakości 20x lepszej niż na konsolach. Surround setup 3 monitorów albo projektor. 
I nie chodzi o to, czy kogoś stać. Chodzi o wartość pieniądza i to ile dostajesz w zamian. Przy 10 000 wielu wybierze "prostytutki i koks" lub wycieczkę. I jest to problem. Do tego wszystko to, o  czym pisałem już wcześniej. Jak karty za 1000 kosztują 2000, a te za 2000 kosztują 4000, to mniej osób to kupi. Jak kupi mniej to mniej develoerów będzie robić choćby ustawienia dla nich. Za kilka lat wyjdzie PS5pro na MCMach najprawdopodobniej. Jak się na ten atak PC gaming nie uzbroi, to sam się moim zdaniem niestety przekonasz o tym, jak parcie w RT się dołożyło do tego jak skarłowaciały jest obecny (2025? 2030?) PC gaming. Już i tak przez durne kłanianie się temu co "większości sie wydaje, że chce" udupiono rozwój VR, bo PC powinien go pchać do przodu. W 2017r. mogliśmy mieć takie sprzęty VR jakie dostajemy dopiero teraz. A to co mogło być w 2020 dostaniemy w 2030 lub 2040, zależnie od tego jak się sytuacja rozwinie. Pchanie mocy w RT też jeszcze dodatkowo opóźnie rozwój VR, bo zabraknie na wymagane wyrenderowanie 4x większej ilości pikseli niż w 4K, zabraknie na szeroki FOV, zabraknie w tańszych segmentach nawet na jakieś minimum, żeby ludzie mogli kupić np. coś z ekranami 2x 2880p120 i sobie grać z upscalowaniem z niższej póki nie zmienią sprzętu do gier w przyszłości na jakiś lepszy. 

No ale jak już zauważyłeś na pewno - znowu zaczynam się powtarzać. Jak to mówił koleś z billboardem w Toruniu "bo mnie to boli" ;)

Peace. 

 

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, kadajo napisał:

Ja tam nie wiem, za malo siedze w renderingu wby wiedziec jak ominac rasteryazacje a jedoczesnie stworzyc obiekty lepszej jaksoci i detalach, zawsze rozumialem ze to kwestia "siatki".

Ja też wysiadłem z tego z 15 lat wstecz, ale zakładam, że za wiele się nie pozmieniało.
Jakość obiektu = gęstość siatki (kiedyś tak było) i... no nie pomalujesz! ;) bez grubego liczenia.

Edytowane przez *** ChOpLaCz ***

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, kadajo napisał:

Albo winny jest procesor albo silnik gry. A karta faktycznie idzie na 100% z DLSS ? Sprawdzałeś to ?

Tak na full. Sprawdzę w domu czy to procesor. Ale bądźmy poważni, jak by w Control przy 90Kl/s klękał 12700k to coś nie tak :D

Edytowane przez gret

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to w sumie ciekawe ze karta bierze mniej papu. Może kombinacja niższej rozdzielczości j DLSS jest mniej prądożerna ze względu na architekturę układu ? Ciekawe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Twórcy zamiast zrobić coś na prawdę ambitnego, to dodają ray-tracing, niskim kosztem, co niewiele poprawia. Np. Blizzard zamiast zrobić remejk WoWa w tym samym stylu ale z lepszą grafiką, to dodaje ray-tracing cieni.

maxresdefault.jpg

Jakaś tam różnica jest ale to nie jest game-changing, a wymagania zwiększa. Wydają ponownie tę samą grę (Classica) po 15 latach i każą za to płacić abonament. Do retaila dodają jakieś efekty, które widać tylko w specyficznych warunkach, jak np. na screenshocie powyżej. I dlatego firmy pójdą w ray-tracing, bo jest stosunkowo łatwy do implementacji, a praca wykonywana jest nie przez grafików, tylko przez karty graficzne, które są w tym coraz szybsze i dochodzi FSR, DLSS oraz XeSS.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niskiem kosztem chyba dla nich ;)

No ale właśnie doszliśmy do momentu gdzie dodanie subiektywnych pierdół zaczyna obciążać mocno komponenty. A może tylko mi się tak wydaje ?

Wczoraj na próbę włączyłem z powrotem w BF2042 AORT bo poprawili wydajnosc, i faktycznie już raczej nie spada mi poniżej 60 fps a przez to że dosyć długo grałem ze standardowym AO to od razu moglem zobaczyć jak faktycznie dużo się zmienia, i zmiany widać ale są dosyć subiektywne, a sama gra subiektywnie tez wygląda lepiej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A co do mylenia gry z rzeczywistością, myślę że ma to zero sensu. Gdybym chciał zwiedzić realny Nowy York to albo włączyłbym sobie nagranie wideo z YouTube'a albo tam poleciał, bo nawet mam zaproszenie od osoby, która tam mieszka. Duże miasto w grze może wyglądać lepiej i ciekawiej, może np. nie być tam tej bardzo irytującej mgły, która pogorsza widoczność im dalej się patrzy. Gdybym chciał patrzeć na rzeczy takie jakie są, to po prostu poszedłbym na spacer albo na rower (co zresztą zrobię) albo pojechał gdzieś zwiedzać. Gra ma być fajniejsza, ciekawsza, ładniejsza. Inaczej nawet nie chce mi się jej uruchamiać. Cała idea "fotorealizmu" mi się nie podoba. Gabe Newell dobrze mówi, że w przyszłości gry będą mieć grafikę lepszą od rzeczywistości, a nie taką samą. W przeciwnym razie wysiadam z tego hobby, bo ono nie ma sensu. Np. w WoWa grałem, bo podobał mi się bardziej niż real mimo niby "gorszej" grafiki. Ale to nie jest jeszcze kres tego co można zrobić. Szczególnie, że podłączając komputer bezpośrednio do mózgu można generować lepszą jakość niż patrząc na ekran, nie jesteś wtedy ograniczony instrumentem wzroku. Na razie przydałoby się dobrze ogarnąć 4K 120fps, nawet bez RT, które nie jest aż tak konieczne. Ogólny design gry itp ma większe znaczenie niż RT.

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, *** ChOpLaCz *** napisał:

I to jest jeden z powodów, dla których ja - jako fan RT! -  mówię STOP.
RT - brawo - jako ficzer, ale nie kosztem rasteryzacji, a tu niestety jest d00p00nia w progressie od długiego czasu. :(

Godzinę temu, kadajo napisał:

Ja tam nie wiem, za malo siedze w renderingu wby wiedziec jak ominac rasteryazacje a jedoczesnie stworzyc obiekty lepszej jaksoci i detalach, zawsze rozumialem ze to kwestia "siatki".

Nie piszę żadnych domysłów tylko podaje fakty, które każdy może zweryfikować. Są programy do przechwytywania i przeglądania, analizowania etapów generowania klatki obrazu przez gry, np. PIX, RenderDoc, Nsight Graphics.

Rasteryzacja w grach odgrywa coraz mniejszą rolę. Piszę o wszystkich grach, również tych niekorzystających ze śledzenia promieni. 

Tak w skrócie, od wielu lat obraz jest tworzony w większości gier w ten sposób, że w pierwszym etapie do wielu tekstur (GBuffers) są renderowane dane dla każdego piksela: głębia, wektor Normal a także parametry materiału: kolor, chropowatość, metaliczność, przezroczystość, emisja i inne.
Osobno dla części źródeł światła (jak np. słońce) z innego ujęcia kamery jest renderowana scena do tekstur głębi, żeby później na tej podstawie obliczyć cień.

W kolejnych etapach w większości są już wykorzystywane obliczenia a sama rasteryzacja już tylko w niewielkim stopniu, np. do renderowania efektów cząsteczkowych.

Cień na podstawie tekstury, kolor i oświetlenie każdego piksela są obliczane na podstawie wcześniej wyrenderowych tekstur.
AO, wolumetryczna mgła, korekcja ekspozycji, mapowanie tonów, efekty, post-processing są obliczane i nie wymagają rasteryzacji.

Do czego zmierzam? Przy obecnej wydajności śledzenia promieni można je użyć zamiast renderowania. W tym celu dla każdego piksela puszcza się promień od położenia kamery w kierunku widoku, tzw. Primary rays. Promienie są ze sobą zbieżne a dodatkowo sąsiednie promienie trafiają w większości w ten sam obiekt więc wydajność RT w tym wypadku jest bardzo wysoka.

NVIDIA w przykładzie na użycie RTXDI dodała już opcję zastąpienia renderowania a przykład NRD Sample w ogóle nie korzysta z rasteryzacji.

Edytowane przez SebastianFM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
18 minut temu, Kynareth napisał:

A co do mylenia gry z rzeczywistością, myślę że ma to zero sensu. Gdybym chciał zwiedzić realny Nowy York to albo włączyłbym sobie nagranie wideo z YouTube'a albo tam poleciał, bo nawet mam zaproszenie od osoby, która tam mieszka. Duże miasto w grze może wyglądać lepiej i ciekawiej, może np. nie być tam tej bardzo irytującej mgły, która pogorsza widoczność im dalej się patrzy. Gdybym chciał patrzeć na rzeczy takie jakie są, to po prostu poszedłbym na spacer albo na rower (co zresztą zrobię) albo pojechał gdzieś zwiedzać. Gra ma być fajniejsza, ciekawsza, ładniejsza. Inaczej nawet nie chce mi się jej uruchamiać. Cała idea "fotorealizmu" mi się nie podoba. 

Skrajne, zerojedynkowe myślenie.
Mylenie jakości z fotorealizmem.
Nie chodzi to, by było jak w naturze, tylko by odbiór oka / mózgu był "naturalny".
Czy plenery i ujęcia SW albo innego Horizon Zero czy God of Wor'a mogą być "fotorealistyczne", skoro te światy nie istnieją? ;)
Fotorealizm to IMO uproszczenie w nazewnictwie.

 

18 minut temu, Kynareth napisał:

Ale to nie jest jeszcze kres tego co można zrobić. Szczególnie, że podłączając komputer bezpośrednio do mózgu można generować lepszą jakość niż patrząc na ekran, nie jesteś wtedy ograniczony instrumentem wzroku. 

Bez sensu. Nie można mówić o obrazie bez instrumentu wzroku. Może... z pominięciem oka - ok, ale to i tak opiera się na mechanizmie zapamiętanego wcześniej doświadczenia.
"Uczenie maszynowe" całe życie, zapełniasz dysk i dopiero z niego korzystasz (jak przy śnie albo wspomnieniach). Bez tego nie da się wykreować obrazu.

BTW. Ciekawy wątek - co śnią (?) i co widzą, wspominają, "wyobrażają sobie" (?) ludzie, którzy są niewidomi... od urodzenia (bez bazy na dysku)?  

Edytowane przez *** ChOpLaCz ***

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, *** ChOpLaCz *** napisał:


Nie chodzi to, by było jak w naturze, tylko by odbiór oka / mózgu był "naturalny".

Dla mnie wystarczająco naturalny był już obraz w wielu grach na PS2 (nie mylić z tym jak gry z PS2 wyglądają na LCD nawet na emulatorach w 4K! Kineskopowy TV jednak miał zalety)
Obraz jest naturalny wystarczająco w praktycznie każdej dobrze zrobionej grze z ery x360/PS3.
Ja wolę na TV podbite kolory ponad naturalność, a niektórzy dopłacają aby mieć mniej żywe, ale naturalniejsze. Kwestia gustu tak samo. Granica "wystarczająco naturalnie" dla każdego leży gdzie indziej.


No i ale się trafiło z tym filmikiem. Tutaj 3 sekundy w tym miejscu polecam ;)
https://youtu.be/lyOXK4wzf2Y?t=537

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...