Skocz do zawartości

assire

Forumowicze
  • Liczba zawartości

    955
  • Rejestracja

  • Ostatnia wizyta

Odpowiedzi dodane przez assire


  1. 32 minuty temu, naczelnik5 napisał:

    Zgadzam sie  ale nie krok naprzod wzgledem rynku tylko wieska z dnia premiery bo  mamy juz 3 generacje kart z RT a technologia jest juz pare dobrych lat , wiec nie jest to cos co zobaczylismy po raz pierwszy w tym roku i akurat zastosowali to w W3 ngu

    Ale nie będziemy mieli już lepszego oświetlenia niż to co oferuje nam Ray Tracing. Światło to światło, doszliśmy do momentu w którym w grach mamy możliwość zrobić oświetlenie które jest w 100% realistyczne. No dobra, w 98% bo dalej sie korzysta z bufora promieni, czy ogranicza ilość odbić i stosuje pewne uproszczenia.

    Teraz realny postęp to leży co najwyzej w tym Nanite co jest w UE5, bo tekstury w tym momencie to dosłownie przerobione zdjęcia.

    • Thanks 1

  2. 10 minut temu, naczelnik5 napisał:

    Tylko Crysis wbijal w fotel. To byla grafika z innej epoki wtedy. A co takiego super ma nowy wiesiek czego juz nie widzielismy? Pisalem juz we wczesniejszym poscie ze jakby wiesiek  to byl technologiczny krok w przod wzgledem aktualnych trendow a nie swojej daty premiery to spoko nic bym nie mowil

    Ray Tracing to jest technologiczny krok naprzód.

    Proponuję iść na bagna, tam wokół sierocińca + do samego sierocińca i sobie porównać jak to wszystko wygląda.

    Dla mnie różnica w jakości jest ogromna.

    Ale tak, rozumiem, że dla niektórych to za mało, bo w niektórych miejscach, czy w pewnych warunkach oświetlenia raytracing daje dość subtelną różnicę, a "kosztuje" tyle samo co w scenach gdzie różnica jest duża.

    W Cyberpunka, w Control czy w Dying Light 2 nie mogłem i nie chciałem grać bez RT, nawet kosztem dość agresywnego DLSS, bo RTGI i odbicia RT robią mi niesamowitą różnicę w jakości obrazu. Ale fakt, mogliby troche zmniejszyć zasięg działania RT w Wiedzminie bo jest bardzo duży i obstawiam że to przez to tak zarzyna karty.


  3. 13 minut temu, naczelnik5 napisał:

    Jesli posiadacze 4090 nie moga w 7 letniej podrasowanej grze dac wszystkiego na prawo , to w jakiej grze beda mogli?

    No no, a zanim w Crysisa można było zagrać w 60fps w full HD to trzeba było albo robić SLI z dwóch kart, albo czekać 3 lata aż wyszedł GTX580. Jakoś nie kojarzę żeby był taki krzyk jak dzisiaj.

    Bez RT gierka chodzi git, na 3080, w 4K na Ultra+, ale bez tego debilnego HairWorks mam jakieś 75-80fps, albo ponad 100 jak wrzucę DLSS Quality, które moim zdaniem daje fajniejszy obraz niż te inne tryby AA.

    A ray tracing, heh.

    Jeszcze pare lat temu zaawansowana scena symulacji oświetlenia w rozdzielczości 1024x768, 30-40 źródeł światła, budynek o skomplikowanym kształcie, model 20x40m, renderowała mi sie na karcie 10 minut, a cienie były zaszumione jak gówno.

    Teraz w gierce, w natywnym 4k - 8 razy więcej pikseli - karta wyciaga 20fps.

    Taka cena postępu graficznego. RT jest cholernie wymagający, niezależnie czy to gra 8, 15 czy 22 letnia.


  4. Hairworks jak zarzynał karty tak zarzyna xD

    3080, 4K + DLSS P, full RT, na bagnach przy sierocińcu bez HW - 45-50fps. Z włączonym HW, nawet bez wygładzania, fps spada do 35 :E

    Niby ostatnim razem jak grałem w Wiedźmina to miałem podobne fpsy bo wtedy było grane na RX480, ale kuuuuuuuuurr..de, w Cyberpranku 4K DLSS P, RT ultra mam 60fps xD


  5. W dniu 26.11.2022 o 15:05, MSF Koi napisał:

    Teraz tak ale powiedziałbyś to samo rok, półtora roku temu? Szczegółnie że zotaca musiałby sporo taniej sprzedać, a wentyle dobre to koszt 50zł za 3pack arctic?

    Półtora roku temu właśnie tak zrobiłem, sprzedałem gównianą 3060ti Zotaca, dołożyłem 400zł chyba i kupiłem 3070 Gigabyte Gaming. Oczywiście ceny nijak się miały do mrsp, ale dla mnie nie miało to znaczenia bo liczyła się różnica a nie kwoty jako takie.
    Teraz zrobiłem dokładnie to samo i kupiłem jeszcze lepszego TUFa. Ale 3080 :E

    A rozmowa była nie o najtańszych arcticach a 92mm slimach od noctuy -  żeby karta zachowała jako takie wymiary.


  6. Godzinę temu, hubio napisał:

    Czyli jak mam TV z odświeżaniem 60Hz to nie będę odczuwać żadnej większej płynności np. na 90FPS

     Nie bo Ci TV tych klatek nie wyświetli, a do tego będzie je rwać co chwilę. 

    • Like 1
    • Thanks 1

  7. 2 godziny temu, kadajo napisał:

    Znajdź mi proszę gdzie w historii złącza zasilania 8 pin PCIe doszło do takiej sytuacji jaką aktualnie mamy z 12VHPWR.

    Jak wpiszesz w googla "burnt 8pin" to jest od cholery tematów z reddita z przypalonymi wtyczkami czy gniazdami. Sam sobie kabelek przypaliłem od strony zasilacza, podpięta była "zwykła" 3070. Jakoś mi się wysunął przy przeprowadzce, ale przynajmniej wiem że OCP działa. 

    A o palących sie 8pinach bylo przecież głośno przy kartach pokroju GTX690, R9 295x2 i innych 2xgpu na jednym pcb. 

    O tym jest głośno bo karta jest droga fhvj i sie zrobiła panika na forach. 


  8. Teraz, cyberpunk2020 napisał:

    Kupiles uzywke z koparki i porownujesz do nowego produktu

    No, kupiłem używkę z koparki. 

    I co? Gorzej chodzi? Wolniej? 

    No nie bardzo, w 3D Marku robi wyraźnie ponad średnią, w Cyberpunku w 4k nie przekracza 63 stopni i jest cicha - ASUS TUF jakby co. 

    Realia są jakie są i dla mnie liczy sie wydajność a nie jakieś pierdoły czy z koparki czy po 15 zwrotach ze sklepu 


  9. 31 minut temu, DarkEater napisał:

    skąd 3 x cena?

    U Niemców 4080 startuje od 1800 euro

    https://www.notebookcheck.com/Die-Nvidia-GeForce-RTX-4080-startet-in-Deutschland-zu-Preisen-ab-1-799-Euro.668571.0.html

    Cena 3x bo moją 3080 kupiłem za 2800, półroczną, z dowodem zakupu. 

    Tak, używana, tak, wiem, to nie to samo co nowa ze sklepu, z gwarancją różnie bywa cośtam cośtam. 

    Nie zmienia to faktu, że obecnie 3080 można kupić poniżej 3000 jak człowiek dobrze poszuka, a wydajność używanej jest taka sama jak sklepowej. 

    • Haha 2
    • Upvote 1

  10. 44 minuty temu, kadajo napisał:

    AMD Ryzen 7 5800X ogranicza a co dopiero i9900 k :D

    No dobra, w tych grach które wrzuciłeś to tak. Tyle, że to są gierki skopane pod względem użycia proca co wyraźnie widać na tych porównaniach 5800x vs x3d vs 13900k

    We wszystkich pozostałych gierkach w teście techpowerup to jednak karta graficzna nie daje rady w 4k

    No i cały czas sie tu wiara brandzluje fpsami w testach a później sie okazuje że monitory mają 1440p/144hz albo 4k/60hz i cała ta dyskusja o bottleneckach przez procesor gówno warta bo finalnym BNem jest nonitor :E

    Edit:

    "a co dopiero 9900k" taaaa

    far-cry-5-1920-1080.png

    ac-odyssey-1920-1080.png

    relative-performance-games-1920-1080.png


  11. 1 godzinę temu, MSF Koi napisał:

    Racja choć kupować 4090 bo to top topów by kartę ograniczac procesorami pokroju 9900k to też dziwny zabieg..

    Pokaż mi grę w której 9900k ogranicza 4090 w 4K ;)

    Bo raczej wątpię żeby ktokolwiek kupował 4090 mając monitor FHD

    • Haha 3

  12. 4 godziny temu, Adam1394 napisał:

    Mi już w 3440x1440 moja 3080 (@1950/925mV) powoli zaczyna niedomagać w tytułach typu RDR2 (spadki do ~45-50) także te 10 fps bym z chęcią przyjął, ale sprzedawać GPU za 3k, żeby kupić za 5-6k to trochę mało opłacalny biznes...

    Albo grasz z MSAA, albo dałeś wszystko bezsensownie na ultra. 

    Moja 3080@1815/825mv + ryzen 3600 wyciaga 60-70fps w 4k, ustawienia wysokie + ultra tekstury, oświetlenie i ambient occlusion. 

    Za to udało mi sie chyba mocno tensory zdusić, bo jak połączę DLDSR +DLSS żeby walczyć z tym gównianym TAA w RDR2 to mam dość wyraźnie niższą wydajność niż bez tych opcji. 

    Jak pisałem, w 4K jest 60-70fps, ale jak ustawie DLDSR 5K + DLSS Balanced, co sie przekłada na jakies ~1700p renderowania to mam z 10% mniej fps niż w 4K

    A w sumie nie sprawdziłem czy zwykłe DSR będzie szybsze :E


  13. 42 minuty temu, *** ChOpLaCz *** napisał:

    Tylko na forach IT wariatów. ;)
    Tuning nie jest obowiązkowy w żadnej branży, a jego brak, to nie wada. ;)

    To inaczej - w moich oczach brak UV to wada. 

    Owszem, wadą nie będzie dla kogoś kto chce włożyć karte do kompa, ma działać i tyle. 3080 to jednak karta raczej dla entuzjastów - którzy oglądają YT, czytają fora czy reddita. I jak to forum jest kiepskim wyznacznikiem bo zostały tu tylko jakieś niedobitki, tak na reddicie - konkretnie r/nvidia - 1,2mln czytających czy r/pcmasterrace - 6.5mln - jest sporo postów o UV, co daje, jak zrobić i dlaczego trzymanie karty na stocku jest bez sensu. O dużych youtuberach nie wspomnę. 

    Jeśli sprzedajesz komuś kogo nie interesują az tak bardzo technikalia - git, obie strony zadowolone. 

    Ale jak jednak trafisz na kogoś kto się interesuje to nie powinieneś sie dziwić czy wkurzać że karta z koparki co chodziła na UV + caaaały czas stała temperatura jest atrakcyjniejsza niż karta od gracza co chodziła na stocku, czyli cieplutko + dużo cykli grzanie/wychładzanie.

    A zużyte wentyle to nie argument, cała seria 3xxx nadal ma jeszcze gwarancję, chyba że są jakieś lewe albo kupowane w jakichś gównosklepach co upadły. 


  14. 3 godziny temu, *** ChOpLaCz *** napisał:


    Co znaczy oczywiście, że tak, jak 95% (w domyśle każda)

    Ok, może nie każda, ale wejdź na olx i zobacz sobie sam. Co trzecia wystawiona 3080 NIE jest z koparki ;)

    3 godziny temu, *** ChOpLaCz *** napisał:

    Moja i bez UV i bez OC. Wyjęta z pudła. Jeden raz wsadzona do budy (folie na blachach nadal).
    Przegrane ze 100h w sumie.

    Praktyczne OC w tych kartach nie istnieje bo już na stocku walą w power limit jak złe, więc to bez znaczenia w sumie. 

    Brak UV to minus. 

    Ale nikt Ci też nie broni napisać w ogłoszeniu, że przysiegasz na babcie, że karta tylko grała i to niedużo ;)

    No chyba że problem nie jest natury marketingowej, a takiej że 3080 to można na upartego nawet za 2600 wyciągnąć i nikt nie chce brać tych wystawianych za 4000... 


  15. 4 godziny temu, Norrberrto napisał:

    "Poniżej odpowiadam na dodatkowe pytania:
    1. Czy karta była używana do kopania kryptowalut? oczywiście, że TAK, jak 95% kart obecnie wystawionych na allegro, obecnych na ryku :D"

    Kupiłem ~2 tygodnie temu 3080 TUF od gościa na olx w Poznaniu, co od razu w opisie napisał że karta pokoparkowa, ale sie nie nakopała bo kupiona w maju tego roku. Koleś nie owijał w bawełnę, jak ja jechałem po karte dla siebie to akurat trzymał inną 3080 dla kolejnego "klienta" na furmarku - mnie nawet namawiał żeby tą co brałem wsadzić do kompa i niech sie grzeje, żebym miał pewność że nie biorę jakiegoś syfu. W tym momencie ma wystawione dwie 3090 i akurat te to chyba serio używał do renderingu bo jak z nim rozmawiałem to mówił, że sie profesjonalnie zajmuje grafiką 3D. Także nie każdy górnik taki zły, szkoda tylko że ceny spadają znacznie wolniej niż jak ostatnim razem krypto padło na ryj.

    Chociaż teraz za 3080 dałem 300zł więcej niż za 3060ti w grudniu 2020 więc w sumie nie narzekam xD

    • Upvote 2

  16. 44 minuty temu, sideband napisał:

    Są gierki, które leżą od strony CPU to 9900K będzie za słaby nawet do 2160p przy tej karcie ;)

    No już bez przesady :) mam 3080 sparowane z podkręconym Ryzenem 3600 i w gierkach AAA to 3080 jest bottleneckiem w 4k a wszelakie esporty śmigają w 144fps. Poki co nie ma 4k 240hz więc jakie to ma znaczenie 

    • Upvote 1

  17. Godzinę temu, caleb59 napisał:

    Ale masz wiedziane, że od Cablemod wszystko kosztuje minimum 99 euro? :E Rozumiem customową robotę i w ogóle ale cena zaporowa i powinno im się skopać dupy na oprzytomnienie.

    Możesz nie kupować, w końcu przejsciówkę dostajesz w zestawie ;)

    Kwestia czasu jak majfrendy zrobią to samo za 9 ojro, ale pewnie trzeba będzie do tego doliczyć koszt gaśnicy. 

    • Upvote 1

  18. W dniu 20.02.2022 o 21:27, Paw79 napisał:

    Na Nvidii jest to samo.
    Pseudostabilne UV daje niższe wyniki w Timespy, niż te same zegary przy wyższym, stabilnym napięciu.

    GPU jak i CPU, przynajmniej od AMD mają coś takiego jak "clock stretching". Jak cpu/gpu wykryje że jakiś cykl się zawiesił albo jest jakiś bład to obniża taktowanie, na kilka milisekund. To się właśnie dzieje jak brakuje tej odrobiny stabilności. 

    Mam coś takiego na moim 3060Ti jak dostanie za mało napięcia, mam coś takiego na ryzenie 3600 jak dostanie za duże zegary - np wynik w cinebenchu na 4.6GHz prawie się nie różnił od tego na 4.4GHz, w cinebenchu crasha nie było, w prime95 4.6 od razu błędy a na 4.4 hula. 

×
×
  • Dodaj nową pozycję...