Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

Ronson

Forumowicze
  • Liczba zawartości

    4311
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    7

Odpowiedzi dodane przez Ronson


  1. Godzinę temu, naczelnik5 napisał:

    Ta chwila trwa juz ponad 2 lata i next gena z prawdziwego zdarzenia sie nie doczekalismy. Gry na UE 5 to tez pewnie kolejna chwila trwajaca 3-4 lata ( na konsolach to moze nawet PS6  bo sie okaze ze 5 za slaba:szczerbaty:) A czy tak beda meczyc proca to sie okaze jak cos wyjdzie i nie bedzie optymalizacyjnym crapem

    No ale z każdym miesiącem baza posiadaczy PS5 i Xbox Series rośnie. 
    Mamy pierwszą grę nextgen. Nazywa się MS Flight Simulator. Choćbyś proca azotem ciekłym chłodził, to spadków poniżej 60fps na max detalach nie unikniesz, chyba, że jakiś patch pomógł, bo od wielu miesięcy nie śledziłem. 
    Jaguar w PS4 miał 1.6GHz i był badziewiem. Zen w PS5 ma 3.2GHz, więcej cache i lepszą architekturę. Gry na EU5 wyjdą na PS5 na pewno, choć pewnie o jakości jaką się chwali Epic w demkach będzie można zapomnieć.
    Demko Matixa STRASZNIE męczy proce.
    No i na koniec jak zauważył kolega wyżej - RT też dokłada narzut na proca.

    @lis22
    Gdybym wiedział to bym pomgół i tutaj, ale od takich pytań to są inne miejsca na forum. Zadaj pytanie w swoim wątku może. Może być zasilacz, a może być płyta. Co do problemów z tabletem, to też różnie może być. Ja więcej nie potrafię w tym temacie pomóc, ale możesz spróbować metody eliminacji. Idź z tym tabletem do kogoś i zobacz czy z jego PC działa OK czy nie. Możesz też od kogoś pożyczyć zasilator. 


  2. 1 godzinę temu, lis22 napisał:

    Osobiście te 60 kl/s mi wystarczy w każdej grze, bardziej mi chodzi o Ray Tracing bo tutaj 2080 TI już niedomaga w nowszych grach.

    Moim skromnym zdaniem lepiej grać w 120fps w 1080p niż w 60fps w 4K, ale to temat rzeka, którego komuś siedzącemu w kompach od dekad czasem trudno wytłumaczyć, bo jest bardzo skomplikowany, zależny od masy zmiennych, a opinie często mogą być oparte o mylnie wyciągniętych wnioskach, co też może się opierać na kolejnej sporej ilości powodów. Temat rzeka.

    Także jak planujesz zmieniać monitor na jakieś szybkie LCD TN/IPS z poprawnie zaimplementowanym i używalnym trybem migotania podświetleniem, bez czego nie da rady uzyskać czystego obrazu w ruchu, lub planujesz zakup monitora OLED lub TV OLED, znowu z takowym trybem w poprawnej wersji, bo nie każdy OLED się tym może pochwalić, to mocno sugeruję pomyśleć zawczasu o zmienie.
    Ostatnio wydany spiderman. 1440p, medium, test Hardware Unboxed na YT:

    FPS minimalny:
    9900K 88fps
    12900K na szybkich pamięciach DDR5 = 144fps.
    To przepaść, choć test nieumiejętnie zrobiony, bo 9900K na szybszej pamięci też by podskoczył pewnie spokojnie do 100-105fps.
    To jest w grze z PS4. Różnica 40% pomiędzy 9900k a 12900K na DDR4. To już róznica sugerująca natychmiastowy upgrade proca do grania w 120fps
     Moim zdaniem jak wyjdzie jakaś gra w 2023/24 to możesz zobaczyć u siebie 40fps zamiast 60fps.

    Jednak jeśli masz monitor na VA, nie zamierzasz się wspinać  na górę wiedzy o obrazie w ruchu, jesteś pewien, że będziesz grał tylko w 60fps i wychodzisz z założenia, że jak tylko pojawi się problem z uzyskaniem 60fps to spokojnie, bez problemu możesz wtedy zmienić płytę i proca - to jasne, zostań na tym co masz. PCIE 3.0 nie przeszkadza przy 3090. Stracisz max 10% wydajności, a 3090tka do 1440p w 60fps to i tak jest strzelanie z armaty do komarów. No chyba, że se podkręcisz RT to wtedy możesz ją wykorzystać i w 100%. 
    Co do zmiany płyty i proca to nic się nie martw. Zaparzysz sobie herbatkę, obejrzysz ze trzy poradniki na YT, żeby trafić na choć jeden porządny, i zmontowanie własnego kompa będzie banalnie proste. Tylko trzeba uważać co się robi, czytać instrukcje obsługi płyty, proca, pasty temoprzewodzącej i chłodzenia, dwa razy wszystko sprawdzić przed uruchomieniem, pamiętać o ładunkach elektrostatycznych więc nie montuj w wełnianym swetrze od babci i oczywiście nie wpinać wtyczki do kontaktu przed końcem calej zabawy i sprawdzania drugi raz czy się w czymś nie pomyliłeś. A jak są pytania to walisz na to forum, gdzie chętnie ci stare dziady (w tym ja) pomogą. To naprawdę jest prosta sprawa. Spora wiedza to jest potrzebna do podkręcania dopiero, no i do wyboru danej części jak płyta czy pamięć, ale od tego też są wątki na forum, gdzie ludzie pomogą.

    • Haha 1

  3. Godzinę temu, kadajo napisał:

     

    P.S. wyedytuj ten wulgarzym bo usunę tego posta.

    Wyedytowałem, ale jestem w szoku. Serio? Na stronie gdzie średnia wieku to pewnie 40lat, nie można napisać, że coś jest za...ste? To już w telewizji gładko przechodzi w 2020r. 
    No ale Pan tu jest Pan Władza, więc jak nie wolno to nie będę używał tego słowa. Sugestię aby poluzować "smycz" całemu forum w takich kwestiach napisać mam nadzieję wolno ;) jak nie to przepraszam i to wyedytuję też i nie będę więcej się odzywał.

    Co do argumentu, jaki napisałeś, to jasne, że zawsze można wywołać sytuacje, gdzie zabraknie CPU, np. przy graniu na monitorze 480Hz w gry bez FPS capa. Ale mi chodzi o realne sytuacje. Skoro już są gry gdzie nawet w 1440p 9900K zauważalnie ogranicza, a karty typu 3090 nikt nie kupuje na miesiąc a na dłużej, to w momencie gdy "za chwilę" zaczną wychodzić gry na PS5, a nie na PS4+PS5 i gry na Unreal Engine 5, gdzie wymagania co do mocy proca OSTRO polecą do góry, no to na serio, pisanie, że 9900K jest spoko to nie jest dobra rada moim skromnym zdaniem. Niech kupi tę 3090 do 9900K, ale poinformujmy go, że owszem, tak, będzie mu to kartę ograniczać i niech się liczy z koniecznością dość szybkiej zmiany na coś lepszego. Coś było mówione o niepodkręcalnych procach 12700, które na nowej płycie zapowiadanej na Sierpień/Wrzesień miały się dać podkręcać, co pozwalało na wydajność bliską temu co potrafią najszybsze jednostki. Jak taka płyta i proc nie zrujnuje budżetu to po odsprzedaży 9900K zdecydowanie nie ma co się zastanawiać. Szczególnie, że płyta pod 9900K na pewno nie ma już gwarancji. 


  4. Godzinę temu, kadajo napisał:

    ? I9 9900k to nadal bardzo dobry procesor dlaczego miałby być wąskim gardłem ? Grasz w FHD ?

    No niestety jak mowa o wydajności CPU to nie ma znaczenia czy ona istnieje w 480p czy w 4K. Jeśli istnieje w jakiejkolwiek rozdziałce, to znaczy, że jest realna. Tylko kwestia tego gdzie Ci to wyjdzie. I niestety w przypadku 9900K wychodzi to już bardzo mocno w calkiem sporej liczbie gier, i to w rozdziałkach nieadektwatnych do testowania CPU, czyli 1080p a nawet 1440p. 
    Jak jakaś gra będzie wisieć na CPU to możesz i w 4K to odczuć. Może być tak, że w słupkach stracisz 15%, ale realnie będziesz miał ostry stutter albo micro-stutter, gdzie na lepszych CPU byś nie miał, a to ogromna różncia. Może być tak, że nie dasz rady pograć w 120fps, gdzie na lepszym procu byś mógł. Jedynie rozumiałbym pisanie, że 9900K to nadal dobry proc, jeśli ktoś ma kartę ala 2070/3060 a gra w natywnej 4K. I nie gra w gry typu Flight Simulator czy inne, które naprawdę sporo wymagają od proca. Ostatnio Spiderman pokazywał ogromną stratę 9900K. Są opinie, że przycinki są irytujące na słabszych procach.
    Jak komuś 30fps nie przeszkadza i gra w 4K na ultra to można zostawić 9900K.
    Ale jakbym ja miał kupowć kartę od 3080 wzwyż, to już zdecydowanie bym myślał o zmianie proca. Od 3080Ti to kupowanie takiej karty aby wpakować ją do 9900K to już jest nieporozumienie. 
    I żeby nie było. Mój proc w kompie jest obiektem muzealnym. Nie krytykuję siedzenia na starych, ale większy cache w nowych procach naprawdę pomaga, a pamiętajmy, że nawet jesli różnica między 9900K a 12900K będzie tylko 20%, to developer nie pracuje na zabytku tylko zazwyczaj na nowych sprzętach i zoptymalizuje pod to, na czym pracuje. I wtedy brak jego pracy aby kod był pod 9900, rozdmucha tą różnicę z 20% do 50%. 
    No i te dziury w zabezpieczeniach, które tak zupełnym przypadkiem zjadają co jakiś czas niemal tyle mocy ile wynosi cały postęp technologiczny. 9900K był WYEDYTOWANO SŁOWO NA ZA...  dobrym procem. Był.

    • Like 1

  5. 12 godzin temu, SylwesterI. napisał:

    no raczej nv nie mogła przewidzieć tego co w tym  roku i przyszłości stanie się z cenami energii , węgla , gazu itd. , kart nie projektuje się w kilka miesięcy , mają zaległości  , ale jestem pewien że jakimś cudem następcy serii rtx 40x0 i konkurencyjnej , będą wydajniejsze przy niższym poborze energii , zaniedbania i oszczędności na etapie projektowania wychodzą


    Jakie zaniedbania? Przecież wszyscy na poborze energii skupiają się najpierw, a dopiero potem na czymkolwiek innym. Mniejszy pobór - można wpakować więcej jednostek obliczeniowych, ale przede wszystkim patrz na odpowiednie segmenty rynku. Nvidia to nie tylko karty. Przez ostatnie lata NV przeszła metamorfozę z firmy robiącej głównie GPU do gire, w firmę dla której GPU do gier to już tylko mały wycinek ich działalności i zysków. Dziś się głónie skupiają na AI, obliczeniach, serwerach, autach. A co do gier to trend jest taki, żeby w świadomości ludzi zmienić definicję PC gaming z "blaszak pod biurkiem" na laptopy i mini-PC. Ja tego trendu nienawidzę, więc jestem wyczulony na przesłanki, które go potwierdzają. Zobacz na AMD, zobacz na Intela. Roadmapy i chwalenie się pełne notebooków. Mamy erę Steam Decka, Switcha. 
    Nvidia w chipie do Switcha 2 na pewno skupia się na poborze prądu.

    Poza tym postęp przywalił w ścianę. To nie tak, że sobie można. Co jeśli NV ma wybór: 300W na karcie za 5 lat, albo 500W dzisiaj, dla tej samej wydajności? To im daje sporą przewagę w wydajności. Ogromny potencjał marketingowy idzie za tymi, którzy mają "króla wydajności". Dlatego AMD nieudolnie próbowało z Radeo Fury, mimo że ta karta nie miała żadnego biznesowego sensu. 

    Poza tym masz zawsze kompromis. Możesz uzyskać lepszą wydajność na tej samej powierzchni chipu, ale kosztem czegoś. Dziś NV idzie w obliczenia AI, ray-tracing itp. Możnaby wykorzystać ten obszar na co inne. Dlatego Fermi żarło tyle prądu, bo miało rozbudowane jak na tamte czasy segmenty do obliczeń. To się niezbyt przydawało do gier, a NVidia nie miała pomysłu jak zrobić  ludziom wodę z mózgu, że jednak jest inaczej i warto (ekhem.. raytracing.. ekhem...).
    Jasne, 560 było bardziej energooszczędne i miało lepszy "perf/watt", a 680/780 nie przypominało już tego prądożernego potwora 480, ale jak się wpatrzysz w statystyki to zobaczysz, że sporo rzeczy obliczeniowych zostało (słusznie!) wywalone i do obliczeń to 480 nadawała się lepiej niż te nowsze karty. 

    Poza tym kiedyś miałeś szybki postęp. 0,35, 0,25, 0,18, 0,15, 0,13, 90nmm 65nm.
    To szło szybko i było realnym postępem a nie marketingowo naciąganym, jak dziś. Dlatego to co kiedyś widziałeś przy przejściu z 130nm na 65nm, dziś zobaczysz przy przejściu z 16nm na 5nm czy 4nm. Koszty rosną. 
    Od energooszczędności to są układy mobilne, więc poczekaj na laptopy z 40xx w 2023.





    A co do plotek o 4060 to ja nie marnuję sobie na nie czasu. Ostatnie plotki sugerowały, że  Nvidia przesuwa premiery, że na razie tylko 4090, a 4070 później, a inne to już przed przesunięciem były w 2023. Jak te karty wyjdą w marcu-sierpniu to na obecnym etapie ich wydajność to wróżenie z fusów. No chyba, że ktoś nas oszukał, albo NV natrzaska tych kart po kryjomu, do magazynów, aby potem opóźni premierę, co brzmi durnie :D


  6. Godzinę temu, Karister napisał:

    Woda w PC - buech. A dolewanie to rak. :D Miałem raz i nigdy więcej. Ja trzymam kciuki, że 4090 nie przekroczy tych 350W po UV.

    Oj, coś mi się wydaje, że ta korekcja plotkowanych wartości poboru prądu to już jest właśnie UV. Bardzo optymistyczne podejście moim zdaniem. No chyba, że nie przeszkadza Ci strata 20-25% wydajności względem tego co ten chip osiągnie jak mu nie żałować prądu i nawet trochę podkręcić. 
    Oczywiście mówię tu o "worst case scenario"


  7. 2 godziny temu, Minciu napisał:

    Drugie tyle na klimatyzację dodaj co komp wciąga. Bo jak kończy się zimą i masz grzałkę w pokoju 1KW to nic przyjemnego.

    Wieczorne godziny ostatnio 2x z rzędu było już 3.8zl za 1KWh. 

    Jak prąd zdrożeje z 50gr do 2.5 to wszyscy będziemy się cieszyć że tak tanio i jeszcze jako tako lodówkę z prądu nie wywalimy. 

    Ale jeśli masz płacić 5-8zl za godzinę grania. A grasz 4-6h. I w domu ktoś jeszcze drugie tyle obok albo w innym czasie dorabia kolejne 4-8h bo  klimatyzacja to kompensuje, to miesięcznie ile wyjdzie za zabawę?

    10h dziennie po 8zl/1h razy 30 dni, daje jedyne 2000-3000zl na miesiąc. 

    Cena hipotetycznego RTXa z podejściem nie ma ograniczeń to pryszcz przy rachunkach za prund jakie wiszą w powietrzu. 

    Kogo stać na to? Sugerujesz, że bogaci są bogaci bo nie szanują pieniędzy?

    E no, stary. Rozumiem przerysowanie, ale bez przesady.
    Póki co ja na przykład płacę jakieś 70gr z kWh. Ostatni rachunek to 180zł za dwa miechy. Owszem, zużywam mało, mieszkam sam. Ale to jest za wszystko.
    OK, podwyżki będą. Pewnie kosmiczne. Za rok czy dwa będzie 4x drożej.
    No ale gdzie do 8zł za godzinę. Przy tym to inflacja osiągnie takie rozmiary, że te 8zł nie będzie już osmioma złotymi z dzisiaj. No ni cholery te wyliczenia się nie sprawdzą.
    A przypomnę, że mówimy o kartach typu ta "wyplotkowana" karta na pełnym chipie,  w wersji jakiejś "monster" o której ploty mówiły, że 600 czy nawet 800W. To karta do zadań specjalnych. Moża za 12000zł, a może za 20000zł. 
    O ile w ogóle, w grze tyle karta pociągnie, bo na to jest raczej mała szansa. "Zwykła" 490tka moim zdaniem średniego poboru prądu na poziomie 550W nie przebije.

    To jak założyć, że cena skoczy o 4x to zakładając dziś 80gr, daje 3.20zł za 1kW. To 1,76zł za sam pobór karty, a trochę mniej za różnicę w tym poborze do kart "zwykłych", gdzie w grze zje powiedzmy 200W. To wtedy mamy dodatkowe 350W.  To daje nam liczbę 1,20. O złotówkę z groszami płacisz więcej za godzinę grania. Dorosły facet, którego stac na kartę za 15000 to raczej sporo pracuje i nie ma czasu grać po sto godzin miesięcznie. Dajmy na to, że se pyknie po godzince po pracy i po 4 godziny w sobotę i niedzielę. To ok 60-70zł na miesiąc. Zakładając, że ten ktoś ma AŻ TYLE czasu na granie. To jest 850zł za rok grania. Taki ktoś, kto kupi kartę za 15000, to wydaje tyle na dwie butelki wina, lub na popielniczkę do salonu.

    • Like 1
    • Thanks 1
    • Upvote 2

  8. Ale ponoć w tej nowej serii kart od NV, będą sporo większe i poważniejsze. Tak zdaje się sugerować kudłacz z Gamer Nexus, który gada z ludkami od zasilaczy, którzy coś tam mogą wiedzieć. Nawet jak Kopite'owi nie wierzysz.
    Już w serii 3000 to było większym problemem niż kiedykolwiek wcześniej.

    PS. Ja prawie dekadę temu kupiłem Enermaxa Platinum 750W, absolutny Mercedes tamtych czasów. A teraz wychodzi, że nawet do kompa high-end z jednoukładówką (GPU) się nie nadałby, nawet pomijając kwestie starzenia się sprzętu. A ja myślałem kiedyś, że takiego zasilacza to nikt nigdy poza SLI nie będzie potrzebował :D
    Teraz wychodzi, że potrzebny nie dość, ze mocny, to jeszcze z tych nowszych, które lepiej sobie radzą właśnie z tymi szpilkami. Jeśli plotki by się potwierdziły, to skoki na 4090 po lekkim OC mogą nawet przeskoczyć granicę 1000W i to zauważalnie. To już problem, bo się ludziom będzie gra wykrzaczać a nie będą wiedzieć czemu.

    • Confused 1

  9. 14 godzin temu, sideband napisał:

    Nie wiem skąd te 600w.

    Nawet 4090ti nie będzie mieć takiego TDP.

    Raczej chodziło o chip, który będzie też w modelu 4090. 
    Może Titan albo inne GPU do obliczeń, może 4090ti jakieś w przyszłości. TDP jakie wytrzymuje układ to niekoniecznie musi być pobór karty, a i pobór karty nie jest określany jednym standardem. TBP, TDP, TDi i PKS ;)

    Do tego obecnie produkowane chipy GPU, a nawet chipy w smartfonach, potrafią pobierać znacznie więcej prądu niż oficjalnie, o ile obciążyć wszystko maksymalnie w jednej chwili.
    Takie samo GPU może brać 300W w grach , 400 w jakichś obliczeniach czy benchmarku, a ktoś zarzuci taki komplet obliczeń, że się zrobi 800W, z tego samego GPU.
    Na koniec te "transients", czyli skoki poboru o 2-3x na mikrosekundy.
    Za dużo zmiennych, więc "pożyjemy, zobaczymy"

    Ja nie sądzę, żeby te plotki Kopite'a były bzdurami. Producenci zasilaczy już coś brzęczą. Coś jest na rzeczy, że pobór prądu tej generacji będzie najgorszym jaki kiedykolwiek pojawił się w jednoukładówkach. I jak o mnie chodzi, to ja jestem za. Niech nawet to bierze średnio 700W w grach (no to moim zdaniem jest absolutnie nierealne, ale dla przykładu) to i tak wolę, żeby na rynku była taka karta niż, żeby ludzkość musiała czekać 2-4 lata aż taka sama wydajność pojawi się w "normalnych" kartach. Kto bogatemu zabroni. A do salonów arcade VR to ja bym chciał, żeby dawali karty po 1000W, z chłodnicą od Stara, z szuszarą o hałasie dmuchawy do liści. Nie ważne. Byle było te 8000x3500 rozdzielczości w VR przy 120fps bez interpolacji i reprojekcji. 
    Chcę też czytać o super kartach, dla przyjemnośći. Nawet jeśli nigdy nie kupię zasilacza 1000W ani karty za 4000zł, o 14000zł nie mówiąc. Niech robią, niech pchają postęp i możliwości technologii. A pobór prądu to nie problem. Nawet jeśli opłaty za prąd wzrostną z ok, 50gr z kWh do 2.5zł. Nawet wtedy dla starych dziadów jak my, którzy nie mogą grać po 4 godziny dziennie, to i tak żadna różnica, szczególnie w dobie cen sprzętu z kosmosu. Jak ktoś wspomni, że karta 64bit za 500zł bierze 300W w grach to zrozumiem. Ale jak karta za 8000 bierze 500W, to nie widzę problemu. Jak kogoś stać na taką kartę, to stać go na wielką budę i WC podpięte do całej instalacji ogrzewania domu ;) 
    4090 to nie będzie karta za 4000. No nie oszukujmy się. Już widzimy ploty porównujące... nie do 3090 a do 3090ti, które miało cenę tak z kosmosu, że aż wyszło poza naszą galaktykę
    Mówimy o cenie 11000zł. 
    Taniej niż 11000 to może być 8000. Może być 9000. Moooże 7000.. Ale na pewno nie 4000. Przy cenie 10000 za kartę,  zmiana budy, płyty i całego systemu WC to jest drobnostka.

    Ja to nawet bym chciał, żeby jak nowy ATX 3, wprowadzili jakiś nowy standard dla kart 800W+. Niech będzie inny kształ, żeby karta była tak zamontowana, że da się na tym postawić 10 kilową wieżę z metalu, z wentylatorami  25cm na tym :szczerbaty:
    W zimę "farelka" się przyda. Na lato to może modele z dedykowanym klimatyzatorem od razu ;)
    Nie no, serio, na moje to niech robią i karty 2kW.


  10. Ale offtop :szczerbaty:

    Ja od prawie dekady mam uszkodzony słuch i się nie interesuję tematem jakości dźwięku, a Creative nadal robi dobry sprzęt, do którego zatrudnia wiecznie pijanych studentów, którzy nie potrafią napisać porządnych sterowników? :D

    Co do kart na USB, to radzę się rozeznać jak ktoś chce na nich grać. Dawno temu to czytałem i może się zmieniło, ale wątpię: USB oznaczało dodatkowe opóźnienia, co w dobie gier, które i tak mają laga na dźwięku 3x większego niż kiedyś, bo jest moda na wielowątkowość i dźwięk dostaje niski priorytet, może być problemem. Nawet jak się wydaje, że nie przeszkadza. Np. feeling ze strzelania jest jednak całkiem inny jak dźwięk jest natychmiast, w porównaniu do "dźwięk jest OK okiem laika". 
    Do tego dochodziły problemy z obciążeniem CPU, co może w średnich fps nie wyjdzie, ale w 0,1% low już tak, więc jak ktoś gra z v-sync ON, to może nie być zadowolony z karty na USB. Info pochodzi sprzed 5 lat jak nie więcej, więc może dokonali jakiegoś cudu. 
    Poza grami - pełna zgoda. Lepsza jakość dźwięku i kompatybilność. Swojego Audigy 2 już nie poużywam, bo nie ma gniazd PCI. Kilka lat temu czytałem, że stare karty na PCI-E też mają jakieś problemy z nowymi płytami czy OSami.

    Ja kiedyś pół wakacji zapierdzielałem w upale aby dozbierać do Sound Blastera AWE 64, a dziś to jedyny wymóg mam taki, żeby mi nie srało dźwiękami zakłóceń (np. jak się CPU czy GPU mocno męczy) głośniej niż dźwięk w grze. Jak ktoś chce być zadowolony z integry to polecam dużą petardę blisko ucha i do końca życia nie będziecie potrzebować dedykowanych kart, DACów itp. ;)


  11. @Krzkra
    Na "normalnych" w sensie, że te forum to forum-widmo. Chodzi mi o "normalne" na te dzisiejsze czasy. Czyli z naszego punktu widzenia nienormalne, bo tutaj to siedzą stare dziady głównie, co pamiętają pierwsze lata XXIw. i jaki był wtedy internet i klimat na forach. ;) Zostały niedobitki. Te forum widmo, jakaś "samoobrona" przed trumną FrazPC itp. ale to jest nisza. 

    @*** ChOpLaCz ***
    Chodziło mi z przykładem chciwości korpo o to, że RT mamy kochać i bulić grubą kasę na drogie karty, bo taki zajebisty postęp, a jak się wgłębić w temat, to wychodzi, że postęp i rewolucja to jest tylko dla developera i jego wydawcy, bo niższe koszty stworzenia gry. Fani czy raczej wyznawcy RT argmentują, że to tez zajebista zaleta, bo gry będą tańsze i lepsze przez to. I podałem przykład jak jest i jak będzie z tym tańsze. Pamięta ktoś jak cyfrowa dystrybucja miała być dobra dla graczy bo mniejsze koszty dla wydawcy, bo nie ma pośredników, płacenia za magazyn, okładki i transport? A co wyszło? Ano odwrotnie. Cyfrowa jest droższa, ucina odsprzedaż używanych gier i do tego wrażliwa na wyłączenie dostępu do gry, za którą się zapłaciło jak za zboże. Te niższe koszty developingu dzięki RT to może coś dadzą w grach indie, bo ci nie mają czasu się męczyć z udawaniem realistycznego światła bez RT, ale znowu się pytam - PO CO w indykach realizm. No poza horrorami, ale tutaj to ja się zachwycałem światłem w Silent Hillu na PS2. Już tam wsytarczająco fajnie i strasznie to działało. A jesteśmy kilka generacji jakości oświetlenia dalej. No to wychodzi, że nie zostają praktycznie żadne argumenty. Ładniejsze odbicia to spoko, jak będą za 10% wydajności, a nie za 3000zł dopłaty i koszt 50% wydajności.
    Jak ktoś nie ma kasy na drogi developing to może zrobić grę gdzie doba nie trwa pięć minut i można zrobić "baked lighting" i będzie nie gorzej niż super duper RT, tyle, że statyczne. A dziś to nawet do wyścigów na trasy w dzień (Gran Turismo) dają dynamiczne, cholera wie po co, a potem te Gran Turismo na PS5 wygląda w kwestii wyglądu tras jak jakaś gra na PC z kilkoma modami, odpalona na sprzęcie sprzed dekady. Bo ktoś dostał pierdolca na punkcie oświetlenia i mu się wydaje, że każdy gracz ma takiego samego i tak musi być. Twórcy Project Gotham Racing 4 się chwalili, że ten problem rozwiązali przygotowując gotowe oświetlenie, ale mieli problem z upakowaniem danych. Gra miała od cholery tras. W słońce, w deszcz, miasta, Nurburgring, no bardzo dużo contentu. I co? I zmieścili to na dwóch płytach DVD. Przypomnę, że to razem 18GB. Przy czym nie wiem ile z tego zajmowała gra faktycznie. Mogło być sporo mniej. Dodajmy do tego dostępną dla developerów kompresję, która pozwala zaoszczędzić. To się zrobi jakieś 10% średniej wielkości współczesnej gry. Czy w ścigałce wolę poczekać 5 minut na insalację czy mieć 2x mniej fps i wymóg posiadania karty za 7000 zamiast za 1200zł? Cóż za trudny wybór ;)

    Co do przykładu z marketingiem - to ja uważam, że to absurd jak są takie proporcje. Może przerysowałem, ale nie wiele. Chyba 50mln na grę i 200 na marketing było. To jest kretynizm, choć rozumiem, że marketing jest cholernie ważny. Ale nie tak, żeby dawać mu 4x więcej niż na stworzenie gry. Za tyle to można zrobić 3 gry z tańszym marketingiem, albo dać w grę 4x więcej i zrobić taki wypas, że bez marketingu cały youtube i twitche będą tym zawalone i każdy będzie o grze wiedział i tak. 
    Tak się przecież rodziły legendy kiedyś. Bez marketingu za setki milionów. Czasy się zmieniają, owszem, ale youtube, twitch i nawet strony z memami to jest ogromny, ogromny potencjał w marketingu viralowym.
    Nie interesuję się Soulsami, a memy z Elden Ring widziałem ze dwadzieścia razy. Bo twórcy zrobili sobie renomę i teraz każdy youtuber będzie gadał o ich grach. Tak to też może działać. Ogólnie jestem jak pewnie zauważyłeś uczulony na corpo i ich podejście, bo popsuli mi te hobby okrutnie. Battlefield 2042 wystarczy. BF2 to ja mam do dziś w podpisie. BF2042 nawet nie zamierzam instalować jak dadzą za darmo. O studiach które upadły przez korpokrawaciarskie durne zarządzanie to nie ma co mówić, bo się zrobi atmosfera jak na pogrzebie. ;)





    A co do tego, że się obok chłopaki kłócą o te 600W. Pamiętajcie  o tych szpilkach w poborze prądu. Tzw. "transients", o których zrobił video kudłacz z Gamer Nexus. No i o power limits. Nie zdziwię się jak szpilki będą i do 800W na 4090, a pobór 600W możliwy jak odblokujesz na karcie z odpowiednim PCB i ogromnym chłodzeniu wodą. Że 600W będzie utrzymywane w grze przy chłodzeniu jakimiś trzema wiatraczkami to chyba nikt nie wierzy. 

    • Upvote 2

  12. Kurde, jaka różnica. Wszędzie na "normalnych" forach typu reddit nie można nawet pisnąć, że się nie jest wielkim fanem ray-tracingu, albo DLSSu, a tutaj forum dziadków z muzeum (btw. Siema Sideband ? ) i sobie czytam komentarze tutaj i widzę, że raytracing jest bez sensu na tym etapie, że ktoś chce gier ładniejszych a nie realistyczniejszych, że DLSS jest przereklamowany a w sumie praktycznie bezużyteczny. 

    No, znalazłem "swoich" w końcu :)

    Wcisnę się w dyskusję:

    Ray-tracing
    Ray-tracing jest bez sensu na tym etapie. Będzie miał sens jak pojawi się jakiś przełom w technologii. Przypominam, że RT obciąża także CPU, które idą do przodu jakoś tak w ciągu dekady o tyle o ile my pamiętamy z lat 90tych, jak szły do przodu w rok. 

    Nie podoba się to masz RT OFF

    Nie zgodzę się z argumentem, że "to dla ciebie jest opcja RT OFF". No właśnie nie bardzo. Przypomnę taki przykład jak wchodziły ok. 2005r. efekty typu HDR bloom. HDR mocno obciążał sprzęt. Ta sama grafika mogła wyglądać podobnie na karcie o całą półkę wydajnościową albo i dwie niżej, bez HDRu. Ale w takim Test Drive Unlimited i wielu, wielu innych grach, po prostu nie przygotowano tekstur itp. dla wersji bez HDR. Efektem tego były po prostu czarne plamy. I teraz jak ktoś by się zaczął interesować grami dopiero od tego momentu, to by mógł pomyśleć, że HDR bloom jest konieczny, bo bez tego grafika wygląda do dupy, są ciemne plamy bez żadnych informacji. Tymczasem gdyby autor gry przygotował assety pod wersję bez HDR bloomu, to tekstury by tam się  znalazły. 

    Z RT jest podobnie, tylko bardziej. Jeśli zaczną wychodzić gry z RT, to bez RT mogą wyglądać jak na sprzęcie sprzed 20 lat. Już Nvidia tradycyjnie zła i skora to kłamstw, pokazywała to u siebie reklamując RT własnie porównując do wersji bez wykonanej pracy nad oświetleniem i cieniami "starą metodą". 


    Ale.. to POSTĘP! Chcesz zatrzymać postęp?!

    "Postęp". Owszem, ale

    - tylko dla developerów. Jako człowiek marzący 25 lat temu o raytracingu na żywo i możliwości tworzenia superrealistycznych renderów samemu, wiem jak trudno zrobić "oszustwa" w odbiciach, cieniach itp. żeby to wyglądało jak w rzeczywistości. I oczywiście ray tracing byłby czymś co bym bardzo, bardzo chwalił gdybym się dziś miał bawić w modelowanie scen i obiektów w 3D Studio MAX czy jak się to dziś zwie. I oczywiście, że zaoszczędza do masę pracy developera gry. I oczywiście, że są tego zalety. Tylko jeśli gra kosztuje 50mln dolarów, a na to jest 300mln dolarów kosztu marketingu i wynagrodzenia dla korposkur.. korpokrawaciarzy powiedzmy, to naprawdę nie można uznać tego jako argument, że gracze na tym skorzystają. Mamy czasy gdy grę z PS3 wydali na PS4, a teraz wrzucili do nowego silnika, trochę przy tym podłubali i sprzedają za 70€. Grę, w której mieli gotowy scenariusz, modele, design lokacji, gameplay, 2/3 gry gotowe. Czyli koszt utworzenia gry był o 2/3 mniejszy. Do tego koszt marketingu mniejszy. I co z tego wyszło dla graczy?
    - postęp, ale TYLKO w oświetleniu. Po pierwsze są ludzie jak np. ja, którzy nie tylko nie uważają, że realizm jest konieczny, ale nawet uważają, że gry oświetlone w czasach PS2, x360 i PS3 wyglądały lepiej, właśnie dlatego, że były inne od tego co za oknem, dlatego, że bardziej cieszyły oko kolorowymi ale nie pstrokatymi i nie infantylnymi kolorami, dlatego, że pozwalało to aby każda gra miała swój unikalny wygląd, i nie było tak szaroburo jak za oknem, bo za oknem mam idealny ray-tracing a jakoś nie mam przyjemności podziwiania widoczków. Po drugie, ten postęp w oświetleniu odbywa się kosztem czegoś innego. Tak jak AMD zrobiło pierwsze dwa ZENy tak, że była dobra wydajność wielowątkowa, a co dziś jest jasne, odbyło się kosztem wydajności jednowątkowej. Tranzystory dziś dodane jako pamięć cache jasno pokazują, że są zastosowania gdzie np. 3rdzeniowy ZEN z dużym cache, wypadłby lepiej od takiego np. Ryzena 1800 czy nawet 3800. Podobnie jest z GPU. Te superrozbudowane shadery, te superrozbudowane bloki AI/RT itp. To wszystko jest postęp z jednej strony, ale zajmuje miejsce i pobiera prąd z drugiej. Ile szybciej dostalibyśmy duży cache w GPU gdyby nie pęd za realistycznym oświetleniem? Ile więcej geometrii i klatek uzyskalibyśmy gdyby nie pchać całej mocy w oświetlenie? Nawet przed RT było to bardzo widoczne, bo cała era gier na PS4 to był super realizm, ale popup i detail pop-in tak masakryczny, że się Turok w 1997r. przypominał. Dla mnie, na ten przykład, bardziej psuje imersję to, że widzę jak mi się cienie nagle pojawiają 200m od kamery czy drzewka wskakują jak gdzieś lecę, niż brak realizmu w oświetleniu. 


    Psychologia wkraczająca w debatę o RT

    Jest jeszcze kwestia psychologii. Otóż człowiek tak ma, że powtarzając coś, wzmacnia połączenia neuronowe w głowie. Innymi słowy, zaczyna być bardzij wyczulony na to, co go absorbuje przez dłuższy czas.
    I tutaj pojawia się rozbieżność pomiędzy graczem a developerem.
    Ci pierwsi wcale nie chcą tak gremialnie ray-tracingu jak się developerom wydaje. A powód jest bardzo prosty:
    Jeśli spędziłeś 5 lat na nauce sztuki rysowania/malowania czy szkolenia się na filmowca w zawodzie "oświetleniowiec" to wiesz wszystko o tym jak pada światło, jak się tworzy cień. Jakakolwiek wada w tej kwestii od razu cię będzie razić. To samo będzie miało miejsce, jeśli jesteś fotografem amatorem lub po prostu tak się złożyło, że mocno się zafiksowałeś na tym np. oglądając masę prezentacji developerów i opracowań digital foundry. 

    Tymczasem gracz, w większości tego NIE będzie dostrzegał. I to, co tobie, ekspertowi od światła, dyskwalifikuje grę, będzie pierdołą nie wartą wydania 1zł dla takiego gracza I co teraz? Kto ma rację? Ekspert od światła bo się zna lepiej? Ano nie. Gracz. Bo to on gra i to jego opinia się liczy, i to czy mu się podoba czy nie podoba.

    Miałem kolegę. Grafik 3D. Pokazuję mu zajebistą grafikę na moim kompie. Lepsza niż cokolwiek na konsolach a nie posiadał dobrego PC więc nigdy lepszej nie widział. Wysoka rozdziałka, MSAAx4, 120fps zablokowane z v-sync. No cud malina. Ja się zachwycam i gram drugi tydzień. Odpalam i mu pokazuję. Zero zachwytów. W końcu pytam czy mu się podoba, a tu szok. Nie. Nie podobało mu się, bo grafika jest do dupy, bo artysta wpakował nieumiejętnie tekstury tak, że go razi w oczy tzw. "texture tilling". 
    Ja z kolei jestem uczulony na rozmycie obrazu w ruchu. Jak tylko zobaczę mydło w ruchu, to już ocena grafy mi spada do 0/10. Dlatego bez patchy na wyłączanie TAA to nawet do współczesnych gier nie podchodzę. Ten psychologiczny mechanizm występuje u chyba wszystkich. Dobrze mieć tego świadomość gdy kłocimy się z innymi czy coś wygląda super czy do dupy. 

    Wracając do RT. Dodajmy do tego jeszcze programistów, którzy się po prostu interesują obliczeniami światła i jest to po części ich hobby. I tych, którzy w teamach developerskich rozmawiają z ekspertami od światła i bez zastanowienia przyjmują ich narrację. Na koniec tych co ogólnie grają tylko w gry realistyczne, bo z jakiegoś powodu nie lubią tych pozostałych, co bardzo często wynika z tego, że się sparzyli na czymś albo mylnie generalizują np. "nieralizm? To gry dla dzieciarni ala Nintendo i ich Mariany, Kirby itp.
    Dlatego wydaje się, że RT ma przynieść rewolucję i wszyscy są podekscytowani.
    Każdy chce RT i każdy uważa to za rewolucję. 
    No właśnie nie. Nie każdy. A na pewno nie większość graczy. 

    RT i falstart o conajmniej dekadę lub dwie

    Tymczasem realia są takie:
    - RT obciąża CPU i powoduje obcięcie geometrii o generację lub dwie do tyłu. Przypomnę, że klockowaty Minecraft w RT nie przekracza 30fps na 2080ti a na 3090ti nie osiąga 60fps w 4K. 
    - RT wygląda nadal do dupy. Odbicia są ziarniste jak cholera, a jak nie, to mamy do czynienia z grafiką w low-res i grą ala Minecrafcik czy inny Quake sprzed 25 lat. 
    - pogarsza się latency oraz jakość obrazu w ruchu, bo już są pomysły, aby w ruchu ciąć jakość, żeby te RT jakoś chodziło. Cofamy się do 720p jak chcemy pograć w strzelankę na myszce, gdzie przydałoby się ze 200fps. Ogólnie o graniu we współczesnej rozdziałce i 120fps nie w grach z konsol z roku 2013, to można zapomnieć nawet na 3090.

    Moim zdaniem kiedyś mieliśmy S3 Virge jako akcelerator. No to 2080ti to dla mnie taki S3 Virge raytracingu. 3090to to jakiś Matrox Mistake, na którym cośtam już nawet jakoś chodziło, ale dopiero VooDoo i jego 2-3x lepsza wydajność była tym, od czego bym powiedział, że akceleracja zaczęła mieć sens i zasługiwała na określenie "postęp, game changer". 

    Pograłem z RT na 3060 w Quake'a. Wygląda jak dupa zza krzaka. Gralem w 20fps z jakością na max, i w ustawieniach dka płynności. Nie wyglądało to nawet tak dobrze z tym "full RT" jak Medal Of Honor z roku.. chyba 1999 czy 2000. To nadal zabytkowy Quake 2, tylko że z RT. 

    Na PS5 pograłem w Ratcheta w trybie RT. No, fajnie, statek wyglądał fajniej, kilka innych elementów. Ale gra miała problem z 60fps w 1080p. Efekt spoko, ale to jest dla mnie nie warte dopłaty więcej niż 200zł do sprzętu. Już większe "rewolucje" dawała zmiana karty z Pixel Shader 1.3 an PS 2.0c. Albo z 7800gtx na 8800gt, bo w końcu można było pograć w wyższej rozdziałce i z AFx8 bez problemu, co robiło różnicę, albo można było pograć w coś "nextgen" jak Crysis.

    Z DLSS podobnie. Kaleczy obraz w ruchu, powoduje, że ginie to czym PC górował nad kartoflanymi konsolami typu PS4/Xone kiedyś - opcją grania w natywnej, bez "mydła". na ekranie. Ostro, wyraźnie, poprawnie. DLSS jeszcze może się czasem bronić, jak chcemy np. 480fps to żadna karta tego nie ogarnie a są już takie monitory. Jak gra ma dobre opracowaną współpracę, wektory ruchu pasują itp. to jest to jakaś opcja i nie nazwę tego całkiem bezużytecznym. Ale mało użyteczna to odpowiednie słowo i absolutnie nie uważam tej fukncji za coś super atrakcyjnego przy wyborze karty. Za to wszystko inne, konsolowe checkerboardy, FSRy 1 i 2.0, TAA - to już nie tylko bezużyteczne ale po prostu psujące obraz i wolę orać oczy pikselozą niż to włączać. Jakość obrazu w ruchu jest jak zmielona setką odtworzeń kaseta VHS.

    Tymczasem "eksperty" z Digital Foundry pchają narrację, że RT to rewolucja jakiej nie było od dekad, a wszystko co nie ma TAA/FSR/DLSS czy innego "temporal upscale" badziewia, to kod przestarzały i zasługujący na potępienie, bo jesteśmy w erze "post resolution" (taa. jasne) a AI to przyszłość.
    Cóż. Jakby ktoś mnie pytał, to ja serdecznie chrzanię taką przyszłość.
    W 2010r. to ja myslałem, że w 2020 będziemy grać w 8K i 400fps. A nie 1080p 45fps na 3090ti, przy geometrii z roku 2013 albo i 2005.

    A kończąc na powrocie do tematu: Ciekawe jak będzie wyglądała realna wydajność w porównaniu do tej z DLSS i RT na kartach 40xx. Bo coś mi mówi, że ten superpostęp o 2x to zobaczymy raczej tylko w RT, a o wpływ tych megabajtów cache na wydajność w grach "zwykłych" to się mocno niepokoję. Oby ten megapostęp serii 4xxx nie okazał się przełomem tylko dla developerów i grafików 3D, którzy na bank będą zadowoleni z real-time podglądu w viewporcie. 

    • Like 4
    • Haha 2
    • Upvote 2

  13. 10 godzin temu, dawidoxx napisał:

    Jest tak wiarygodny jak te jego "przecieki" w maju które zwiastowały premiere na lipiec :E 

    Eee, w takie rzeczy to chyba nikt nie wierzył.

    Co do opóźnień, to myślę, że Nvidii się spodobało jak ostatnio była atmosfera niedoborów. Dla marketingu to plus: "patrzcie jak rozchwytują!" a jak dana karta 4xxx będzie miała wydajność 3xxx w cenie tej 3xxx to już "hype" jakby nie ten. (np. 4070 i 3080ti)
    Osobiście zgaduję, może nietrafnie, że plotki o tym, że nowe Radeony nie "dowiozą" mogą być prawdziwe, a na pewno AMD nie zaleje nimi od razu rynku bo oni już mają taką tradycję, że są z premierami nawet udanych kart trochę jak pan Waldek, co się nie boi, bo cały naród za nim stoi. Trochę by chcieli, ale jacyś tacy niezdecydowani.

    Także prawdziwa premiera faktycznie może się trochę przesunąć.  Albo i nie. 
    AMD może nie być w stanie powalczyć z 4090 to raz.
    Dwa, że poza Pimaxem 12K też nie bardzo ludzie mają po co kupować taki odrzutowiec, a ten Srajmax wyjdzie pewnie dopiero w 2023.
    Nie śledziłem zapowiedzi. Wyjdzie jakaś gra na EU5 w tym roku?
    Ostatnio NV nie miała pomysłu, to reklamowała 3090 jako "karta do grania w 8K" ale mało kto się nabrał ;)
     


  14. E, czemu.

    To wszystko się pewnie zmienia do ostatniego momentu. Gość może podawać prawdziwe info na dany dzień. 
    Mam nadzieję, że info o 160bit w 4070 się nie potwierdzi, bo to ewidentnie jest karta, która powinna się nazywać 4060, ale myślę, że gość jest conajmniej jako-tako wiarygodny.
    Fajnie, że pamięć trochę przyspiesza. 21.5 to było straszne skąpstwo gdy za kilka miesięcy wyjdą 24-26.

    Jest już dosyć blisko premiery, więc teraz różne plotki będą coraz bliżej prawdy.
    Ja się bym nie zdziwił jakby w grach 4080 miała te 300-340 (czyli np. 360 z gniazka, jak rozumiem) ale ze skokami do tych sugerwanych przez poprzednie plotki 400-500W.


  15. Witam

    Przejrzałem oferty mocowań na allegro i olx i nie zadawala mnie żadna, choć cudów nie oczekuję.

    mocowanie:

    Najchętniej Kiwi strap, ale 250zł to zdecydowanie za dużo, więc tylko jak ktoś zejdzie mocno niżej, albo zaoferuje wersję z wbudowanym już powerbankiem.

    Mogą być też inne. Na allegro są jakieś chińczyki za 150, jak tu: https://allegro.pl/oferta/opaska-na-glowe-do-oculus-quest-2-pasek-na-rzep-12439946502 ale obawiam się, że to się rozleci po godzinie, do tego nie wiem czy dają to co kiwi z podłączonym akumulatorkiem, czyli odciągnięcie calości na tył głowy co poprawia balans i komfort.

    W ostatecznośći sam silikonowy koszyczek, jak nie znajdę dobrej oferty, takie coś co się przymocowuje na tylnej części oryginalnego paska, aby pasek się mniej ślizgał i bardziej opierał o potylicę

     

    Co do kabla: Jakiś, na którym nie będzie problemów typowych dla najtańśzego badziewia. Na allegro ciężko wyczuć. Wolę od kogoś z forum. Za 60-100zł myślę że powinno się dać kupić coś normalnego, a nie badziewie.

    - wtyczki nie mają odpaść po tygodniu

    - nie ma być problemów z rozłączaniem, niezależnie od tego w co gram i na jakim PC (zgaduję, że tańsze kable są kapryśne i na portach USB które dostają ciut gorsze parametry, są problemy)

    - jakość obrazu musi być taka jak na oryginalnym kablu Oculus Link, nawet po podbiciu ustawień przepustowości na 300. Nie wiem czy tu się objawiają wady tanich, ale zgaduję, że mogą, jeśli trasnfer jest niestabilny

    - ma mieć 5m

    - fajnie jakby kabel nie był wykonany z rury od szamba, z wagą dwóch słoni i elastycznością starczającą na trzy kroki a potem już w środku pęka ;)

     

    Ewentualnie powerbank, ale z naciskiem na ewentualnie. Piszcie jak macie coś co się da przymocować na tyle głowy jak na obrazku ac801ad961681462a898820328c60559.png

     

    PS. Nie wiem czy wolno niekomputerowe, ale na upartego to może tam być elektronika jakaś;)

    Chętnie kupię ozonator. Cztery chińskie płytki o wydajności nowych, tyle z wydajności jakiej potrzebuję, bo podawać chińskich cyferek nie ma sensu. Może być właśnej roboty albo coś lepszego. 


  16. No nie do końca. O meblach się nie wypowiem, bo mam jakieś zabytkowe badziewie, któremu już nic nie pomoże ani nie zaszkodzi ;)

    Ale ozonowanie owszem, może popsuć. Tak samochód jak i elektronikę. W końcu to rozwala elementy gumowe itp. W aucie możesz zamienić np. ten materiał/gąbkę/whatever na dachu w próchno które się po prostu posypie po trzech mocnych ozonowaniach tak jakby auto postarzało się o 40 lat. 

    Z elektroniką można też narobić szkód. 

     

    Ale wszystko zależy od ilości ozonu i od czasu. Co innego jak w powietrzu jest trochę ozonu przez 10 minut, a co innego jak pierdolniesz 4 płytkowy ozonator do samochodu, uszczelnisz, i zostawisz włączony na pół godziny i otworzysz 2 godziny później. Po takim czymś prawie gwarantowane, że sobie rozwalisz coś i to konkretnie. Niekoniecznie od razu to będziesz widział, ale się nie zdziw  potem jak zacznie się coś pruć. Poza tym w autach coś tam czytałem o kilmie czy nawiewie,  o zamykaniu, bo coś uszkadza itp. ale to mnie nie interesuje, bo nie mam auta, więc tylko mi się obiło o oczy i ominąłem. Googlowanie powinno pomóc. Nie jestem pewien, ale dyskusję o tym czytałem chyba po polsku. Gdzieś. 


  17. Nie. Mam konto na allegro od ponad 20 lat i nie będę sobie robił negatywów Januszowaniem. Zresztą to nie jest w mojej naturze robić ludzi w ..ja. Nawet jak są oszustami, bo czym wtedy jestem lepszy od nich? 

    Bycie jednym z tego wymierającego gatunku ludzi "w porządku" to moja największa zaleta. Fajnie jest mieć do siebie szacunek patrząc w lustro. Także nie, nie będę niczego wyłudzał.

    Co do Ali - no tak, wiem, że podobny szajs. Tylko ten problem z terminem. Żebym miał pewność, że dotrze.

     

    A nie pożyczyłby ktoś za opłatą? 

     

    Co do usuwania przyczyny - no tak, ale nic nie wyłazi mimo roku ponad. To może przyczyna już usunięta tylko nadal tego syfu zostało na ścianach i może pod deskami schodów. Jak przeozonuję tak konkretnie, to będę wiedział na pewno. Zerwanie schodów to ogromny (dla mnie) koszt. Dębowe, fajne schody zresztą. Ponad 30 letnie i nadające się do renowacji, ale jednak szkoda jakby się miało okazać, że jednak pod nimi grzyba nie było. No i wyremontowana klatka byłąby znowu do remontu bo zrywanie schodów rozwali tynk wokół konkretnie. Potem koszt kładzenia nowych schodów, bo to nie tak, że się da zamontować stare znowu po rozbiórce. 
    Najpierw spróbuję z ozonem, a potem będę się bawił w rozbiórkę jak będzie trzeba. 


  18. Tak, tylko moc szkieł odpada, bo przecież zaczęło się przy dokładnie takiej samy mocy szkieł. Nowe miały dokładnie te same szkła co stare, w sensie mocy.

    Zresztą różnica o 0.25 to jest nic. Widzę w tych najnowszych OK, i tak mózg mam tak rozwinięty, że lewe oko i lewa ręka są niezbyt używane. Zresztą jak mam używać przy monitorze jeśli się siedzi z bliska. No nie da się. Dlatego ludzie kupują duże TV do gier i filmów zamiast podsunąć się do monitora bliżej, bo im dalej tym podobniejszy obraz widzi lewe i prawe oko. Naturalne jest, że jak masz monitor na wyciągnięcie ręki to czytasz jednym okiem. Mózg się skupia na tym i z niego korzysta. Dlatego oczywiście mam wadę w prawym oku sporo większą, bo po prostu bardziej się to oko "męczy. Można to, jak ktoś nie wierzy, sprawdzić samemu - zacznij czytać ten wyraz i zakryj jedno a potem drugie oko. Przy zakryciu lewego znika mi tylko to co po lewej od monitora. Po zakryciu prawego gubię wszystko i muszę przełączać się na lewe oko. No to normalne przecież. Także tym bardziej moc szkła w lewym o 0,25 nie będzie robiła problemu.

     

    Babka w punkcie (salonie to za duże słowo) okulistycznym powiedziała, że muszę się przyzwyczaić. No nie sądzę, bo typ bólu jest ten sam co na tych "złych" poprzednich. Mówi, że może poprzednie, te dobre dawno temu, których już niestety nie mam, żeby porównać, mogły mieć zły rozstaw źrenic. Że może jak wiele lat miałem te w których było OK, to może się przyzwyczaiłem do złego rozstawu w tych okularach.

    Ale to bez sensu!

    - przecież jakby mi się zmieniło to bym to odczuł przy zmianie na te złe to bym to poczuł. Tymczasem nie pamiętam żadnych problemów przy zmianie okularów. Miałem od lat 90tych trzy pary i nigdy nie było problemu. Żadnego. Żadnego przyzwyczajania się, męczenia. Nic. Raz szkła były jakby za mocne i trochę to raziło, ale przeszło po 2 dniach, wzrok się "dopogorszył" i dostosował :D

    - te co miałem do tej pory  (złe) powodują taki ból, że efektem jest, że siedziałem w nich jakieś 1-2 godziny na dzień. Skoro się miałbym przyzwycajać do złego rozstawu to jakim cudem bez okularów widzę poprawnie i bez bólu?  Przecież jak chodzę pół dnia bez okularów, jak np. robię coś na dworzu i nie potrzebuję patrzeć dalej, to nic mnie nie boli a poziom dyskomfortu w tych starych-dobrych okularach w porównaniu do "bez okularów" był dokładnie TAKI SAM - zerowy. No ni cholery to się logiki nie trzyma.

     

    Jedyne co mi pomogła ta baba ustalić, to że gówno się zna i muszę szukać lepszego specjalisty. Może kwestia pomiaru tego rozstawu. 62, 62.5, 63, komputer to nawet 65 jednej pokazał, a do tego równo vs. lewe 32, prawe 30. Moim zdaniem tutaj coś jest nie tak.

     

    Co do innych rzeczy. Dawniej robiłem dochodzenia. Próbowałem kłaść gąbkę pod noski, bo może uciska i to jest przyczyną. Próbowałem odginać żeby zauszniki nie uciskały. Próbowałem przechylać okulary w górę czy w dół, bo może coś z kształtem nie tak. I nic to nie dało. Teraz nie będę cudował, bo oprawki do testu wziałem za "dwa złote" i sprawiają wrażenie, że mogą pęknąć. Zobaczę co będzie po kilku dniach. Jak nic nie pomoże to spróbuję odgiąć zauszniki, to faktycznie uciskają. Ale czy uciskają tak, zeby robić problem? No nie sądzę. Bólu nie czuję. Ale fakt, trzymają mocno, więc jest to jakaś nadzieja. Na 90% je połamię próbując odginać, także najpierw spróbuję "przyzwyczaić" oczy, choć nie wierzę w sukces tego rozwiązania za cholerę. A potem to je albo odegnę albo połamię próbując. :D


  19. Siema

     

    Już sam kiedyś sobie zrobiłem ozonator z chińskich części, ale chyba wydajność siadła. Na początku była gęsta mgła w ozonowanym pokoju, a teraz to ledwo ledwo. Cztery płytki dałem. Wydajności nie ma co podawać, bo chiński marketing to 100% ściema.

     

    Teraz bym chciał wedle takich wymagań:

    - musi być tu szybko. Najlepiej tydzień. No góra 10 dni, nie więcej

    - jeśli będzie miał wydajność chińszczyzny, to conajmniej 4 płytki. Płytki z radiatorami, bo to ma trochę pochodzić, a nie się popsuć lub stracić moc po minucie

    - musi móc pracować 40 minut bez przerwy bez awarii/ dużej degradacji

    - możliwie tanio

     

    Co sam znalazłem:

    Znalazłem jakiś na aledrogo za 650zł, taki sam jak markowy za 2000. Zgaduję, że jakaś podróba. Ale podają, że pobór prądu to 200W. No to brzmi nieźle. Cztery płytki ponoć po 5g. Ale poza tym, że to pewnie podróba, to jeszcze są dziwne płytki, takie nietypowe. Obawiam się problemów z wymianą na nowe w przyszłości

    Alternatywa to aliexpress, niektóre mają "wysyłka z Polski", ale mi zależy na czasie, wysyłka i cła itp. nie mogę czekać miesiąc. Tutaj możnaby kupić jakieś dwupłytkowe badziewie za 120zł + opłaty, i dwa takie. Razem z moim starym powinno wystarczyć

    Ostatnia opcja to może ktoś z Was tutaj ma na zbyciu? Potrzebuję jednego z niezużytymi 4 płytkami lub dwa po 2 płytki

     

    Po co mi to

    Moc duża, bo chcę wyozonować całą klatkę schodową w domku jednorodzinnym, do tego przedpokoje na górze i na dole, a ciężko odizolować te pomieszczenia. Będzie sporo "uciekać" na dole i górze.
    Ozon spada na dół, bo jest cięższy od powietrza.  No to wymyśliłem, że walnę dwa ozonatory na raz, jakieś wentylatory (zwykłe, nie te których powinienem użyć, ale trzeba jakoś sobie radzić, a nie wynajmę tych pro, bo to kosztuje, szczególnie rok świetlny od najbliższego dużego miasta). Do tego mam podejrzenia o jakiś głębszy problem. Nie zaszkodzi jak przesadzę z ilością ozonu o np. 50x bo zwykłe ozonowanie próbowałem i jakoś nic nie dało. Nigdzie grzyb nie wyszedł po renowacji klatki schodowej, ale wyraźnie czuć smród pleśni jak się przechodzi, a do tego są efekty - dusi mnie, osłabia, no krótko mówiąc, są wszystkie objawy. Jedyne co zostału to schody. Może pod nimi była woda i został grzyb. Zobaczymy.  Taniej kupić ozonator niż zrywać schody od razu. Jak to nic nie da, to pomyślę. Jak ktoś uważa ten krok za głupi i ma namiary na dobrą firmę odgrzybiającą która nie kasuje fortuny, to jestem otwarty na propozycje. Póki co zaprosiłem jedną, koleś za powiedzenie dzień dobry boleśnie mnie skasował, a jak wycenił etap "rozeznania się" to okazało się, że mój budżet nie wystarczy nawet na sprawdzenie gdzie jest grzyb. No to podziękowałem i sam zdarłem cały tynk, wypsikałem tam gdzie było widać plamy od wilgoci i grzyba, położyłem nowy tynk i pomalowałem. Całą klatkę. Ale problem jest nadal. Z tego co wiem, nie ma żadnych magicznych narzędzi, które wykrywają grzyba pod farbą. Nie wiem. Możliwe, żeby po roku truł ale nie było nic widać, że gdzies wyłazi? Firma musiałaby być z kujawsko-pomorskiego, bo nikt nie będzie jechał 500km żeby se obejrzeć i wycenić usługę.


  20. W dniu 5.08.2022 o 12:34, LeBomB napisał:

    Kto Ci dobierał moc szkieł?

    Czemu mi wywaliło wątek ze śledzonych samo z siebie? 

     

    W każdym razie:

    Wadę wzroku mi mierzył komputer u okulisty

    Wyszło prawe super ostro, ale lewym widzę -jako-tako. Poprzednie, stare okulary miały takie samo szkło, więc od początku mi coś tu nie pasowało, że takie same szkło jak w starych. W każdym razie moc na pewno nie jest problemem, bo przypomnę, kilka lat temu jak brałem te poprzednie, to szkła wypadły DOKŁADNIE takie same. I sobie zmieniałęm w domu raz tak raz tak. Stare - luz, zero dyskomfortu, mogę cały dzień nie zdejmować. Nowe - 2 minuty i już coś czuję, godzina i boli, 3 godziny to już tortury. 

    Ręczne sprawdzenie tymi szkiełkami testowymi co ma każdy okulista - i przy o 0.25 więcej widzę lewym taką żyletę jak prawym. Także wezmę docelowo tą mocniejszą.


  21. Update:

     

    Zrobiłem sobie dla pewności okulary ze szkłami za 70zł ze wstawieniem.

    No i niestety okazało się to słusznym krokiem.

     

    To samo co z poprzednimi - od razu czuć, że coś nie tak, a oczy się męczą. Szczególnie prawe, ale ja jestem praworęczny i ogólnie mało używam lewej ręki i lewego oka, szczególnie, że ostatnio miałem w tych starych okularach sporo rys, przez które w ogóle mało co było już widać, to nie wiem czy to nie przez to, że właśnie prawe oko bardziej "pracuje".

     

    W każdym razie nie mam pojęcia co dalej.

    Przypomnę:

    - poprzednia zmiana okularów, była zmianą czwartą w moim życiu. Jako pierwsza zmiana, okazała się nie zmieniać WCALE siły soczewek. Jedyna zmiana to, że inne oprawki (bardzo wąskie, a poprzednie były zawsze normalne, z większym szkłem) i inny optyk oczywiście, Jako pierwsza zmiana skończyła się kompletnym failem i bólem oczu przy noszeniu

    - po otrzymaniu tych nowych, "złych", próbowałem się przyzwyczajać, nic to nie dało, a ból oczu i uczucie dyskomfortu NATYCHMIAST zaczynało znikać jak zmieniłem okulary na te stare, które na tym etapie musiałem sklejać taśmą aby nie były monokularami ;) w każdym razie 10 minut i po bólu

    - na tych najstarszych okularach nie było problemu z bólem i dyskomfortem - było DOKŁADNIE tak samo jak nie miałem na nosie żadnych okularów. W sensie bólu i dyskomfortu, nie w sensie ostrości widzenia, ale przy np. myciu naczyń to nie robiło dużej różnicy bo z bliska widzę jako-tako.

     

    Ma ktoś jakiś pomysł?

    Jak to nie rozstaw źrenic to nie wiem co. Jeden optyk mi zmierzyła na 63mm. Druga na 30mm jedno i 32mm drugie. I tak zrobiliśmy te okulary teraz.

    Pewnie będzie trzeba wybulić sporo cebulionów i pojechać gdzieś do lepszego okulisty i przedyskutować sprawę, bo nie wypie...lę 4 stów w soczewki, których nie da się normalnie nosić ?

    Dobrze, że zrobiłem ten test z najtańszymi szkłami. Nie było mowy o udzieleniu gwarancji, to nie chciałem ryzykować. 

    Tyle dobrego, że sobie przypomniałem jak to jest widzieć w FullHD a nie 360p ;) Fajnie świat wygląda. Zapomniałem już niemal ile wszystko ma detali. "Always look on the bright side of life" ;)


  22. https://visionexpress.pl/porady/pakiety-soczewek-korekcyjnych/
    Pierwsze z ikonką i opisem o zwiększonej odporności na rysy, to 570zł.
    Czyli za okulary minimum 770. Oprawek plastikowych nie chcę, bez przesady, 200zł kosztują takie bardzo podobne do tych co miałem kiedyś. Kupię plastiki za 100zł i po roku będę kupował następne, bo pękły. Bez sensu.


    Myślę obecnie pomiędzy

    - oprawki z allegro za 200zł + szkła z allegro za 210 Jai Kudo, lub 260 polskie Aura MAx,  lub 310 Hoya Long Life (nie wiem czy dopłacić do lepszej marki, pewnie tak),  do tego 25zł za wysyłki i to byłby ostateczny koszt.

    - albo wezmę coś lokalnie za ok 550-600zł. Opcji za 740 nie biorę pod uwagę.


    Ewentualnie oprawki kupię tutaj, za te 260, a wstawię szkła przez allegro.


  23. VisionExpress nie mam w pobliżu. Musiałbym się telepać 100km na jedną wizytę.
    Wszedłem na ich stronę internetową i ceny przerażają. 400zł za zwykłe, 500-600, a najlepszej jakości to ok 1000zł za parę szkieł.
    Oni chyba są OK tylko dla bogatych lub jak mają promocje typu kup okulary a drugie dostaniesz gratis.

    Niestety na kontaktówki nie pozwala mi zdrowie, a poza tym ich kupno utrzymanie też chyba tanie nie jest? Zresztą nieważne, i tak nie mogę. No i po tylu latach okulary na nosie mi zbytnio nie przeszkadzają.


  24. Co myślicie o szkłach z allegro? Podrabia takie coś ktoś w ogóle? Jest się czego bać?

    Cena jest o 30-40% niższa za Hoye Long Life, Jai Kudo Extreme i trzecie, polskiej firmy, model Aura Max. Np. Aura Max kosztuje 259zł za parę szkieł, z montażem, a tutaj mi pokazała babka katalog z ceną 510 i że mam się cieszyć, bo mają od tego 20% rabatu, 408. Jej koleżanka w tym przypadku 4 dni temu mi wyliczyła za to samo 375, jako już ostateczny, najniższy możliwy rabat. 
    Dwaj sprzedawcy mają takie oferty na allegro, nie będę wklejał linka, bo nie chcę reklamować ani łamać regulaminu, ale bardzo ławo znaleźć po wpisaniu nazwy marki i serii (Long life itp)
    Obaj są na allegro od 15 lat i obaj mają zero nagatywnych komentarzy. 


    Dopchałem się w końcu do właściciela trzeciego optyka w mojej mieścinie i przekonywał, że sąsiedni optyk, to firma, gdzie wcześniej był pracownikiem, i od którego często wracają do niego klienci narzekający na słabą jakość. 
    No i zaoferował swoją propozycję. 740zł za okulary.

    Dlatego wróciłem do domu sprawdzić ceny w necie. Nie znalazłem, bo oferty tylko dla optyków i hurtowni, ale znalazłem na allegro. Oprawki też za 199 takie podobne do tych co tutaj są za 260, choć nie dokładnie ten sam model, to ta sama marka i oba modele są faktycznie produkowane. 

    Jest wysoce prawdopodobne, że te na allegro to jakieś odpady produkcyjne albo podróbki.

    Jest wysoce prawdopodobne, że w moim zadupiu po prostu kroją naiwniaków na prowizje typu 250-350zł na okularach za 740zł. 

    Bądź tu mądry teraz. 

    Co myślicie?
     


  25. Tak trochę zejdę z tematu i zapytam o niekorekcyjne i opiszę status mojego łażenia po optykach, co raczej nikomu czytającemu wątek nie pomoże to zwinę do spojlera:

     


    A macie jakiś pomysł jak wyczyścić duże, uparte plamy (tłuszcz z kurzem, chyba) z okularów, które są mega-delikatne i nie można ich zalać? Chodzi o migawkowce do 3D. 
    Bardzo fajnie to działa wbrew ich niesławie, mam dwie pary, ale to jest taka folijka. Czyszczenie tego to jest dramat, doszło do tego, że w ogóle nie cyszczę bo się boję uszkodzić :D
    najlepiej to by było rozmiękczyć parą, ale nie można, bo elektronika, nie idzie tego łatwo nawet wypiąć z baterii, więc nie chcę ryzykować. Oczywiście wodą też nie poleję. Jak czyściłem raz to zdmuchnąłem spr. powietrzem i wtedy mokrą szmatką, ale no trochę się boję. Tutaj to na serio minimalne drobinki porysują niczym papier ścierny. I tak nie wiem co wykombinować. 

    PS. A co do tematu to w poniedziałek idę na ostateczny obchód. Dziś nic się nie dowiedziałem, poza tym, ze wszystkie salony w moim zadupiu są ze sobą dogadane tak, aby w żadnym nie było żadnych oprawek i szkieł tego samego producenta, żeby klient nie daj boże nie porównał oferty :D
    W jednym babka powiedziała, że przerabiali różne, w tym markę Hoya, ale teraz stoją na tej co oferują, bo ponoć lepsza. Jai Kudo
    No nic. Zobaczymy. W poniedziałek będzie opcja pogadać z właścicielami "byznesów" to moze coś bardziej fachowo doradzą.
    Znalazłem jeszcze oprawki polskiej marki, które kosztują 260zł i bardzo mocno przypominają mi te pancerne, które kupowałem 20 lat temu. Nazywają się Liw Lewant

    W jednym wyszło 500zł lub 590 jakby z powłoką hamującą UV i niebieskie światło, ale nie będę z tym cudował raczej, bo to może nie być za zdrowe, żeby w tym chodzić cały dzień.
    W drugim 600-650.
    W obu przypadkach szkła to już ponoć z tych lepszych. 
    Opcja najtańsza to oprawki za 195zł (nawet spoko wyglądają, metalowe, nie łączone przy nosku, tylko jednolite) + 90zł za szkła szklane (ceramiczne)  lub nawet zaledwie 40 bez antyrefleksu. No proszę. Można dostąc nowe bryle za 235zł za wszystko. 
    Jeszcze jedna opcja to jakieś oprawki "tytanowe", wyszłoby 800 ze szkłami, ale fajne - super lekkie. To już trochę za drogo, no chyba, że to przetrwa wybuch bomby i gnie się jak gumowe, po czym magicznie wraca do pierwotnego kształtu, lub może posłużyć do lotów w kosmos ;)
    (a serio drogie to spokojnie oprawki to nawet i za tysiaka wisiały, ale oczywiście na to się nawet nie patrzyłem. 

×
×
  • Dodaj nową pozycję...