Skocz do zawartości

Adi-C

Forumowicze
  • Liczba zawartości

    3365
  • Rejestracja

Odpowiedzi dodane przez Adi-C


  1. Ja słyszałem w trakcie dema jak mówią, że jeden posąg składa się z 33mln poly, a jak weszła do tej sali gdzie stały setki posagów to mówili o 16 miliardach poly.

    Ale to jest z ilu trójkątów jest zbudowany model/scena pierwotnie, ile on ma "na dysku"- jak wyświetla to wyświetla "to co widać", z taką dokładnością na jaką pozwala rozdzielczość/odległość od obiektu. W pierwszej scenie na tym 9min filmiku mówią o 1mld trójkątów w scenie, ale rysowane z tego jest 20mln "bo tyle widać".


  2. W sumie jak się tak zastanawiam, to nie wiem, czy większego wrażenia nie robią na tym demku geometria i assety niż światło.

    Nie wiem na ile obecne silniki radzą sobie z geometrią, ale ten tutaj tak jakby siedzi właśnie, konkretnie- na tym (między innymi, jak GI), na masie trójkątów które niby płynnie dostosowuje do dystansu od kamery. Więc to że geo i assety (w sensie że skomplikowane) robią wrażenie... no to chyba właśnie dzięki silnikowi te wrażenie robią, bo dzięki niemu je oglądasz :E Przynajmniej tak to rozumiem, a specjalistą nie jestem- może wystarczyłoby i dziś mocy na tyle poly, może potrzeba by więcej pamięci, a tu będzie wystarczyło mniej? Nie wiem.

    Dotąd to mogłeś sobie takie pooglądać w programie - edytorze 3D, a na potrzeby gier trzeba było je maksymalnie uprościć. Tu niby nie będzie trzeba, i to chyba zasługa tego ich silnika (i wielu postępom w gpu :E ).

     

    "Gdzieś kiedyś" widziałem model bodaj tego locusta z girsów, chyba trójki- jak wygląda w takim edytorze, a jak w grze... Wyglądało... podobnie do tych modeli tutaj, w ue5, a było to przecież z 10 lat temu- już wtedy robiono takie modele, tylko później na potrzeby gry trzeba je było ściąć o 99% procent geometrycznie, one powstawały tylko dla ściągnięcia z nich normal map (czy jak to się zwie), tych niby wypukłości itp. Te wtapiano w teksturę i oblepiano tym model low-poly, żeby sprzęt wyrobił.

    Teraz niby nie będzie trzeba nic obniżać, bo gra będzie doczytywała oryginalny model hi-poly z dysku i jakoś dostosowywała na bieżąco ilość wyświetlanych poly.

     

    W tym demie mówią o 20mln poly wyświetlanych... Czy ja wiem czy to AŻ tak znowu dużo żeby wymagało jakichś cudnych silników...? Tu chyba raczej chodzi o te dostosowanie w locie, w końcu byłoby faktycznie super załatwić raz na zawsze lod, popup. Ale sama ilość?

    Pamiętam benchmark w crysis1 gdzie wyświetlało ilość poly, i w pewnym momencie było to 3mln... I na moim wtedy gtx 260 :E działało toto w ok 30fps w 1024x768 czy max 1280x960. No dziś 20mln (6x więcej) to chyba nie aż taki przełom znowu? No ale nie wiem ile poly mają obecne gry. Więc tu raczej chodzi o wgrywanie tych oryginalnych modeli w locie, płynnie regulując ilość detali. A to już by było super gdyby faktycznie działało, bo technicznie to może kompletnie zmienić konstrukcję światów w grach, przynajmniej tych korzystających z ssd, więc pewnie wiele cross-genów tu odpadnie...

     

    (Ogólnie to szerszy temat ale o limicie "danych" właśnie, nie mocy gpu, cpu, ale właśnie o dogrywaniu danych- ich strukturze, szybkości wgrywania, o tym już od baaardzo dawna mówi się jako o czymś limitującym gry. Właściwie zaczęło się coś dziać ze streamingiem tekstur w ue3 (czy 2) dawno dawno temu. Pamiętam jakieś wypowiedzi przy okazji Carmack-owych megatekstur (które w końcu były super, ale potężnie limitowane... ilością danych właśnie, na hdd, na nośniku dvd, ich wczytywaniem do pamięci wraz z obrotem postacią)- mówił że następne w kolejce postępu to będzie ray tracing i mega-geometria, w sensie unikalnej geometrii wszędzie, tak jak te jego tekstury były wszędzie unikalne. I wyraźnie była mowa jak to wymaga masy pamięci, nie wiem czy ramu czy na dysku, w każdym razie to właśnie dostęp do danych mocno coś tam limitował, już w tym 2008-2011, nie wiem dokładnie. Nie było jeszcze powszechnych ssd na horyzoncie, więc co tam można było z tego hdd wykrzesać- same tekstury ledwo się ładowały, ale jednak efekt był.)

     

    Tu powstaje też pytanie czy taki model z milionami poly nie będzie zajmował bóg wie ile miejsca w pamięci/na dysku? Pojęcia nie mam jak to działa, chyba wiedzą co robią (coś mówią że zniknie budżet "pamięci" na polygony ale co to znaczy? Raczej się odnosi do ramu?)- niemniej jeśli np. taki skyrim2 miałby mieć taką unikalną geometrię wszędzie- to ile to będzie na dysku zajmowało...? Jak mówię, nie wiem, głośno myślę. Może ktoś się orientuje. Może modele 3D aż tyle nie zajmują? Ale jak słyszę o miliardach poly w tym demie...? To ile takie gry zajmą na tym ssd? Przecież do tego jeszcze nadal potrzeba tekstur... :E

     

    No ale z drugiej strony... GI modyfikowalne na taką skalę... teraz te odbicia usiałyby być wypalone albo, przy cyklu dobowym, leciałyby pewnie z jakiegoś fejkowego źródła światła, prawda? Więc niby postęp jest ogromny. Pytanie tylko, dla ilu i jak dużych źródeł będzie to się dało tak liczyć.

    Wygląda na to że jeszcze długo się nie dowiemy... Rok-dwa z tego co zapowiadają zanim ten silnik wyjdzie... W sumie chyba niepotrzebne dywagacje, ale hej, od tego takie tematy na forum.

     

    Czyli konsole to największe zło ,które hamowało cały czas rozwój grafiki,fizyki AI w grach.

    Obserwując te wszystkie dema przez 20 lat zgadzam się w 100%.

    Ej no, nic takiego nie pisałem (no, może pośrednio :E) nie chcę żeby odpowiedź na moje słowa wywoływała tu jakieś wojenki-

    nikt nikomu nie broni robić gier pc only. Podobnie jak istnienie pc nie przeszkadza ps4 w generowaniu czegoś takiego jak days gone.

     

    Niby fakt że najsłabsze ogniwo ustala niejako warunki dla multiplatform, a to większość gier, z drugiej strony- technologia, możliwości techniczne sprzętu to tylko jedna rzecz definiująca "jakość" gier. Jakoś klonów gta5 na pęczki nie mamy, nie dlatego że nie ma sprzętu pod gta5- bo przecież jest- a dlatego że potrzeba a to skomplikowany silnik, a to masę assetów, no masę pracy w stworzenie takiego świata. Samo "ruszenie" tej masy contentu przez sprzęt to jedno, ale ktoś ten kontent najpierw musi zrobić, a tu już sprzęt aż tak* nie ogranicza, tylko, powiedzmy- zasoby ludzkie :troll: A na pc chciałbyś mieć JESZCZE lepiej. Więc jeszcze więcej pracy byłoby potrzebne, i kółko się trochę zamyka.

     

    *- bo jednak trochę słabość sprzętu utrudnia programistom życie- np. w takim sidiprojekcie teraz pewnie siedzą przy CP2077 i kombinują jak zrobić żeby to chciało działać na tym x1, a przecież assety już są, animacje, tekstury, modele... ale weź teraz i syp na ten silnik magię żeby on to ruszył na tym sprzęcie. Ale znów, jak sprzęt masz jeszcze lepszy (vide pc) to chcesz tych asetuff jeszcze lepszych... I znów będzie je tym trudniej ruszyć, jak przedobrzysz. Tak można w nieskończoność. W końcu dojdziesz do wniosku że jak ktoś zaraz nie wywali swoich dwóch 2080ti i day one nie zamieni na 4 rtx3000 to "ogranicza rynek" i na stos z nim.

     

    Tez nikomu nie opłaca sie pisać od nowa specjalnie pod PC bo największą kasę zarabia sie na konsolach.

    Nom, ale też np. jeszcze większą zarabia się na komórkach, więc- czy komórki ograniczają konsole...?

    Możemy tak długo :E ale to nie od tego temat.

     

     

    Ogólnie jestem zdania że już od dawna kontent (masa pracy żeby on powstał) ZNACZNIE bardziej ogranicza gry niż sprzęt na którym ten kontent ruszamy, no ale to tylko moje zdanie. Sprzęt mamy już dość dobry do naprawdę wieeelu rzeczy. Z każdą kolejną generacją "tracimy" coraz mniej na takim "zatrzymaniu się" sprzętowo na kilka lat, i dziś to już naprawdę szkoda gadać

     

    Żeby nie było że offtop totalny, to tak się składa że o ile rozumiem ue5 właśnie ma ten kontent bardzo elegancko wgrywać, i nie marnować pracy artystów i grafików wymuszając cięcia, tak jak jest obecnie.

    I byłoby fajnie gdyby działało, o! :E


  3. Czekam na dokładną analizę Lumen co za "triki" się za tym kryją.

    No właśnie... Na D Foundry piszą tak:

    "Temporal accumulation, you know - more than just normal temporal anti-aliasing - it's is a huge part of how we're able to make things look as good as this," says Kim Libreri. "The global illumination, without a temporal intelligence, there's no way you could do it on hardware yet. We're actually doubling down on the understanding of how temporal can help us, and there's been so many huge improvements in quality because of having a temporal component. It's the way that we get close to movie rendering - without those samples (and they're not just necessarily pure screen-space samples, there's loads of things you can do to temporally accumulate), the GI would not work anywhere near as well as it does without it."

    Teraz GI się składa między klatkami...? Nie siedzę w tym kompletnie, ale jak to ma niby działać? W jednej klatce liczy odbicia z tej strony a w drugiej klatce z innej strony? :E Albo jakoś w czasie polepsza jakość, rozdzielczość takiego światła?

    niby może trochę widać jakby się to odbite światło "gasło" przez ułamek sekundy po przesunięciu źródła światła w lewo ale ciężko powiedzieć czy to nie po prostu oświetlenie odbite od "nowej" (w nowym miejscu) plamy światła...

    Nie widać żeby się to jakoś budowało w czasie?

     

    Szkoda że poprzednie konsole choć w jakimś stopniu się na coś podobnego nie załapały, bo to jednak one ustalają poziom technologii na kilka lat, a w tej generacji to już całkowicie.

     

    Kiedy powstawał ue4, epic lobbował za 2.5Tflopsa w konsolach, to pod taką jakość robili demka jak samaritan, infiltrator itp. A tu M$ wyskakuje z 1.3Tf. Tamte dema z których się wszyscy teraz śmieją że "no i co, gry tak nie wyglądały w końcu", jednak nie działały na ps4/x1 tylko na np. znacznie mocniejszym gtx680 z tego co pamiętam, demko od square-enix na i7, 16giga ramu... Samaritan działał początkowo na 3x580 :E

    Nic dziwnego że konsole nie osiągnęły takiej jakości. (W sumie z ff7 można się kłócić)

     

    Tu jednak mowa jest o działaniu tego co widzimy na ps5... A gdzie jest obecnie technologia, jak się zmieniła przez ten cały czas życia ps4, to (chyba głównie przez brak sensownych exów pc-only) jako przeciętnemu graczowi ciężko powiedzieć, chyba że ktoś śledzi jakieś fora z assetami czy demami na silnikach, jak niektórzy tutaj. Niemniej typowy gracz nie widzi tych rzeczy, toteż nie wie specjalnie czego się spodziewać po nowej generacji a nawet jeśli takie miejsca śledzi, to i tak ciężko mu raczej ocenić co z tych dem i assetów jest faktycznie możliwe do ruszenia w grze...

    Przecież my na dobrą sprawę wiemy co potrafi radek 7770(x1) i 7850/70 (ps4).

     

    Więc co serio potrafi nawet taki- w końcu sporo lepszy gtx 680- nie wiemy. Tym bardziej nie 970, ani już zupełnie 1080. Ani np. 2080. Bo przecież wszystko co na nich widzimy to rzeczy robione pod wspomniane wyżej bebechy konsol, tyle że w wyższej rozdziałce i fps... A to przecież nie wszystko co potrafią... Gdzieś tam po drodze był niby spory wzrost ilości liczonych poly itp. Teraz dopiero zobaczymy co w tych sprzętach siedziało tyle czasu...

    Ogólnie co zmiana generacji to ta sama śpiewka :lol2:


  4. O developmencie code veronica takie coś znalazłem,

    i bynajmniej nie chodzi o pierwszy post, a raczej o te niżej, szczególnie teksty na project umbrella- tam raczej wiedzo co muwjo. Nie będę tego na razie czytał, ale raczej zadają tam kłam twierdzeniu że CV to miał być jakiś główny resi...? :hmm: Będzie trzeba obadać.

     

    Tak czy owak, CV? Still better game than RE:Zero :E

    Albo i nie...?

     

     

     

    Jak zapowiedzą remake 4 to autentycznie poturlam się po podłodze ze śmiechu.

    Po czym

    Niby będą robić trójkę, już to pewnie wywoła śmieszki że capkom się skończył itp.

    Śmieszki? Kogo to obchodzi skoro RE2 się ewidentnie sprzedaje?

    Konsekwencja kurde :E

     

    Czwórka też by się sprzedała, ale ona jest super tak jak jest :foch: I nawet wam nie będę pisał jak bardzo się mylicie w tym temacie. Owszem, to nie bardzo jest resi, ale ta gra ma KLIMAT. MIEJSCA. NASTRÓJ. FABUŁ a nie, czekaj.

    Czwórka poszła w akcję bo japońce nie potrafią czytać rynku/przyznać się do błędu z wtopą jaką była próba przepchnięcia krwawej serii gier na grzeczniutkie nintendo, i psioczenie na salesy REmake na gc, i że "nie ma już rynku na horrory" :lol2:

    Kapkom to w tamtym okresie (CV na dreamcasta) to ogólnie straszne dziw*i były, przecież oni chcieli jeszcze Zero na n64 wydać. Czyli w ciągu czterech lat 96-99 żeby zagrać w całość historii RE musiałbyś mieć graczu TRZY konsole... A wtedy to drogie rzeczy były.

    I efekt w postaci re4 nakierowanego na akcję to akurat manna z nieba dla znających się na rzeczy :foch:, ale już to co nastąpiło później... Części 5, 6... Tu się zgadzamy że do siódemki to seria była... martwa.

     

    Jej rimejk (4) to już faktycznie była by przegina, bo to już 100x wyszło na wszystko, włącznie z komórkami (!) ale też i się nie zanosi na taki rimejk raczej.

    Ta gra jest doskonała tak jak jest :E

     


  5. Niestety nie grałe w Code Veronica ale chętnie bym zagrał w Remake. CV też taki dobry jak stara trylogia?

    CV to dziwna historia której już nie pamiętam, ale można to wyguglać. Gra powstawała mw. równo z trójką na psx, i nie wiem czy początkowo ta trojka nie miała być spin-offem? Dużo tam gadano, czy dowiemy się co było prawdą to nie wiem.

    Wszyscy w każdym razie oczekiwali że na mocnym dreamcast-cie powstanie mocna, nowoczesna gra, skończyło się tak że -zapewne ze wzgl. marketingowych (psx to była ilościowo potęga, a DC... no, niezbyt)- to projekt na psx dostał "trójkę" w tytule, i chyba raczej zasłużenie, choć nie jest zbyt istotny fabularnie (może poza końcówką...).

    CV niby kontynuuje historię dwójki czyli claire szuka chrisa, co rozumiem że dziś, jak wy ogrywacie ten rimejk dwójki, może się wydawać ciekawe... ale robi to tak że fabularnie nic z tego nie pamiętam.

    Niemniej zawsze jest tam jakiś lore, co dla fana zawsze ważne. Część z tego lore jest nowa, pojawia się i ZASŁUŻENIE natychmiast znika. Tyle powiem.

     

    CV niby była w "3D", ale nic z tego za bardzo nie wynikało, nadal głównie statyczne kamery, może ew. leciały za tobą w "trybie scroll", ale nie mogłeś się rozejrzeć itd. Nadal nie widziałeś przeciwników których teoretycznie powinieneś. Ładne tła 2D w re3 na moje prezentowały się... ładniej niż proste 3D w CV, do tego nic z tego 3D nie wynikało. Dopiero czwórka zrobiła użytek z dodatkowego wymiaru, gejmplejowo.

    Trójka na psx jest też mimo wszystko świeższa mechanicznie, nie pamiętam szczegółów, ale w CV gra się drętwiej- sterowanie czy coś? No mówię, nie pamiętam za bardzo. Trójka na psx była po prostu nowocześniejsza, nawet pomimo tego że w 2D. Do tego CV miała problemy z balansem, ja akurat tego nie doświadczyłem, ale słynnie ma miejsce gdzie jak się zasejwujesz z za małą ilością ammo to to jest koniec gry i nic z tym nie zrobisz, i wielu ludzi tak miało.

     

    Na ps3/x360 wyszła nieco poprawiona graficznie wersja CV, dodali jakieś dodatkowe oświetlenie/cienie ale czy zmienia coś w gameplayu to chyba nie.

    Tej akurat części, ze zmianami w gameplayu, najbardziej by się chyba rimejk przydał ze wszystkich głównych części, ale czy na niego można liczyć? Czy ona zasługuje...?

    Niby mówi się że będą robić trójkę, już to pewnie wywoła śmieszki że capkom się skończył itp. więc czy odgrzeją też jeszcze, kolejną część, szczególnie gdy ona była średnio udana pod każdym względem?


  6. Oraz że motywował to politycznie także licząc na poklask.

    To akurat prawda... Ostatnio w trójmieście mieliśmy na którymś gdańskim fejsbukowym profilu, nie pamiętam którym, taki "żart" że przerobili kolaż zdjęć osób poszukiwanych, z różnych monitoringów itp. na taki gdzie dokleili dodatkowo zdjęcie Adamowicza (w sensie że ma za uszami, co obecnie pomijam). Wiele osób wkurzyło to nieźle w komentarzach, pisali że przestają obserwować profil, bo to przesada.

    To faktycznie takie naganianie, z drugiej strony- nie nawołujące przecież do dźgnięcia nożem, tylko rozliczenia sądowego...

     

    A tak, jak jesteś szychą, to teraz będziesz bić w dzwon żeby zabronić "pisania takich rzeczy" gdzie generalnie definicja "takich rzeczy" to "jakiekolwiek insynuowanie że mogłeś coś źle zrobić i masz być pociągnięty do odpowiedzialności i że dlaczego nadal tego nie zrobiono".

     

    Dobra okazja do wmówienia ludowi że ma się dać robić, i siedzieć cicho, bo jak nie to "mowa nienawiści"- i idziesz siedzieć... I już, pyk, jesteśmy trochę bliżej zamordyzmu.

     

    Przecież nikt z rządzących, z sędziujących- nie powie że prawo nie bardzo działa, nie, będą kombinować co na tej tragedii ugrać, sami przecież się nie będą wystawać na krytykę, a może powinni.


  7. Słucham właśnie TV, i uszom nie wierzę, choć to właściwie było spodziewane.

    "Mowa nienawiści, zatrzymajmy mowę nienawiści, musimy się zastanowić jak się do siebie odzywamy, przestańmy z tą mową nienawiści, przestańmy tolerować mowę nienawiści". I słownie NIC innego, w sensie przyczyn tego co się stało.

    I Owsiak którym jak zwykle miotają emocje podający się do dymisji :lol2: i inaugurujący polityczne przedstawienie

    :kwasny:

     

    No kur#@.

     

    -napastnik to 27-letni mieszkaniec Gdańska.

    -Mężczyzna był karany, był notowany za przestępstwa przeciwko życiu i zdrowiu, między innymi za rozboje

    -Gdański sąd skazał go na pięć lat i sześć miesięcy więzienia. Była to kara za cztery napady na banki: trzy placówki SKOK i oddział Credit Agricole.

    (http://www.tvn24.pl)

     

    Bandzior, który w wieku 27 lat zdążył przesiedzieć 5.5 roku w kiciu i czterokrotnie napaść na bank (!!!) dźgnął w końcu kogoś nożem, CO ZA ZASKOCZENIE, KTO BY SIĘ SPODZIEWAŁ. Nie no naprawdę, tego się nie dało przewidzieć! To dobry chłopak był, i mało pił.

     

    No to teraz trzeba COŚ ZROBIĆ- np. wezwać do kontroli fejsbóka, którego sprawca pewnie nawet na oczy w życiu nie widział. To na pewno coś da!

     

    Włączam telewizor i dowiaduje się że problemem NIE jest sąd, 100 speców na wygodnych stanowiskach, psychologów, "resocjalizatorów", którzy go wypuścili do normalnych ludzi, nie kur#@- MY jesteśmy problemem. MY jesteśmy winni. Teraz jest niezła okazja żeby znów odrobinkę chwycić lud za mordę, ograniczyć swobodę wypowiedzi, wprowadzić inwigilację, jeszcze utrudnić prywatność itp.

     

    Teraz trzeba odciągnąć uwagę od prawdziwych przyczyn tego co się stało- że jesteśmy po prostu wobec bandziorów pobłażliwi, i że może trzeba by coś z tym zrobić.

     

    Np. nie wiem, uznać że jak ktoś ma 27 lat i napadł na bank CZTERY RAZY to nie jest normalnym człowiekiem, i może nie powinien chodzić wśród ludzi? :hmm: Nie wiem, tak sobie tylko myślę.

     

    Ale nie, czekaj, lepiej uderzyć w dzwon po-pis, i prewencyjnie kontrolować twittera :hmm:

     

    Tak, a jemu dać kolejne 5-8 lat i wypuścić, i pogłaskać po główce. Bo on niepoczytalny taki że aż potrafi się podszyć pod media, zaplanować, wyliczyć moment co do sekundy. Ale on ci głupi! Trzeba się ulitować, wiadomo.

     

    EDIT

    widzę że na każde kilka rozsądnych osób co to "bandzior, nie mieszać z polityką" jest co najmniej tyle samo, albo i więcej takich co to "wina pisu".

     

    No cóż, temat ma polityka w nazwie, więc nic dziwnego.


  8. ...

    Dzięki, będę to musiał kila razy przeczytać. I powoli :E

    ' date='10 Styczeń 2019 - 12:21' timestamp='1547119302' post='15361709']

    Nie wiem czy dobrze rozumiem pytanie ale będzie się tak samo naświetlać, tylko z mniejszym bólem głowy czy detale w cieniach i jasnych miejscach nie znikną ;)

    Ekrany aparatów też powinny być HDR i tyle lub sugerujesz się wyłącznie histogramem.

    No oby, oby. Ekran hdr w aparacie to na razie raczej tylko oled, bo jak tu podświetlić tak małe ekrany wieloma diodami z tyłu :E


  9. ' date='08 Styczeń 2019 - 22:35' timestamp='1546983349' post='15359872']

    Jaką rozpiętość tonalną ma matryca i plik RAW?

    Dobre pytanie, nie znam się ale w każdym razie raczej większą niż typowy sdr tv/monitor. Cały ten tonemapping który teraz uprawiamy to przecież zmniejszanie dynamiki zdjęcia, żeby zmieścić (upchnąć) ją w dynamice wyświetlacza, czyli ta jest w każdym razie niższa niż zdjęcia.

     

    Tzn. możesz zrobić zdjęcie w sumie każdej sceny i naświetlone do prawej- wszystko zeń wyciągniesz, ale nie będzie to wyglądało "naturalnie", bo tv wyświetli z podobną jasnością i cienie i światła.

    Przykładowo patrzę teraz na podgląd rawa (a więc takie uproszczenie na potrzeby ekranu) z takiego zachodu słońca i na "obrobionego" jotpega. I w raw wygląda to tak że niebo jest lekko przepalone, niewiele ale jednak, więc tu będzie trzeba highlighty pociągnąć w dół, a cienie... no, są w sumie czarną plamą, więc shadows/blacks w górę podciągniemy. No i tak to wygląda na gotowym jpg, wszystko ma podobną jasność, gdzie przecież czerwono-pomarańczowe chmurki powinny się świecić w porównaniu z "ziemią".

    To znaczy że plik ma niejako trochę detali powiedzmy po prawej stronie poza histogram, czy raczej poza możliwości monitora, a i cienie leżą gdzieś po lewej od lewego końca histogramu... Są tam rzeczy które są ciemniejsze, przypadają na tony których ekran nie wyświetli. I jaśniejsze też, i musisz teraz to spłaszczać. Efekt jest jaki jest.

     

    Więc w pewnym sensie to tv nas w tej chwili bardziej ogranicza dynamiką, niż aparat. Ten aparat łapie rzeczy których później nie możesz wyświetlić na tv "wprost", z taką "jasnością" czy "intensywnością koloru" (?) które niby w pliku są. A to 10 letni 10mpix ccd, bodaj 12 bit. Dzisiejsze ff, cmos, 14-16bit zapiszą jeszcze więcej danych. Choć pewnie wpłynie to tylko na sygnał/szum niż na jakieś dodatkowe zarejestrowane chmurki.

     

    Ja hdr rozumiem tak że on te jaśniejsze elementy- wyświetla, no, jaśniej. A w każdym razie że kiedyś tak będzie :E Czy może- że kolory będą intensywniejsze, jaskrawsze, ale nadal naturalne, po prostu jaśniejsze niż reszta zdjęcia. Że np. niebo będzie faktycznie dużo jaśniejsze niż "ziemia".

     

    Inna sprawa że nie widziałem w normalnych warunkach hdru, w sklepach nie widzę różnicy, ale licho wie jak tam mają poustawiane.

    Za kilka lat, jak w tv będzie to lepiej ogarnięte, lepsza kontrola per-pixel i jasność nie typu 600, tylko bardziej 4000nitów/cd czy czego tam, formaty się poklarują, może wtedy dopiero będzie to miało sens.

    Ale i tu akurat hlg jako format jest ponoć niezależny od jasności wyświetlacza, i w ten sposób kompatybilny również w przyszłość- na jaśniejszym tv po prostu podciągnie się pod najjaśniejszy poziom dostępny dla tv, i rozciągnie zdjęcie na cały dostępny zakres. Więc dzisiejsze zdjęcia hlg na tych tv za 5 lat mają wyglądać jeszcze lepiej (albo i dopiero zacząć wyglądać jak należy, bo czy na dzisiejszych będzie widać różnicę?).

     

    ' date='08 Styczeń 2019 - 22:35' timestamp='1546983349' post='15359872']

    Jeżeli wystarczającą do HDR-a, to wystarczy zaktualizować firmware aparatu, żeby obraz zapisać we właściwym formacie.

    Właśnie ciekawi mnie czy czasem obecnych, zwykłych rawów nie da się kiedyś "przekonwertować" do takiego hdru. W końcu to zrzut z matrycy...

     

    Same sztuczki (?) w rodzaju HLG, czy nawet log formats to (chyba) tylko sztuczki na poziomie programowej interpretacji sygnału z matrycy. Ot w inny sposób jest przydzielane "miejsce" na histogramie. Jak to będzie działać "w automacie"? Nie mam pojęcia, jednak nie do końca wierzę żeby było to zawsze dobrze działające. Do tej pory nie wynaleziono nic, co działa zawsze dobrze na auto, więc i automatyczne renderowanie (?) hadieerów pewnie będzie raz dobre, raz nieco mniej dobre.

    No właśnie ja szczerze mówiąc nie bardzo rozumiem jak myśleć o tych dodatkowych, hdrowych highlightach na wykresie, histogramie? Ten co go widzimy to też nie bardzo wiem co w sumie prezentuje, w kontekście tego że sam raw nawet ze starych aparatów jest "szerszy" niż ten histogram, czy raczej- niż zakres ekranu.

    Nie bardzo wiem jak myśleć o tym hdr na wykresie, który ponoć zapisuje kolory jako 0-700 coś, czy 0-1024 a nie 0-255. To co, nagle histogram jest "szerszy" w hdr? Dostaje powiedzmy kolejne "zony" po prawej (i może lewej)

    To tego od dawna mamy niby 10 bitowe monitory, ale one chyba dają "tylko" wińcyj koloruf?

     

    AAAAhg moja głowa :E Może będzie coś innego niż historam, jakaś krzywa?

     

    Do tego jak się będzie naświetlać, jak zrobić podgląd na ekranie aparatu? Tego się dopiero dowiemy, i w sumie ciężko gdybać.

     

    Z tego powodu, "krzywa wow" związana z podnietą hadeer pójdzie do góry, a potem łupnie w dół - jak już się haeeder upowszechni i zbanalnieje.

    Ha, no właśnie o to chodzi! :E Chciałbym żeby taki hdr po prostu działał, i żebyśmy nawet o tym nie myśleli. To będzie fajnie jak będziemy w takim punkcie, i będziemy se ziewając przeglądać oczojebne zachody słońca na flickr :E


  10. Edit:Sory, rozpisałem się :E Nie obrażę się na brak odpowiedzi bo to takie gdybanie w sumie, nie wiemy jeszcze za dobrze na czym stoimy.

     

    Photo HDR jako gamechanger? Pozwolę sobie mieć inne zdanie.

    Ja też. :E Mówiąc grozmieniacz nie miałem nawet tyle na myśli ogół świata foto, a np. moje prywatne potrzeby, gdzie gdy już od wielkiego dzwonu robię zdjęcie, to jest to właśnie, precyzyjnie taki scenariusz w którym hdr by się baaaardzooo przydał.

    Więc dla mnie to by było znaczące, i ja takie choś kce!

    Czy zapłacę za pro-body, bo na takie te panasy wyglądają? Eeee, niech ktoś inny napędza machinę, ja se kupię coś prostszego. Kiedyś.

    :E

     

    - musi to być popularne i obecne w możliwie dużej ilości sprzętów, żeby załapać.

    No hlg jest ponoć takim najprostszym formatem hdr, takim najbardziej kompatybilnym, również wstecznie- tzn. na nie-hdr ekranie też można taki film/zdjęcie obejrzeć, z jakimś spłaszczeniem, na forum dpreview ludzie wstawiają takie filmy

    https://www.dpreview.com/forums/post/61332026

    i ponoć na ekranie hlg wyświetla się toto jako hdr, więc "lepiej" a u mnie na nie hdr- no, nadal da się obadać, a ilość szczegółów w cieniach/światłach- szanuję. Sądzę (na bazie niczego, bo nikt nic o tym jasno nie pisze) raczej nie trzeba takich scen jakoś szczególnie inaczej naświetlać niż dziś, gdzie sprzętem zapisującym sdr byłoby w wielu takich scenach pod górkę. Później post itp. Ten hdr wygląda jakby to wszystko załatwiał, ot zapisuje i wyświetla te szczegóły które normalnie stanowią problem (światła itp). A już na pewno przy hlg taka jest idea- żeby nagrać, podłączyć kabelek do tv i wyświetlić w hdr bez żadnego post, kombinowania.

     

    Jeden system jakiegoś tam Panasonica? No way. Kto to, poza garstką entuzjastów, kupi?

    Właśnie o tym samym myślałem niedawno- ja robię zdjęcia dla siebie, niemal nikt inny ich nie ogląda. Sam dla siebie mogę mieć taki niszowy system/sprzęt/aparat/tv/format zdjęcia i szczerze wisi mi czy komuś innemu zadziała i będzie wyglądać jak trzeba.

    Ma działać i wyglądać u mnie, i wygląda na to że takie rozwiązania już są, vide wspomniany wyżej a7iii/rx100, przynajmniej w filmach, bo co do foto to nie umiem nigdzie doczytać. Chyba to wszystko zbyt nowe jeszcze dla wszystkich, również testujących te aparaty... Ale idzie do przodu i raczej się przyjmie. Kiedyś.

     

    Nie wygląda to tak że nagle potrzeba specjalnych procesorów w tych aparatach czy coś. Maleńki rx100 (czy nawet pamiętam jakaś tycia ekszyn kamera sony) nagrywa hlg to i zdjęcia teoretycznie robić powinien, to raczej nie jest trudne technicznie.

     

    A czy się przyjmie?

    Co to w zasadzie znaczy- czy raw się "przyjął"? 99% zdjęć powstaje komórkami w jpg. Z pozostałego procentu pewnie z 9/10 to kompakty w szufladach (więc jpg) i bez/lustra ustawione na "auto"/przysłona/czas- w jpg :E

    Dane z czapy, chodzi mi o fakt że kto potrzebuje ten raw używa, narzędzia są. A też nie było tak od zawsze, i w sumie nadal są problemy przy nowych aparatach ze wsparciem egzotycznych formatów raw z takich nowiutkich matryc, i trzeba czekać na nowy dng converter, czy coś.

    Sigmy z tymi swoimi matrycami warstwowymi też niby takie egzotyczne, ale możesz sobie mieć taki aparat, odpowiedni soft i se pstrykać. I się nie przejmować że w najnowszym szopie nie zadziała. Klisza też nie zadziała, a ludzie nadal robią.

     

    Z hlg/coś-innego-hdr raczej nie będzie inaczej, trochę pewnie zajmie zanim się ustali ten workflow o którym piszesz.

    - potrzebny jest istniejący workflow - od aparatu, przez Soft (działający i bezproblemowy) do np. monitorów.

    Ale jak już sprzęt spowszednieje (bo sądzę że hdr to coś co z nami nie dość że zostanie, to jeszcze się polepszy) to raczej nic na przeszkodzie stać nie będzie- kto będzie chciał, będzie używał. Coś jak raw dzisiaj.

     

    Pogdybać nawet można czy czasem nie będzie wręcz łatwiej z tym hdr-em. W końcu jeśli nie będzie trzeba dłubać przy tonemappingu (bo raczej nie będzie trzeba- w końcu w hdr chodzi o łapanie i wyświetlanie m.in. szerszego zakresu jasności, bez żadnego spłaszczania na potrzeby wyświetlacza) i takie hdr-zdjęcie będzie najwyżej miało do skorygowania balans bieli (o co też może kiedyś będzie dbać siakieś AI w aparacie) to będzie nawet prościej niż dziś z raw... Konkretnie hlg jest robione precyzyjnie dla łatwości łapania/dystrybucji, bez żadnych/dużych korekt.

     

    W zasadzie to dziś mamy trudno, bo plik ma dużo info (raw w sensie) a monitor nie umie ich naraz wyświetlić... Mówisz- nie mamy monitorów hdr. No właśnie! Dziś, i 6 lat temu też nie mieliśmy, a raw technicznie posiada te dodatkowe dane od lat. I kombinujemy jak te informacje wcisnąć, spłaszczyć do tego co potrafią nasze śmieszne monitorki, gdzie praktycznie pierwszy z brzegu tv hdr jest dużo wyżej. Dlaczego z niego nie skorzystać? Edytować można by/ nawet by wypadało na tv właśnie.

     

    W hdr workflow może być o dziwo łatwiejszy, bo ekran niejako wyświetla wszystko co masz w pliku, bez kombinowania- przynajmniej tak to rozumiem.

    Być może czeka mnie twarde lądowanie :E

     

    - HDR w foto ma (niestety dla producentów sprzętu) wąskie zastosowania. Nie da się z tego zrobić technologii nagle (?) potrzebnej wszystkim

    Czy tak jest? Z jednej strony- owszem, jak wyobrażę sobie typowe zdjęcie "kogoś w pokoju z lampą błyskową na wprost", wyświetlone na ekranie hdr 5000nitów jako biała, błyszcząca ściana światła, to to chyba serio nie najlepszy scenariusz :E

     

    Ale np. ja lubię złapać za aparat przy zachodzie słońca a to wręcz stworzone do hdr, i w zasadzie to dziś się "nie da" "właściwie", "poprawnie" takiej sceny zarejestrować. I taki prawdziwy hdr teoretycznie duuużo lepiej się tu sprawdzi. Owszem po post jakoś to wygląda, ale to takie kombinowanie, a efekt może co najwyżej przypominać faktyczną scenę kształtem, ale czy kolorem, intensywnością, kontrastem? Na wyświetlaczach sdr? Niezbyt, chyba że w artystycznym sensie, a ja tak np. nie robię, o czym niżej.

     

    Czy np. jak niedawno była jesień, jeszcze gadałem z kumplem na ten temat- bo tak- idziesz, leży pełno liści, suche, pikne, kolorowe. Słońce nisko, ostre i nagle z pomiędzy drzew taka stróżka światła pada na kilka/dziesiąt takich listków podświetlając je BARDZO intensywnie, bardzo jaskrawe, intensywne kolory- a cała reszta sceny "ciemna". Kontrast kosmiczny.

    I w zasadzie wiem że nie mam po co wyciągać komórki, a i jakbym miał przy sobie lustro to i tak nie zarejestruje tej sceny (a może...? raw) a już NA PEWNO nie oddam jej na ekranie 0-255.

    Może to tylko ja, ale moje zdjęcia to głównie "nietypowe", trudne światło, duże kontrasty właśnie. No i te nieszczęsne "świecenie" intensywnymi kolorami, którego dziś na normalnym monitorze/tv po prostu nie oddasz.

     

    ROZUMIEM że są bardziej artystyczne sposoby na oddanie "feelu" takich scen bez laboratoryjnego oddania 100% szczegółów sceny... ale ja bym chciał właśnie tak laboratoryjnie, no :E Co poradzę. Hdr wyglda na naturalne rozwiązanie takiego problemu.

     

    - profesjonaliści zazwyczaj zadają sobie pytanie "A ile to dla mnie zarobi?" Tu jest zonk.

    Widzę taką opcję że ktoś reklamuje się jako "NAJJAŚNIEJSZE, NAJBARDZIEJ KOLOROWE! NAJBARDZIEJ JASKRAWE! NAJBARDZIEJ ŻYWE zdjęcia ślubne EVER!!11 CZY MASZ TV CHADEER??? NO OCZYWIŚCIE ŻE MASZ BO JESTEŚ MŁODY I DYNAMICZNY I MASZ GADŻETY!!! NADĄŻASZ! MASZ KREDYT W BANKU I ZMIENIŁEŚ PRACĘ! I ODWAŻNIE IDZIESZ W PRZYSZŁOŚĆ!!! TO TY KSZTAŁTUJESZ SWOJE PRZEZNACZENIE!! MOŻESZ SOBIE KUPIĆ GŁUPI TELEWIZOR CHADEER CO TO DLA CIEBIE!!! A zdjęcia ze ślubu będą do rozwodu na całe życie!! TAKŻE ZDECYDUJ SIĘ JUŻ DZIŚ NA NAJJASKRAWSZE EVER ZDJĘCIA ŚLUBNE U HDR-MANA!!! DZIEKI TYM ZDJĘCIOM PRZEŻYJESZ TEN DZIEŃ JESZCZE NIE RAZ, NICZYM PIERWSZY RAZ!!!"

    :heu:

     

    Znów- za ten rok, dwa raczej wszystko będzie taki tryb posiadać, już dziś nic w sumie nie dopłacasz do hdr w tv, bo innych nie ma. Te tryby zdjęciowe też raczej będą powszechne, nie wymagają bóg wie czego sprzętowo (raczej).

    Ot, będziesz ten tryb miał tak jak masz tryb auto-panoramy w komórce :E :E Nie dopłacasz za to.

     

    No właśnie, monitory. Są graficzne służące do pracy z HDR. Nie sądzę żeby nad Wisłą sprzedał się chociaż jeden. One nie są drogie. One są na poziomie wyższym: price on request. Kto miałby to kupić i co miałby z tym robić, żeby na foto HDR zarobić?

    Pozostają zabawki od Samsunga itd - czyli technologicznie idziemy w kierunku amatorskim, ewentualnie entuzjastów.

    Ot taki ficzer. Zobaczymy czy przetrwa dłużej niż 3D ;)

    Tu szczerze mówiąc nie wiem o czym mowa- ja nie mówię o jakimś cholyłód stajl hdrze, takim że top topów kamery za 50k$ i post na monitorach studyjnych, tylko- taki powszedni nasz hdrek codzienny. Taki nie za dobry :E

    Nawet te najprostsze hlg jednak powinno sporo poprawić w trudnych scenach.

    Dziś wiele efortu idzie w applach i samsungach na robienie sprytniejszych trybów zdjęciowych auto-hdr, tych takich płaskich, z myślą o wyświetlaniu na zwykłych ekranach- co jest takim obchodzeniem problemu. Jak za 5lat będą miko ledy z dobrą jasnością, kontrolą co do piksela i efektywnością energetyczną, to będzie bzdurą siedzenie w sdr, kiedy zdjęcie z dużą rozpiętością będzie można zwyczjanie... wyświetlić.

    Na moje to nie jest pytanie czy hdr przetrwa, tylko kiedy się upowszechni również w foto. (Bo w filmach/grach już jest, i nikt nie narzeka, a to pomimo prymitywnych jeszcze odbiorników.)

    A tu wygląda że w dużej mierze już praktycznie jest. W recce a7iii wspominają o jakimś jpeg HLG. Być może to już jest, może można sobie taki tv hdr kupić, do tego taki aparat i robić dla siebie, nie martwiąc się czy komuś innemu zadziała, i czy będzie popularne. Kogo to w sumie obchodzi, jeśli tego nie porzucą, a raczej nie- bo niby czemu? 3D to była zupełnie inna technicznie para kaloszy, nic dziwnego że zrezygnowali z tego w takim kształcie... i nie zdziwię się jak kiedyś jeszcze wrócą, z czymś lepszym.

    HDR to dla mnie serio kierunek mw. taki sam jak c/b->kolor. Naturalna ewolucja.

     

    EDIT

    https://www.adorama.com/alc/ces-2019-panasonic-announces-hlg-photo-high-resolution-modes-for-its-new-lumix-s-full-frame-mirrorless-cameras

    HLG Photo Mode portrays full, vibrant colors

     

    Also known as High Dynamic Range Still Photo, HLG Photo Mode tackles the under-exposure of shadows and over-exposure of bright lights. While in this setting, photos are shot in a wider dynamic range. The LUMIX S then reproduces the colors on the far ends of the color spectrum — intense whites and blacks. The final product is an image with a rich color expression, and an accurate depiction of the setting.

     

    The resonant photo is then stored as an HSP file — these are large files with a powerful amount of image information (hence the excellent quality). The pristine images can then be viewed on any HLG-compliant devices via HDMI cable, including the most recent Panasonic 4KTV. The workflow is ideal for any photographer wanting to display their work in the finest, most impressive format.

     

    To make things even more streamlined, the HLG Photo Mode is a post-production time saver. Instead of jumping into Lightroom or Photoshop to color correct the whites, blacks, highlights, and shadows, the Panasonic LUMIX S1 and S1R handle that process in real time.


  11. Jakiś czas temu, przy okazji nowego sony rx100-6 który ponoć kręci filmy HDR hybrid log gamma, takie "instant hdr", że nic nie trzeba przerabiać, konwertować, tołnmapować, tylko się podłącza kabel do tv i to ponoć "działa" bez kombinowania- zastanawiałem się wtedy czemu my właściwie nie mamy trybu "photo HDR"? A może mamy- raw? Ale raczej TV hdr nie odczyta takiego, nawet jeśli wszystkie dane tam są. I czy właściwie można takiego rawa przekonwertować na jakiś jpegHDR, czy coś. I pamiętam że generalnie nic się nie dowiedziałem, czy jest, czy działa, czy można. (*)

     

    Te nowe FF panasy? Będą miały właśnie coś takiego, produkować będzie toto pliki "hsp" i ponoć tv obsługujące hlg będą to wyświetlać jako takie właśnie hdr-zdjęcie.

     

    To może być, taki trochę- gejmczejndżer, o ile nie będzie jakichś kruczków.

     

    https://www.dpreview.com/news/7318697757/panasonic-s1-s1r-to-ship-in-march-hlg-photo-and-high-res-mode-added-to-feature-list

    High Dynamic Range Still Photo – HLG Photo Mode

     

    HLG Photo allows images to be shot with a wider dynamic range. By reproducing both glaring lights and dark shadows that are likely to be overexposed or underexposed, the Lumix S achieves rich, precise color expression as close as possible to visual memory.

     

    HLG Photos are produced as an HSP file. The user can play back these vibrant images on the latest Panasonic HLG-compliant 4KTV via HDMI cable connection or other HLG-compliant devices. It is also ideal for photographers’ photo presentations.

     

    No i... jak to właściwie procesować, czy okaże się że będzie wybór albo raw, albo te hlg, i jego już nie będzie można łatwo edytować. Czy naświetlanie będzie z jakimś innym histogramem? 0-1024 czy coś?

    Ciekawe w każdym razie.

     

    *-

    później se przypomniałem że było- coś takiego.

    https://www.dpreview.com/reviews/sony-a7r-mark-iii-review/4

    Ale nic nie opisali poza stwierdzeniem że można tego użyć jako hack żeby dobrze naświetlić rawa...


  12. To ja tylko dla przypomnienia, żebyście w te Sylwestry nie zapomnieli o sondzie new horizons, bo to akurat ważniejsze :E

    Po Polsku rzadko się tak dobre opracowania trafiają, z tym że przez shutdown rządu w usa raczej tych konferencji o których tam piszą- może nie być.

    https://www.urania.edu.pl/wiadomosci/co-juz-wiemy-o-ultima-thule-czego-dowiemy-sie-podczas-przelotu-sondy-new-horizons

     

    Warto mieć na oku:

    http://pluto.jhuapl.edu/

    https://twitter.com/newhorizons2015

    https://twitter.com/alanstern


  13. Na waszym miejscu nie czarowałbym się, ale zobaczymy. Był już dell za 5k$ i nie kupiliście, tu będzie z 3k$ może. Tak ja obstawiam.

    Ktoś tu pisał o 2kzł :lol2: :lol2: :lol2:

     

    To od Joled to miało trafić do

    https://www.asus.com/ca-en/Monitors/PQ22UC/

    gdzie "proArt" znaczy "drogo" a "professional" jeszcze drożej :E

    Poza tym to 21.6 cala. Serio?

     

    Drugi to jakiś hi-endowy pr0-gejm1ngzowy monitor do esportu. Też 21.6 cala, tyle że 1080p. Jako że ma mieć metkę jakiegoś e-teamu, to zapomnijcie że to będzie tanie, pamiętacie te asusy czy acery co to ostatnio testowali na labie po 13kzł? (co prawda te były 120hz przy 4k czy coś)

    Co, myślicie że z oledem będzie dużo taniej? :E Cenę woła się taką jaką ludzie zapłacą, a teraz są względnie dziani.

     

    Trzecie- 27" 4k- na razie zaprezentowali w Japonii jako monitor medyczny, czytaj ultradrogi.

    Cała ta produkcja jest z linii określanej jako low-volume, "test" itp. Także dużo tego nie ma, musi swoje kosztować.

     

    Ja zresztą nie bardzo wiem kto czeka na takie monitory, gdzie 55" oled 4k/60 1080/120 hdr koszuje 1.5k$ i to u nas w kraju :hmm:Chyba nie myślicie że te monitory będą tańsze...? :lol2:

     

    No ale co kto woli, rozumiem że można chcieć coś mniejszego, ale to was będzie kosztooowaaaćććć. Zapomnijcie że to będzie np. 800$ :lol2:

     

    Za pół roku wyjdą, będą mega drogie, powiecie może za pół roku. A za te pół roku to już będzie blisko samsungowych qd-oledów zapowiadanych na 2020, które będą teoretycznie duuuużo lepiej sytuowane do monitorów, i ogólnie do wszystkiego niż oledy.

    ...Których to qd-oledów znów będzie mało, więc będą b.drogie. Takich fabryk i linii się nie stawia z dnia na dzień, a na dziś to mają się dopiero otworzyć, i naprodukować mało, bardzo mało, MOŻE w końcówce 2019. Ta technologia to tania może być w 2021, a to... już blisko prawdziwych QLEDów.

    :E

    Także- darowałbym sobie czekanie.

     

    Swoją drogą samsung też coś niby pichci w temacie oledowych monitorów, ale na razie brzmi to tak jakby sami nie wiedzieli czy w to iść czy nie, zresztą to logiczne- wiedzą jak wszyscy o wypalaniu w takich zastosowaniach. Cudów nie ma, a do ichnich qd-oledów wiele czasu im nie zostało. Po co mają zapowiedzieć na ces monitory z dostępnością w koniec 2019/ początek 2020, gdzie qd- rozwiąże teoretycznie problem wypalania? Tylko sobie słaby PR zrobią.

    Tyle że te qd- to też początkowo zapowiadają się na b.limitowane ilości, więc też drogo.

     

    No generalnie jak ktoś myśli że będzie tanio to niech se lepiej kupi dziś 2x 55" oled i se wypali- i tak wyjdzie was taniej...

     

    Także bym się nie napalał, początkowo będzie drogo/bardzo drogo i z kwestionowalną jakością (wypalanie). Czy stanieją w ogóle też nie wiadomo, raczej po prostu wyjdą z obiegu. A do czasu jak stanieją będzie już niedługo do lepszych technologii, i tak w koło macieju.

     

    No ale do ces niedługo, zobaczymy.

     

    EDIT temat na czasie- oled 120hz 8k 13.3 cala. Na razie tylko w laboratorium, już jutro w twoim laptoku!

    https://www.anandtech.com/show/13742/new-8k-oled-displays


  14. Nie rozumiem natomiast dlaczego w OLED'ach klatki puste nie są wstawiane podwójnie, co powoduje wyraźnie bardziej meczące 60/50hz migotanie.

    Mam nadzieję że się zrozumiemy mimo że ja nie używam pojęcia "wstawianie iluś tam czarnych klatek" bo lepiej mi się myśli w milisekundach :E i generalnie w lcd to raczej tak właśnie działa- jest oparte na czasie, a nie "wstawianych klatkach". Można i tak, i pewnie niektóre tv tak robią, ale to złe wykorzystanie technologii. Ale mistrzem niewykorzystywania technologii, w kontekście blura to jest akurat oled właśnie, o czym niżej...

     

     

    Załóżmy że w lcd przy grze 60fps masz panel tv 60hz. Klatka zarówno gry trwa 16ms, jak i odświeżenie ekanu trwa 16ms. Ale diody za ekranem (led) nie są połączone na sztywno z odświeżaniem ekranu- mogą się włączyć czy wyłączyć kiedy chcesz.

     

    Czyli masz czas start (t), klatka się rysuje na lcd ale tego nie widzisz, bo obraz nie jest podświetlony, diody wyłączone. Po powiedzmy t+6ms lcd już się "narysowało" (czas reakcji) włączasz diody, widzisz obraz przez np. 4ms, i przy czasie t+10ms wyłączasz znów diody. Obraz na lcd, aż do czasu t+16ms nadal "jest" ale go nie widzisz bo nie jest podświetlony. Skracasz więc persistence do 4ms, zmniejszasz blur 4x w stos. do 16ms. Po t+16 rysuje się nowa klatka.

     

    Ciężko tu więc mówić o "wstawianiu klatek"- diody lcd włączasz kiedy chcesz.

     

    Więc z migotaniem (czyli włączeniem na krótko ledów za ekranem) możesz poczekać 6-8ms aż się panel "ułoży" (czas reakcji) i przez ten czas nie działają ledy za ekranem, widzisz czarny ekran.

     

    Czy to jest "wstawianie czarnej klatki"? Nie za bardzo, ale jak zwał tak zwał.

     

    Później wyświetlasz obraz przez ile chcesz w tym pozostałym czasie, czyli 16.6ms minus te 6-8ms.

    Możesz więc wyświetlić obraz przez np. 8ms, wtedy masz połowę blura, ale możesz też przez np. 3-4, i tu blur już w zasadzie nie istnieje przy normalnym, nie super szybkim ruchu. Możesz błysnąć 1-2ms i masz super ostry obraz choćby nie wiem jak szybki był ruch.

     

    Jak panel lcd ma 120hz to niewiele zmienia, poza tym że piksele ułożą się szybciej, np. po 4-6ms i możesz szybciej zacząć błyskać.

     

    Błyskanie jako efekt negatywny dla oczu/postrzegania też można zrobić różnie- można błysk diód nie ucinać, ale stopniowo wygaszać i już będzie po większości problemu.

    Ale...

    To wszystko w idealnym świecie, gdzie firmom od tv chce się tak ustawiać. Często już po zdjęciach z testów widać że olewają takie opóźnianie, i błyskają na sam początek klatki, gdzie jeszcze są artefakty overdrive, pozostałości poprzedniej klatki i całość bierze w łeb. Do tego trzeba synchronizować podświetlenie w różnych miejscach ekranu, bo ten odświeża się z zauważalnym opóźnieniem góra-dół ekranu.

     

    Niemniej jeśli zrobić to dobrze, to lcd rozwala oledy w tym temacie. Do tego dochodzi jasność- błyskanie ją zmniejsza, a w oledach ona na start jest niższa. Diody za ekranem lcd można podkręcić żeby nawet przez moment mocno świeciły, a oleda nie bardzo. Pamiętam że jeden monitor samsunga w trybie błysku (b.krótkiego, ale nie pamiętam dokładnie) wyciągał 400cd, i nie dało się tego zmniejszyć :E i w reckach podawano to wręcz jako wadę! Bo nie dało się "paczyć" tak świecił. W oled jest odwrotnie. Przy hdr to dodatkowy problem.

     

     

     

    Natomiast właśnie "wstawianie czarnych klatek", i to dosłownie, jest w oled... bo tam na razie nie da się inaczej.

    Tzn. panel oled niejako nie potrafi wyświetlić nic przez czas krótszy niż czas odświeżania.

    Jeśli panel oled ma 60hz, to nie potrafi wyświetlać krócej niż 16ms.

    Jeśli ma 120hz, to nic krócej niż 8ms nie wyświetli.

    Dlatego nie potrafi zrobić BFI przy 60hz panelu wcale, jak już wyświetla obraz to on jest przez cały czas klatki wyświetlany, stoi dany obrazek i tv nie jest w stanie tego skrócić. Nie potrafi wyświetlić obrazu przez np. 3ms, albo 6ms, i wtedy się po prostu wyłączyć na resztę klatki (czyli odpowiednio 13/10ms). Nie umi i tyle :E

     

    Co jest BZDURĄ, bo przecież teoretycznie oled ma taką zajebistą kontrolę nad każdym pikselem, praktycznie zerowy czas reakcji. Teoretycznie więc powinien być super kontrolowany tryb bfi- mógłbyś sobie ustawić 4.386ms błysk, reszta z tych 16ms czarny ekran. Ale nie!

     

    Jak John Carmack zaczynał z VR-em, pracował na takich okularkach sony oled, nie pamietam nazwy ale one wtedy z VR nie miały nic wspólnego, to był taki nagłowny telewizor 3d.

    Wysłał sony mejla że "ej, ale czemu wasze okulary mają zaszyte w jakimś romie na sztywno odświeżanie -bodaj- 60hz, czy 120hz, skoro jako oled powinny luzem pracować w 480hz?"

    Odpowiedzi się ponoć nie doczekał.

     

    Przy 120hz panelach oledy już "błyskają"- tzn. właśnie "wstawiają czarne klatki"- nadal są limitowane że obraz wyświetla się przez cały czas "klatki ekranu" ale skoro klatka gry to 16ms (60hz) a panel ma 120hz odświeżanie (klatka 8ms) to można te 16ms klatki gry taktować jako DWIE klatki ekranu, wyświetlić jedną klatkę gry przez te 8ms odświeżania ekranu, a drugie 8ms odświeżania ekranu to "wstawiona" czarna klatka.

     

    Więc oled jest limitowany do swojego odświeżania ekranu, jeśli to 120hz to najkrótszy czas który potrafi coś wyświetlić to 8.33ms.

     

    Czyli 8ms gry, 8ms czarnej klatki. Nie potrafi zrobić np. 4ms gry i 12ms czarnej klatki.

     

    Przy grze 120fps już nie da się zrobić żadnej czarnej klatki... bo nie ma na to czasu. Jest 8ms klatki gry i odświeżania ekranu, kolejna 8ms klatka-ekran.

    W takim układzie panel musiałby mieć 240hz.

    Z czym -teoretycznie- problemu być nie powinno...

     

     

    To jest ponoć coś z driverem tego ekranu oled, czytałem o tym na avs, ale teraz za bardzo nie sprawdzę. Może w 2019 :E

    Bzdura ale co zrobić.

    Natomiast bez błyskania może i oled jest teoretycznie ociupinkę lepszy- pytanie czy to widać każdy sobie musi sam odpowiedzieć. Lcd często nawet bez błyskania mają pwm. który zależnie od częstotliwości, kształtu sygnału i takich może po prostu wypadać lepiej dla oka. Ale to znów zależy np. też od tego ile mamy klatek gry, bo pwm 120hz przy grze 60fps to luzik, podwójne ale ostre klatki ja na ten przykład preferuję nad smugę full persistence, ale już przy 30fps to będzie czterokrotne powielenie obrazu... Tam nawet 60hz bfi to będą zdublowane klatki.

     

    Także w tej chwili rozdz. obrazu w ruchu to wybór między rakiem a rakiem... :E

    Olejmy wreszcie te '90s 60hz i idźmy kufa mać w >90hz plus błysk. Ale nie, "30fps mi wystarczy" :mad2:


  15. No to akurat są bzdury, obydwie technologie potrafią sobie dobrze radzić z odwzorowaniem ruchu i ostrością, OLED nawet technicznie powinien mieć przewagę bo jest szybszy ale tutaj już dużo zależy od elektroniki TV.

    No... nie.

     

    Pisałem o tym tu

    http://forum.pclab.pl/topic/1248928-HDR-na-PC/page__view__findpost__p__15251761

     

    LCD ma cały czas przewagę w ostrości w ruchu, przynajmniej odpowiednio zrobione (tzn. stobing/scan podświetlenia. Oled na razie chyba tylko w już nieprodukowanym monitorze della za 5k$ miał podobną funkcję).

    "Blur" czasu reakcji LCD jest niemal nieistotny w trybie błyskowym, o ile ten jest dobrze zrobiony, bo przez ten czas narastania/opadania sygnału i tak widzisz czarny ekran bo diody za ekranem nie działają. Błyskają dopiero po paru milisekundach, jak już lcd "się ułoży".

    Tu masz obraz w ruchu z oled

    https://i.rtings.com/images/reviews/tv/lg/e8/e8-motion-blur-large.jpg

    2x lcd sony

    https://i.rtings.com/images/reviews/tv/sony/x900f/x900f-motion-blur-large.jpg

    https://i.rtings.com/images/reviews/tv/sony/x930e/x930e-motion-blur-large.jpg

     

     

     

    a tu oled ze strobe 50% czasu klatki- najlepszy możliwy scenariusz na dziś w oledzie-

    https://i.rtings.com/images/reviews/tv/sony/a9f/a9f-bfi-large.jpg

    A tu z dostępnego tylko w usa vizio w trybie błyskowym- ok. nie wiem, 20-30% czasu klatki, może mniej

    https://i.rtings.com/images/reviews/tv/vizio/p-series-2018/p-series-2018-bfi-large.jpg

    tu z jakiegoś samsunga

    https://i.rtings.com/images/reviews/tv/samsung/nu8500/nu8500-bfi-large.jpg

     

    Różnica jest, i bynajmniej nie na korzyść oleda.

     

    To bardziej skomplikowana sprawa, lcd może mieć strobe 120hz przy 60hz sygnału, wtedy masz podwójne klatki ale za to ostre. Niektórzy tak wolą, innym przeszkadza.

    Na oledzie masz ciągłe wyświetlanie, więc w ruchu rozmytą smugę, takie są fakty nawet jeśli tego nie widzisz... W najlepszym razie włączasz tryb błyskowy w oled i masz tak jak na obrazku wyżej, ale jak taki tryb włączysz w lcd to masz po prostu lepiej. (tzn. tylko patrząc na ruch, bo już kontrast itp. to niezbyt :E )

    Do tego te tryby często nie działają/różnie działają w "trybie gry", albo błyska ci te 60hz po oczach.

     

    Ale takie uroki błyskania/wyświetlania kontentu w 60hz ogółem. Trzeba ustalić standard na 90-120hz i błyskać zawsze zgodnie z fps kontentu i skończyć tę szopkę raz na zawsze, ale nie bo zawsze się znajdzie ktoś kto "ale mi 30epeesuf wystarczy!"... Albo "wolę 30fps i lepszą grafikę!"

    Ta. A później rusz kamerą i w 30fps masz wazelinę na ekranie (w 60 przy szybszym ruchu też), ale hej jak się zatrzymasz to tak ładnie wygląda...


  16. Płynność nie musi się wcale równać- czytelność, ostrość w ruchu. Szczególnie film, ale i gra z dodatkowym "efektem" motion blur- może być płynne i w 20fps i w 60fps.

    A gry byśmy chcieli ostre i szczegółowe, nieważne czy w ruchu czy nie, po co w końcu generować te 4k jak w ruchu tych szczegółów nie będzie widać.

     

    Filmy, poza "efpeesem" mają coś czego gry nie mają- prędkość migawki (shutter speed) ustawioną przy ich nagrywaniu. Film można nagrać w 15fps i 25 i 60 i w 100fps. I innych fpsach tysz. Proste.

    Ale.

    W np. 15fps można użyć migawki 1/15 sekundy albo 1/25, albo 1/60, albo 1/1000 sekundy. Nadal będzie 15fps, ale obraz będzie inny tu i tu.

    W 1/1000 będziesz miał w klatce obrazu "zamrożony ruch"- obiekt ściśle w danym miejscu bo nie zdąży się on za dużo poruszyć w tak krótkim czasie, a w niższych wartościach migawki (czyli bliżej 1/15)- obiekt pokonał w tym czasie pewien dystans i cały ten ruch się zarejestrował- i obiekt będzie wyglądał bardziej jak "smuga".

     

    https://youtu.be/DGQ3DNLkp_4?t=60

    (nie polecam wcześniejszego fragmentu powyższego filmu- z wentylatorkiem- zakrzywione skrzydła to artefakt nagrywania- rolling shutter i oczywiście nie tak to powinno wyglądać :E )

     

    https://youtu.be/DGQ3DNLkp_4?t=166

     

    Tu na przykładzie jadących samochodów dobrze widać różnicę w "płynności"- niby przy 1/30sekundy jest bardzo "płynnie", nie? Ale czy to jest "lepiej" niż przy 1/800? Spróbuj przeczytać nr. rejestracyjny na 1/30...

    Teraz ten film jest w 30fps, gdyby był w np. 60- szybsze migawki wyglądałyby lepiej niż tu.

     

    Teraz czy na wolnej migawce (czyli 1/24, 1/30 a NIE szybkiej, krótkiej jak np. 1/2000) obraz wygląda "lepiej"? Co to znaczy lepiej? Jest może "płynniejszy"- tak się to może wydawać- ale jest też rozmyty. A tego już w grze nie chcemy.

    Dodawanie blura do gier 30fps to tylko głupi "ratunek" gier z niskim framerate'm- skoro jest mało klatek to je rozmyjemy i lud będzie się cieszył że "jest płynnie pomimo 30fps!". No tak- ale czy jest czytelnie, ostro, szczegółowo- w ruchu? Nie.

    Ale hej, za to jaka ładna grafika w tych 23fps! ...Jak za dużo nie ruszać kamerą...

     

    I teraz sedno- w grach, ze względu na sposób wyświetlania przez typowy monitor/tv (full persistence) masz niejako taką "migawkę" jaki masz fps. Czyli jeśli masz grę 30fps, to i "migawkę" 1/30sek- czyli w przypadku szybko poruszających się obiektów- masz blur. Tym większy im MNIEJ fps.

    W filmie to przejdzie, każdy wie jak wygląda drzewo, piasek itp itd. nikt nie będzie narzekać że coś jest lekko rozmyte. Podświadomie wiemy jak wszystko wygląda w realu, a to prezentuje film. Jak nawet jest to nieco rozmyte- tak tego rozmycia nie widzimy.

    Ale gra ma mieć czytelny obraz, ona po to generuje te piksele, te detale, żeby je było widać, i one nie są wcale takie oczywiste- świat gry ma typowe dla siebie obiekty czasem w realu nie występujące :E i chcielibyśmy się im przyjrzeć, nie?

     

    spójrzcie na ten moment filmu (no, akturat dziś przeglądam jakie są drony :E :E tak się trafiło) gdzie kamera "paczy" w dół- długi czas migawki wynikający z małej ilości światła/niskiej czułości pięknie rozmywa... wszystko. Dopiero jak kamera się zatrzymuje można się wszystkiemu jako tako przyjrzeć, w czasie ruchu- no, nic nie widać.

    I w grach z niskim framerate w ruchu jest mw. tak samo, na tej samej zasadzie, tu jest może dość ekstremalny przykład, ale tak to działa- im więcej fps tym ostrzej, im mniej tym bardziej rozmyty obraz. Teraz czy on NIE jest płynny...? No... jest... Ale czy chcemy żeby tak wyglądały gry?


  17. Autorze, zapoznaj się z pojęciem motion resolution i wróć do tematu narzekać że wszędzie powinno być 90-120hz.

     

    60hz w czasach 4k to pośmiewisko- im wyższą masz rozdzielczość tym więcej jej tracisz w ruchu.

    Gry typowo, w przeciwieństwie do np. filmów- są ruchome, niemal non stop. A nie statyczne ujęcie na głowę aktora. Widzisz różnicę między typową kamerą w filmie, a np. w diablo? W diablo non stop zmienia się 95% ekranu.

     

    Ładnie to 4k wygląda na zdjęciach, statycznych skrinach w wątkach o horizon zd na neogafie gdzie konsola generuje obraz z kilku kolejnych klatek, yntelygętnie zbierając piksele z kilku klatek w kolejności i wyświetlając ładny obrazek. I to wygląda b.ładnie dopóki się nie rusza.

    Później poruszasz kamerą naokoło postaci i w tych 30fps dosłownie 90% detali się rozmywa (postać się nie rusza więc nadal jest ok, ale spójrz na tło). W 60fps znikałoby może, nie wiem- 75%?

     

    60hz W RUCHU było akceptowalne w latach '90 bo było błyskane, na małym ekranie flicker był do stolerowania, blura nie było. Niskie rozdzielczości nie stawiały dużych wymagań.

     

    Dziś, do 4k na 55-65" żeby zachować detale w ruchu potrzeba min. 90hz+scan podświetlenia (90 żeby nie było dużego flickera, niektórzy jako tako tolerują błyski 60hz, ale ogół ludzi nigdy na to nie pójdzie), inaczej oglądasz ładne statyczne obrazki, a w ruchu masz rozmytą kupę.

     

    Przykro się czyta takie wątki, "60hz jako szczyt świata"... :mad2: Dajcie spokój.

    Nowe konsole powinny wymusić 90-120hz jako standard wyświetlania obrazu i koniec. Wtedy wymuszenie odpowiednich trybów błyskowych w TV i byłoby pięknie.

    To nie, bo 60hz wystarczy... :mad2: A nie, czekaj, nie trzeba 60, 30 wystarczy!

    Zamykam temat.


  18. Sory z offtop, wincyj nie bynde...

     

    Oled nie smuży wcale, ale ma blur, owszem.

     

    Na blur w lcd składa się... smużenie właśnie, czyli wolna reakcja pixeli- smuga ZA "ruchomym obrazem", ORAZ- persistence. I persistence jest DUŻO większym problemem, dziś lcd, szczególnie tv (nawet va) ma dość szybkie matryce (tv mają dużo szybsze matryce va niż monitory- coś pewnie z wielkością pixeli i technologią produkcji) żeby ten efekt był niemal niezauważalny przy dużo większym, drugim problemie- persistence właśnie. Va może być lepsze jeśli chodzi o blur ogółem- jeśli stosuje błyskanie. Oled ma tu mniejsze pole manewru, ale sony i tegoroczne lg oled też ma coś na kształt błyskania- redukuje to blur dokładnie o połowę, ale lcd może to zredukować jeszcze bardziej.

     

    Oled NIE MA tej składowej smużenia- blur na nim wynika TYLKO z persistence, czyli faktu że obraz (nawet "ruchomy") jest faktycznie... zawsze nieruchomy. Przecież pixele są w danym miejscu, nie ruszają się :E

    On jest wyświetlany na powierzchni tv ciągle "w jednym miejscu", statycznie, po czym znika i wyświetla się np. o pixel w lewo (nowa klatka obrazu) i... znów jest wyświetlany ciągle, przez czas trwania klatki. Np. przy 30fps jest wyświetlany przez 33ms, przez ten czas obraz "stoi w miejscu". Przy 60 już tylko 16ms.

    Nasze oczy natomiast śledzą ruchomy obraz ciągle po powierzchni ekranu, oczekują że piłka lecąca w lewo- no, będzie coraz bardziej w lewo, więc wodzimy nimi mw. w takim kierunku. Nasze oko sunie płynnie, bez "stopni" a obraz na tv to tak naprawdę seria nieruchomych klatek... Oko przez czas trwania klatki się porusza, a obraz przez ten czas jest statyczny- stąd persistence blur.

     

    Im więcej klatek na sekundę tym krótszy czas utrzymywania statycznego obrazu na ekranie- przez co mniejsze (krótsze) persistence- mniejszy blur.

     

    Niemniej żeby samym frameratem usunąć blur w szybkich scenach, trzeba by czegoś typu 240hz-1000hz nierealne- lepiej skrócić czas wyświetlania... gasząc diody za ekranem na większą część czasu trwania klatki. Czyli jeśli mamy 60hz, (czas trwania klatki 16ms) to "błyskamy" podświetlenie na np. 1ms, a pozostałe 15ms obraz jest po prostu czarny, nie ma go. W ten sposób nasze oczy widzą serię błysków, ale bez utrzymywania tego ekranu- bez rozmycia. Oko się rusza, dostaje obraz-impuls, porusza się dalej ale nic nie widzi, bo klatki nie ma- nie ma blura (niemniej obraz nadal pamięta). Nic się nie rozmywa bo nic nie jest wyświetlane. Akurat jak oko przesunie się w miejsce gdzie mw. powinien być obiekt- dostaje kolejną klatkę-impuls.

     

    Tyle że... błyskanie skracając czas wyświetlania, zmniejsza też jego jasność- w powyższym przykładzie 16-krotnie. Jeśli wynikowy obraz miałby mieć choćby 100kandeli, musiałby mieć pierwotnie 1600 (czy jakoś, matematyka :hmm: ) a takich tv mało. Poza tym- stroboskop. Trzeba wyższych częstotliwości niż 60hz. Już nawet 72-75 jak wiemy z czasów crt jest dużo lepsze. Przy 85hz ja już na crt błyskania nie widziałem. Valve dla VR proponowało 90hz (blur jest tam rakiem). To nie jest duża cena za perfekcyjną (niemal) ostrość w ruchu.

    Nowe konsole powinny mieć min. 90hz, ale nie bo anczartyd w "super-hiper-płynnych-jak-oni-to-robio-30fps" wystarczy!

    Wystarczy, kur&A!

    Tjaaa.

     

    Tzn. zgoda że gry gdzie "się idzie w głąb ekranu"- forza, nawet dum- ok, tam nie jest źle. Ale włączcie cokolwiek skrolowanego, nie "8bit indie" skrolowanego, ale np. diablopodobne- coś z dobrą grafą i mnóstwem szczegółów- grim dawn, nawet te path of exile, czy stare van helsingi mają zaskakująco dużo detali. Idźcie tą postacią przez świat- i o ile wasza postać będzie ostra (ona się nie porusza, jest ciągle na środku ekranu, nie? :E), hud będzie ostry, tak spójrzcie na tło- i powiedzcie że nie widzicie blura.

    Mijacie jakiś kamień i dopóki stoicie, widać że on ma jakiś wzór, zadrapania. Drzewo ma korę. Zacznijcie biec- i to wszystko znika, zostaje nieokreślona smuga.

     

    Zakładając że gracie na 60hz, burżuje z 120-144 mają lepiej. A 120 plus strobe? Paaanie.

    Do tego powinniśmy dążyć.

    W diablo akturat tak tego nie widać, to gra bardzo mało kontrastowa, i z mało szczegółową grafiką. Ale takie wolcen traciłoby z 70% grafiki przy ruchu. Tak to niestety wygląda na obecnych tv, i przy założeniu że "60hz powinno wystarczyć każdemu". Ostatnio jakiś filmowiec wypowiadał się że już do 4k powinniśmy iść w 120hz, bo inaczej tracimy te całe 4k przy jakimkolwiek ruchu. A mówił to w kontekście 8k. Przy którym wypadałoby pójść w jeszcze więcej... albo w błyskanie, a to już nie takie trudne- ale wymaga, koniecznie wymaga więcej niż 60hz.

     

    Ed. Zrobiłem zdjęcie swojego monitora z nimi... 3 nakładają się na siebie, ale są wyraźne, :hmm: ?

    Pewnie zrobiłeś zdjęcie statyczne, tj. nie ruszasz aparatem? Aparat zrobił więc zdjęcie pewnie na czasie ok. 1/20 sekundy, i złapał 3 klatki obrazu wyświetlane jedna po drugiej, obok siebie :E

    Trzeba tak, i wiedzieć jaki czas w aparacie zastosować- mw. taki jak czas trwania klatki na mój rozum- przy 60hz będzie to mw. 1/60sek.

×
×
  • Dodaj nową pozycję...