Skocz do zawartości

Adi-C

Forumowicze
  • Liczba zawartości

    3365
  • Rejestracja

Reputacja

0 Neutral

2 obserwujących

O Adi-C

  • Tytuł
    Zombrex user
  1. Ale to jest z ilu trójkątów jest zbudowany model/scena pierwotnie, ile on ma "na dysku"- jak wyświetla to wyświetla "to co widać", z taką dokładnością na jaką pozwala rozdzielczość/odległość od obiektu. W pierwszej scenie na tym 9min filmiku mówią o 1mld trójkątów w scenie, ale rysowane z tego jest 20mln "bo tyle widać".
  2. Nie wiem na ile obecne silniki radzą sobie z geometrią, ale ten tutaj tak jakby siedzi właśnie, konkretnie- na tym (między innymi, jak GI), na masie trójkątów które niby płynnie dostosowuje do dystansu od kamery. Więc to że geo i assety (w sensie że skomplikowane) robią wrażenie... no to chyba właśnie dzięki silnikowi te wrażenie robią, bo dzięki niemu je oglądasz Przynajmniej tak to rozumiem, a specjalistą nie jestem- może wystarczyłoby i dziś mocy na tyle poly, może potrzeba by więcej pamięci, a tu będzie wystarczyło mniej? Nie wiem. Dotąd to mogłeś sobie takie pooglądać w programie - edytorze 3D, a na potrzeby gier trzeba było je maksymalnie uprościć. Tu niby nie będzie trzeba, i to chyba zasługa tego ich silnika (i wielu postępom w gpu ). "Gdzieś kiedyś" widziałem model bodaj tego locusta z girsów, chyba trójki- jak wygląda w takim edytorze, a jak w grze... Wyglądało... podobnie do tych modeli tutaj, w ue5, a było to przecież z 10 lat temu- już wtedy robiono takie modele, tylko później na potrzeby gry trzeba je było ściąć o 99% procent geometrycznie, one powstawały tylko dla ściągnięcia z nich normal map (czy jak to się zwie), tych niby wypukłości itp. Te wtapiano w teksturę i oblepiano tym model low-poly, żeby sprzęt wyrobił. Teraz niby nie będzie trzeba nic obniżać, bo gra będzie doczytywała oryginalny model hi-poly z dysku i jakoś dostosowywała na bieżąco ilość wyświetlanych poly. W tym demie mówią o 20mln poly wyświetlanych... Czy ja wiem czy to AŻ tak znowu dużo żeby wymagało jakichś cudnych silników...? Tu chyba raczej chodzi o te dostosowanie w locie, w końcu byłoby faktycznie super załatwić raz na zawsze lod, popup. Ale sama ilość? Pamiętam benchmark w crysis1 gdzie wyświetlało ilość poly, i w pewnym momencie było to 3mln... I na moim wtedy gtx 260 działało toto w ok 30fps w 1024x768 czy max 1280x960. No dziś 20mln (6x więcej) to chyba nie aż taki przełom znowu? No ale nie wiem ile poly mają obecne gry. Więc tu raczej chodzi o wgrywanie tych oryginalnych modeli w locie, płynnie regulując ilość detali. A to już by było super gdyby faktycznie działało, bo technicznie to może kompletnie zmienić konstrukcję światów w grach, przynajmniej tych korzystających z ssd, więc pewnie wiele cross-genów tu odpadnie... (Ogólnie to szerszy temat ale o limicie "danych" właśnie, nie mocy gpu, cpu, ale właśnie o dogrywaniu danych- ich strukturze, szybkości wgrywania, o tym już od baaardzo dawna mówi się jako o czymś limitującym gry. Właściwie zaczęło się coś dziać ze streamingiem tekstur w ue3 (czy 2) dawno dawno temu. Pamiętam jakieś wypowiedzi przy okazji Carmack-owych megatekstur (które w końcu były super, ale potężnie limitowane... ilością danych właśnie, na hdd, na nośniku dvd, ich wczytywaniem do pamięci wraz z obrotem postacią)- mówił że następne w kolejce postępu to będzie ray tracing i mega-geometria, w sensie unikalnej geometrii wszędzie, tak jak te jego tekstury były wszędzie unikalne. I wyraźnie była mowa jak to wymaga masy pamięci, nie wiem czy ramu czy na dysku, w każdym razie to właśnie dostęp do danych mocno coś tam limitował, już w tym 2008-2011, nie wiem dokładnie. Nie było jeszcze powszechnych ssd na horyzoncie, więc co tam można było z tego hdd wykrzesać- same tekstury ledwo się ładowały, ale jednak efekt był.) Tu powstaje też pytanie czy taki model z milionami poly nie będzie zajmował bóg wie ile miejsca w pamięci/na dysku? Pojęcia nie mam jak to działa, chyba wiedzą co robią (coś mówią że zniknie budżet "pamięci" na polygony ale co to znaczy? Raczej się odnosi do ramu?)- niemniej jeśli np. taki skyrim2 miałby mieć taką unikalną geometrię wszędzie- to ile to będzie na dysku zajmowało...? Jak mówię, nie wiem, głośno myślę. Może ktoś się orientuje. Może modele 3D aż tyle nie zajmują? Ale jak słyszę o miliardach poly w tym demie...? To ile takie gry zajmą na tym ssd? Przecież do tego jeszcze nadal potrzeba tekstur... Wygląda na to że jeszcze długo się nie dowiemy... Rok-dwa z tego co zapowiadają zanim ten silnik wyjdzie... W sumie chyba niepotrzebne dywagacje, ale hej, od tego takie tematy na forum. Ej no, nic takiego nie pisałem (no, może pośrednio ) nie chcę żeby odpowiedź na moje słowa wywoływała tu jakieś wojenki- Ogólnie jestem zdania że już od dawna kontent (masa pracy żeby on powstał) ZNACZNIE bardziej ogranicza gry niż sprzęt na którym ten kontent ruszamy, no ale to tylko moje zdanie. Sprzęt mamy już dość dobry do naprawdę wieeelu rzeczy. Z każdą kolejną generacją "tracimy" coraz mniej na takim "zatrzymaniu się" sprzętowo na kilka lat, i dziś to już naprawdę szkoda gadać Żeby nie było że offtop totalny, to tak się składa że o ile rozumiem ue5 właśnie ma ten kontent bardzo elegancko wgrywać, i nie marnować pracy artystów i grafików wymuszając cięcia, tak jak jest obecnie. I byłoby fajnie gdyby działało, o!
  3. No właśnie... Na D Foundry piszą tak: Teraz GI się składa między klatkami...? Nie siedzę w tym kompletnie, ale jak to ma niby działać? W jednej klatce liczy odbicia z tej strony a w drugiej klatce z innej strony? Albo jakoś w czasie polepsza jakość, rozdzielczość takiego światła? niby może trochę widać jakby się to odbite światło "gasło" przez ułamek sekundy po przesunięciu źródła światła w lewo ale ciężko powiedzieć czy to nie po prostu oświetlenie odbite od "nowej" (w nowym miejscu) plamy światła... Nie widać żeby się to jakoś budowało w czasie? Szkoda że poprzednie konsole choć w jakimś stopniu się na coś podobnego nie załapały, bo to jednak one ustalają poziom technologii na kilka lat, a w tej generacji to już całkowicie. Kiedy powstawał ue4, epic lobbował za 2.5Tflopsa w konsolach, to pod taką jakość robili demka jak samaritan, infiltrator itp. A tu M$ wyskakuje z 1.3Tf. Tamte dema z których się wszyscy teraz śmieją że "no i co, gry tak nie wyglądały w końcu", jednak nie działały na ps4/x1 tylko na np. znacznie mocniejszym gtx680 z tego co pamiętam, demko od square-enix na i7, 16giga ramu... Samaritan działał początkowo na 3x580 Nic dziwnego że konsole nie osiągnęły takiej jakości. (W sumie z ff7 można się kłócić) Tu jednak mowa jest o działaniu tego co widzimy na ps5... A gdzie jest obecnie technologia, jak się zmieniła przez ten cały czas życia ps4, to (chyba głównie przez brak sensownych exów pc-only) jako przeciętnemu graczowi ciężko powiedzieć, chyba że ktoś śledzi jakieś fora z assetami czy demami na silnikach, jak niektórzy tutaj. Niemniej typowy gracz nie widzi tych rzeczy, toteż nie wie specjalnie czego się spodziewać po nowej generacji a nawet jeśli takie miejsca śledzi, to i tak ciężko mu raczej ocenić co z tych dem i assetów jest faktycznie możliwe do ruszenia w grze... Przecież my na dobrą sprawę wiemy co potrafi radek 7770(x1) i 7850/70 (ps4). Więc co serio potrafi nawet taki- w końcu sporo lepszy gtx 680- nie wiemy. Tym bardziej nie 970, ani już zupełnie 1080. Ani np. 2080. Bo przecież wszystko co na nich widzimy to rzeczy robione pod wspomniane wyżej bebechy konsol, tyle że w wyższej rozdziałce i fps... A to przecież nie wszystko co potrafią... Gdzieś tam po drodze był niby spory wzrost ilości liczonych poly itp. Teraz dopiero zobaczymy co w tych sprzętach siedziało tyle czasu... Ogólnie co zmiana generacji to ta sama śpiewka
  4. Adi-C

    S.T.A.L.K.E.R. 2

    https://www.youtube.com/watch?v=8YHj8WavzR0 Czy to jest ledżitny kanał? 300 subskrypcji? Tak czy owak coś tam będzie o 17-ej. Tryjlyr? EDIT jednak fejk, patrząc na ostatnie ich filmy...
  5. Adi-C

    S.T.A.L.K.E.R. 2

    Co. https://www.dsogaming.com/screenshot-news/here-is-the-first-official-screenshot-for-s-t-a-l-k-e-r-2/
  6. Adi-C

    Resident Evil 2 Remake

    O developmencie code veronica takie coś znalazłem, i bynajmniej nie chodzi o pierwszy post, a raczej o te niżej, szczególnie teksty na project umbrella- tam raczej wiedzo co muwjo. Nie będę tego na razie czytał, ale raczej zadają tam kłam twierdzeniu że CV to miał być jakiś główny resi...? Będzie trzeba obadać. Tak czy owak, CV? Still better game than RE:Zero Albo i nie...?
  7. Adi-C

    Resident Evil 2 Remake

    CV to dziwna historia której już nie pamiętam, ale można to wyguglać. Gra powstawała mw. równo z trójką na psx, i nie wiem czy początkowo ta trojka nie miała być spin-offem? Dużo tam gadano, czy dowiemy się co było prawdą to nie wiem. Wszyscy w każdym razie oczekiwali że na mocnym dreamcast-cie powstanie mocna, nowoczesna gra, skończyło się tak że -zapewne ze wzgl. marketingowych (psx to była ilościowo potęga, a DC... no, niezbyt)- to projekt na psx dostał "trójkę" w tytule, i chyba raczej zasłużenie, choć nie jest zbyt istotny fabularnie (może poza końcówką...). CV niby kontynuuje historię dwójki czyli claire szuka chrisa, co rozumiem że dziś, jak wy ogrywacie ten rimejk dwójki, może się wydawać ciekawe... ale robi to tak że fabularnie nic z tego nie pamiętam. Niemniej zawsze jest tam jakiś lore, co dla fana zawsze ważne. Część z tego lore jest nowa, pojawia się i ZASŁUŻENIE natychmiast znika. Tyle powiem. CV niby była w "3D", ale nic z tego za bardzo nie wynikało, nadal głównie statyczne kamery, może ew. leciały za tobą w "trybie scroll", ale nie mogłeś się rozejrzeć itd. Nadal nie widziałeś przeciwników których teoretycznie powinieneś. Ładne tła 2D w re3 na moje prezentowały się... ładniej niż proste 3D w CV, do tego nic z tego 3D nie wynikało. Dopiero czwórka zrobiła użytek z dodatkowego wymiaru, gejmplejowo. Trójka na psx jest też mimo wszystko świeższa mechanicznie, nie pamiętam szczegółów, ale w CV gra się drętwiej- sterowanie czy coś? No mówię, nie pamiętam za bardzo. Trójka na psx była po prostu nowocześniejsza, nawet pomimo tego że w 2D. Do tego CV miała problemy z balansem, ja akurat tego nie doświadczyłem, ale słynnie ma miejsce gdzie jak się zasejwujesz z za małą ilością ammo to to jest koniec gry i nic z tym nie zrobisz, i wielu ludzi tak miało. Na ps3/x360 wyszła nieco poprawiona graficznie wersja CV, dodali jakieś dodatkowe oświetlenie/cienie ale czy zmienia coś w gameplayu to chyba nie. Tej akurat części, ze zmianami w gameplayu, najbardziej by się chyba rimejk przydał ze wszystkich głównych części, ale czy na niego można liczyć? Czy ona zasługuje...? Niby mówi się że będą robić trójkę, już to pewnie wywoła śmieszki że capkom się skończył itp. więc czy odgrzeją też jeszcze, kolejną część, szczególnie gdy ona była średnio udana pod każdym względem?
  8. To akurat prawda... Ostatnio w trójmieście mieliśmy na którymś gdańskim fejsbukowym profilu, nie pamiętam którym, taki "żart" że przerobili kolaż zdjęć osób poszukiwanych, z różnych monitoringów itp. na taki gdzie dokleili dodatkowo zdjęcie Adamowicza (w sensie że ma za uszami, co obecnie pomijam). Wiele osób wkurzyło to nieźle w komentarzach, pisali że przestają obserwować profil, bo to przesada. To faktycznie takie naganianie, z drugiej strony- nie nawołujące przecież do dźgnięcia nożem, tylko rozliczenia sądowego... A tak, jak jesteś szychą, to teraz będziesz bić w dzwon żeby zabronić "pisania takich rzeczy" gdzie generalnie definicja "takich rzeczy" to "jakiekolwiek insynuowanie że mogłeś coś źle zrobić i masz być pociągnięty do odpowiedzialności i że dlaczego nadal tego nie zrobiono". Dobra okazja do wmówienia ludowi że ma się dać robić, i siedzieć cicho, bo jak nie to "mowa nienawiści"- i idziesz siedzieć... I już, pyk, jesteśmy trochę bliżej zamordyzmu. Przecież nikt z rządzących, z sędziujących- nie powie że prawo nie bardzo działa, nie, będą kombinować co na tej tragedii ugrać, sami przecież się nie będą wystawać na krytykę, a może powinni.
  9. Słucham właśnie TV, i uszom nie wierzę, choć to właściwie było spodziewane. "Mowa nienawiści, zatrzymajmy mowę nienawiści, musimy się zastanowić jak się do siebie odzywamy, przestańmy z tą mową nienawiści, przestańmy tolerować mowę nienawiści". I słownie NIC innego, w sensie przyczyn tego co się stało. I Owsiak którym jak zwykle miotają emocje podający się do dymisji i inaugurujący polityczne przedstawienie No kur#@. (http://www.tvn24.pl) Bandzior, który w wieku 27 lat zdążył przesiedzieć 5.5 roku w kiciu i czterokrotnie napaść na bank (!!!) dźgnął w końcu kogoś nożem, CO ZA ZASKOCZENIE, KTO BY SIĘ SPODZIEWAŁ. Nie no naprawdę, tego się nie dało przewidzieć! To dobry chłopak był, i mało pił. No to teraz trzeba COŚ ZROBIĆ- np. wezwać do kontroli fejsbóka, którego sprawca pewnie nawet na oczy w życiu nie widział. To na pewno coś da! Włączam telewizor i dowiaduje się że problemem NIE jest sąd, 100 speców na wygodnych stanowiskach, psychologów, "resocjalizatorów", którzy go wypuścili do normalnych ludzi, nie kur#@- MY jesteśmy problemem. MY jesteśmy winni. Teraz jest niezła okazja żeby znów odrobinkę chwycić lud za mordę, ograniczyć swobodę wypowiedzi, wprowadzić inwigilację, jeszcze utrudnić prywatność itp. Teraz trzeba odciągnąć uwagę od prawdziwych przyczyn tego co się stało- że jesteśmy po prostu wobec bandziorów pobłażliwi, i że może trzeba by coś z tym zrobić. Np. nie wiem, uznać że jak ktoś ma 27 lat i napadł na bank CZTERY RAZY to nie jest normalnym człowiekiem, i może nie powinien chodzić wśród ludzi? Nie wiem, tak sobie tylko myślę. Ale nie, czekaj, lepiej uderzyć w dzwon po-pis, i prewencyjnie kontrolować twittera Tak, a jemu dać kolejne 5-8 lat i wypuścić, i pogłaskać po główce. Bo on niepoczytalny taki że aż potrafi się podszyć pod media, zaplanować, wyliczyć moment co do sekundy. Ale on ci głupi! Trzeba się ulitować, wiadomo. EDIT widzę że na każde kilka rozsądnych osób co to "bandzior, nie mieszać z polityką" jest co najmniej tyle samo, albo i więcej takich co to "wina pisu". No cóż, temat ma polityka w nazwie, więc nic dziwnego.
  10. Dzięki, będę to musiał kila razy przeczytać. I powoli No oby, oby. Ekran hdr w aparacie to na razie raczej tylko oled, bo jak tu podświetlić tak małe ekrany wieloma diodami z tyłu
  11. Dobre pytanie, nie znam się ale w każdym razie raczej większą niż typowy sdr tv/monitor. Cały ten tonemapping który teraz uprawiamy to przecież zmniejszanie dynamiki zdjęcia, żeby zmieścić (upchnąć) ją w dynamice wyświetlacza, czyli ta jest w każdym razie niższa niż zdjęcia. Tzn. możesz zrobić zdjęcie w sumie każdej sceny i naświetlone do prawej- wszystko zeń wyciągniesz, ale nie będzie to wyglądało "naturalnie", bo tv wyświetli z podobną jasnością i cienie i światła. Przykładowo patrzę teraz na podgląd rawa (a więc takie uproszczenie na potrzeby ekranu) z takiego zachodu słońca i na "obrobionego" jotpega. I w raw wygląda to tak że niebo jest lekko przepalone, niewiele ale jednak, więc tu będzie trzeba highlighty pociągnąć w dół, a cienie... no, są w sumie czarną plamą, więc shadows/blacks w górę podciągniemy. No i tak to wygląda na gotowym jpg, wszystko ma podobną jasność, gdzie przecież czerwono-pomarańczowe chmurki powinny się świecić w porównaniu z "ziemią". To znaczy że plik ma niejako trochę detali powiedzmy po prawej stronie poza histogram, czy raczej poza możliwości monitora, a i cienie leżą gdzieś po lewej od lewego końca histogramu... Są tam rzeczy które są ciemniejsze, przypadają na tony których ekran nie wyświetli. I jaśniejsze też, i musisz teraz to spłaszczać. Efekt jest jaki jest. Więc w pewnym sensie to tv nas w tej chwili bardziej ogranicza dynamiką, niż aparat. Ten aparat łapie rzeczy których później nie możesz wyświetlić na tv "wprost", z taką "jasnością" czy "intensywnością koloru" (?) które niby w pliku są. A to 10 letni 10mpix ccd, bodaj 12 bit. Dzisiejsze ff, cmos, 14-16bit zapiszą jeszcze więcej danych. Choć pewnie wpłynie to tylko na sygnał/szum niż na jakieś dodatkowe zarejestrowane chmurki. Ja hdr rozumiem tak że on te jaśniejsze elementy- wyświetla, no, jaśniej. A w każdym razie że kiedyś tak będzie Czy może- że kolory będą intensywniejsze, jaskrawsze, ale nadal naturalne, po prostu jaśniejsze niż reszta zdjęcia. Że np. niebo będzie faktycznie dużo jaśniejsze niż "ziemia". Inna sprawa że nie widziałem w normalnych warunkach hdru, w sklepach nie widzę różnicy, ale licho wie jak tam mają poustawiane. Za kilka lat, jak w tv będzie to lepiej ogarnięte, lepsza kontrola per-pixel i jasność nie typu 600, tylko bardziej 4000nitów/cd czy czego tam, formaty się poklarują, może wtedy dopiero będzie to miało sens. Ale i tu akurat hlg jako format jest ponoć niezależny od jasności wyświetlacza, i w ten sposób kompatybilny również w przyszłość- na jaśniejszym tv po prostu podciągnie się pod najjaśniejszy poziom dostępny dla tv, i rozciągnie zdjęcie na cały dostępny zakres. Więc dzisiejsze zdjęcia hlg na tych tv za 5 lat mają wyglądać jeszcze lepiej (albo i dopiero zacząć wyglądać jak należy, bo czy na dzisiejszych będzie widać różnicę?). Właśnie ciekawi mnie czy czasem obecnych, zwykłych rawów nie da się kiedyś "przekonwertować" do takiego hdru. W końcu to zrzut z matrycy... No właśnie ja szczerze mówiąc nie bardzo rozumiem jak myśleć o tych dodatkowych, hdrowych highlightach na wykresie, histogramie? Ten co go widzimy to też nie bardzo wiem co w sumie prezentuje, w kontekście tego że sam raw nawet ze starych aparatów jest "szerszy" niż ten histogram, czy raczej- niż zakres ekranu. Nie bardzo wiem jak myśleć o tym hdr na wykresie, który ponoć zapisuje kolory jako 0-700 coś, czy 0-1024 a nie 0-255. To co, nagle histogram jest "szerszy" w hdr? Dostaje powiedzmy kolejne "zony" po prawej (i może lewej) To tego od dawna mamy niby 10 bitowe monitory, ale one chyba dają "tylko" wińcyj koloruf? AAAAhg moja głowa Może będzie coś innego niż historam, jakaś krzywa? Do tego jak się będzie naświetlać, jak zrobić podgląd na ekranie aparatu? Tego się dopiero dowiemy, i w sumie ciężko gdybać. Ha, no właśnie o to chodzi! Chciałbym żeby taki hdr po prostu działał, i żebyśmy nawet o tym nie myśleli. To będzie fajnie jak będziemy w takim punkcie, i będziemy se ziewając przeglądać oczojebne zachody słońca na flickr
  12. Edit:Sory, rozpisałem się Nie obrażę się na brak odpowiedzi bo to takie gdybanie w sumie, nie wiemy jeszcze za dobrze na czym stoimy. Ja też. Mówiąc grozmieniacz nie miałem nawet tyle na myśli ogół świata foto, a np. moje prywatne potrzeby, gdzie gdy już od wielkiego dzwonu robię zdjęcie, to jest to właśnie, precyzyjnie taki scenariusz w którym hdr by się baaaardzooo przydał. Więc dla mnie to by było znaczące, i ja takie choś kce! Czy zapłacę za pro-body, bo na takie te panasy wyglądają? Eeee, niech ktoś inny napędza machinę, ja se kupię coś prostszego. Kiedyś. No hlg jest ponoć takim najprostszym formatem hdr, takim najbardziej kompatybilnym, również wstecznie- tzn. na nie-hdr ekranie też można taki film/zdjęcie obejrzeć, z jakimś spłaszczeniem, na forum dpreview ludzie wstawiają takie filmy https://www.dpreview.com/forums/post/61332026 i ponoć na ekranie hlg wyświetla się toto jako hdr, więc "lepiej" a u mnie na nie hdr- no, nadal da się obadać, a ilość szczegółów w cieniach/światłach- szanuję. Sądzę (na bazie niczego, bo nikt nic o tym jasno nie pisze) raczej nie trzeba takich scen jakoś szczególnie inaczej naświetlać niż dziś, gdzie sprzętem zapisującym sdr byłoby w wielu takich scenach pod górkę. Później post itp. Ten hdr wygląda jakby to wszystko załatwiał, ot zapisuje i wyświetla te szczegóły które normalnie stanowią problem (światła itp). A już na pewno przy hlg taka jest idea- żeby nagrać, podłączyć kabelek do tv i wyświetlić w hdr bez żadnego post, kombinowania. Właśnie o tym samym myślałem niedawno- ja robię zdjęcia dla siebie, niemal nikt inny ich nie ogląda. Sam dla siebie mogę mieć taki niszowy system/sprzęt/aparat/tv/format zdjęcia i szczerze wisi mi czy komuś innemu zadziała i będzie wyglądać jak trzeba. Ma działać i wyglądać u mnie, i wygląda na to że takie rozwiązania już są, vide wspomniany wyżej a7iii/rx100, przynajmniej w filmach, bo co do foto to nie umiem nigdzie doczytać. Chyba to wszystko zbyt nowe jeszcze dla wszystkich, również testujących te aparaty... Ale idzie do przodu i raczej się przyjmie. Kiedyś. Nie wygląda to tak że nagle potrzeba specjalnych procesorów w tych aparatach czy coś. Maleńki rx100 (czy nawet pamiętam jakaś tycia ekszyn kamera sony) nagrywa hlg to i zdjęcia teoretycznie robić powinien, to raczej nie jest trudne technicznie. A czy się przyjmie? Co to w zasadzie znaczy- czy raw się "przyjął"? 99% zdjęć powstaje komórkami w jpg. Z pozostałego procentu pewnie z 9/10 to kompakty w szufladach (więc jpg) i bez/lustra ustawione na "auto"/przysłona/czas- w jpg Dane z czapy, chodzi mi o fakt że kto potrzebuje ten raw używa, narzędzia są. A też nie było tak od zawsze, i w sumie nadal są problemy przy nowych aparatach ze wsparciem egzotycznych formatów raw z takich nowiutkich matryc, i trzeba czekać na nowy dng converter, czy coś. Sigmy z tymi swoimi matrycami warstwowymi też niby takie egzotyczne, ale możesz sobie mieć taki aparat, odpowiedni soft i se pstrykać. I się nie przejmować że w najnowszym szopie nie zadziała. Klisza też nie zadziała, a ludzie nadal robią. Z hlg/coś-innego-hdr raczej nie będzie inaczej, trochę pewnie zajmie zanim się ustali ten workflow o którym piszesz. Ale jak już sprzęt spowszednieje (bo sądzę że hdr to coś co z nami nie dość że zostanie, to jeszcze się polepszy) to raczej nic na przeszkodzie stać nie będzie- kto będzie chciał, będzie używał. Coś jak raw dzisiaj. Pogdybać nawet można czy czasem nie będzie wręcz łatwiej z tym hdr-em. W końcu jeśli nie będzie trzeba dłubać przy tonemappingu (bo raczej nie będzie trzeba- w końcu w hdr chodzi o łapanie i wyświetlanie m.in. szerszego zakresu jasności, bez żadnego spłaszczania na potrzeby wyświetlacza) i takie hdr-zdjęcie będzie najwyżej miało do skorygowania balans bieli (o co też może kiedyś będzie dbać siakieś AI w aparacie) to będzie nawet prościej niż dziś z raw... Konkretnie hlg jest robione precyzyjnie dla łatwości łapania/dystrybucji, bez żadnych/dużych korekt. W zasadzie to dziś mamy trudno, bo plik ma dużo info (raw w sensie) a monitor nie umie ich naraz wyświetlić... Mówisz- nie mamy monitorów hdr. No właśnie! Dziś, i 6 lat temu też nie mieliśmy, a raw technicznie posiada te dodatkowe dane od lat. I kombinujemy jak te informacje wcisnąć, spłaszczyć do tego co potrafią nasze śmieszne monitorki, gdzie praktycznie pierwszy z brzegu tv hdr jest dużo wyżej. Dlaczego z niego nie skorzystać? Edytować można by/ nawet by wypadało na tv właśnie. W hdr workflow może być o dziwo łatwiejszy, bo ekran niejako wyświetla wszystko co masz w pliku, bez kombinowania- przynajmniej tak to rozumiem. Być może czeka mnie twarde lądowanie Czy tak jest? Z jednej strony- owszem, jak wyobrażę sobie typowe zdjęcie "kogoś w pokoju z lampą błyskową na wprost", wyświetlone na ekranie hdr 5000nitów jako biała, błyszcząca ściana światła, to to chyba serio nie najlepszy scenariusz Ale np. ja lubię złapać za aparat przy zachodzie słońca a to wręcz stworzone do hdr, i w zasadzie to dziś się "nie da" "właściwie", "poprawnie" takiej sceny zarejestrować. I taki prawdziwy hdr teoretycznie duuużo lepiej się tu sprawdzi. Owszem po post jakoś to wygląda, ale to takie kombinowanie, a efekt może co najwyżej przypominać faktyczną scenę kształtem, ale czy kolorem, intensywnością, kontrastem? Na wyświetlaczach sdr? Niezbyt, chyba że w artystycznym sensie, a ja tak np. nie robię, o czym niżej. Czy np. jak niedawno była jesień, jeszcze gadałem z kumplem na ten temat- bo tak- idziesz, leży pełno liści, suche, pikne, kolorowe. Słońce nisko, ostre i nagle z pomiędzy drzew taka stróżka światła pada na kilka/dziesiąt takich listków podświetlając je BARDZO intensywnie, bardzo jaskrawe, intensywne kolory- a cała reszta sceny "ciemna". Kontrast kosmiczny. I w zasadzie wiem że nie mam po co wyciągać komórki, a i jakbym miał przy sobie lustro to i tak nie zarejestruje tej sceny (a może...? raw) a już NA PEWNO nie oddam jej na ekranie 0-255. Może to tylko ja, ale moje zdjęcia to głównie "nietypowe", trudne światło, duże kontrasty właśnie. No i te nieszczęsne "świecenie" intensywnymi kolorami, którego dziś na normalnym monitorze/tv po prostu nie oddasz. ROZUMIEM że są bardziej artystyczne sposoby na oddanie "feelu" takich scen bez laboratoryjnego oddania 100% szczegółów sceny... ale ja bym chciał właśnie tak laboratoryjnie, no Co poradzę. Hdr wyglda na naturalne rozwiązanie takiego problemu. Widzę taką opcję że ktoś reklamuje się jako "NAJJAŚNIEJSZE, NAJBARDZIEJ KOLOROWE! NAJBARDZIEJ JASKRAWE! NAJBARDZIEJ ŻYWE zdjęcia ślubne EVER!!11 CZY MASZ TV CHADEER??? NO OCZYWIŚCIE ŻE MASZ BO JESTEŚ MŁODY I DYNAMICZNY I MASZ GADŻETY!!! NADĄŻASZ! MASZ KREDYT W BANKU I ZMIENIŁEŚ PRACĘ! I ODWAŻNIE IDZIESZ W PRZYSZŁOŚĆ!!! TO TY KSZTAŁTUJESZ SWOJE PRZEZNACZENIE!! MOŻESZ SOBIE KUPIĆ GŁUPI TELEWIZOR CHADEER CO TO DLA CIEBIE!!! A zdjęcia ze ślubu będą do rozwodu na całe życie!! TAKŻE ZDECYDUJ SIĘ JUŻ DZIŚ NA NAJJASKRAWSZE EVER ZDJĘCIA ŚLUBNE U HDR-MANA!!! DZIEKI TYM ZDJĘCIOM PRZEŻYJESZ TEN DZIEŃ JESZCZE NIE RAZ, NICZYM PIERWSZY RAZ!!!" Znów- za ten rok, dwa raczej wszystko będzie taki tryb posiadać, już dziś nic w sumie nie dopłacasz do hdr w tv, bo innych nie ma. Te tryby zdjęciowe też raczej będą powszechne, nie wymagają bóg wie czego sprzętowo (raczej). Ot, będziesz ten tryb miał tak jak masz tryb auto-panoramy w komórce :E Nie dopłacasz za to. Tu szczerze mówiąc nie wiem o czym mowa- ja nie mówię o jakimś cholyłód stajl hdrze, takim że top topów kamery za 50k$ i post na monitorach studyjnych, tylko- taki powszedni nasz hdrek codzienny. Taki nie za dobry Nawet te najprostsze hlg jednak powinno sporo poprawić w trudnych scenach. Dziś wiele efortu idzie w applach i samsungach na robienie sprytniejszych trybów zdjęciowych auto-hdr, tych takich płaskich, z myślą o wyświetlaniu na zwykłych ekranach- co jest takim obchodzeniem problemu. Jak za 5lat będą miko ledy z dobrą jasnością, kontrolą co do piksela i efektywnością energetyczną, to będzie bzdurą siedzenie w sdr, kiedy zdjęcie z dużą rozpiętością będzie można zwyczjanie... wyświetlić. Na moje to nie jest pytanie czy hdr przetrwa, tylko kiedy się upowszechni również w foto. (Bo w filmach/grach już jest, i nikt nie narzeka, a to pomimo prymitywnych jeszcze odbiorników.) A tu wygląda że w dużej mierze już praktycznie jest. W recce a7iii wspominają o jakimś jpeg HLG. Być może to już jest, może można sobie taki tv hdr kupić, do tego taki aparat i robić dla siebie, nie martwiąc się czy komuś innemu zadziała, i czy będzie popularne. Kogo to w sumie obchodzi, jeśli tego nie porzucą, a raczej nie- bo niby czemu? 3D to była zupełnie inna technicznie para kaloszy, nic dziwnego że zrezygnowali z tego w takim kształcie... i nie zdziwię się jak kiedyś jeszcze wrócą, z czymś lepszym. HDR to dla mnie serio kierunek mw. taki sam jak c/b->kolor. Naturalna ewolucja. EDIT https://www.adorama.com/alc/ces-2019-panasonic-announces-hlg-photo-high-resolution-modes-for-its-new-lumix-s-full-frame-mirrorless-cameras
  13. Jakiś czas temu, przy okazji nowego sony rx100-6 który ponoć kręci filmy HDR hybrid log gamma, takie "instant hdr", że nic nie trzeba przerabiać, konwertować, tołnmapować, tylko się podłącza kabel do tv i to ponoć "działa" bez kombinowania- zastanawiałem się wtedy czemu my właściwie nie mamy trybu "photo HDR"? A może mamy- raw? Ale raczej TV hdr nie odczyta takiego, nawet jeśli wszystkie dane tam są. I czy właściwie można takiego rawa przekonwertować na jakiś jpegHDR, czy coś. I pamiętam że generalnie nic się nie dowiedziałem, czy jest, czy działa, czy można. (*) Te nowe FF panasy? Będą miały właśnie coś takiego, produkować będzie toto pliki "hsp" i ponoć tv obsługujące hlg będą to wyświetlać jako takie właśnie hdr-zdjęcie. To może być, taki trochę- gejmczejndżer, o ile nie będzie jakichś kruczków. https://www.dpreview.com/news/7318697757/panasonic-s1-s1r-to-ship-in-march-hlg-photo-and-high-res-mode-added-to-feature-list No i... jak to właściwie procesować, czy okaże się że będzie wybór albo raw, albo te hlg, i jego już nie będzie można łatwo edytować. Czy naświetlanie będzie z jakimś innym histogramem? 0-1024 czy coś? Ciekawe w każdym razie. *- później se przypomniałem że było- coś takiego. https://www.dpreview.com/reviews/sony-a7r-mark-iii-review/4 Ale nic nie opisali poza stwierdzeniem że można tego użyć jako hack żeby dobrze naświetlić rawa...
  14. Ultima thule to śniegowy bałwan! http://www.planetary.org/blogs/emily-lakdawalla/2019/mu69-baby-comet-contact-binary.html
×
×
  • Dodaj nową pozycję...