Skocz do zawartości
sVVistak

PCLab: niezależność, publikacje, finansowanie

Rekomendowane odpowiedzi

A tak juz na powaznie to chyba bede musial wyczyscic ten watek ze spamu (ktory sam tez tu uprawiam).

A więc tak to się teraz nazywa... Wyczyścić ze spamu. Guzik! Chcesz się pozbyć obciazajacych Cię dowodów i pozbawić mnie i Mateusza wakacji w Ciechocinku szczerbaty.gif o nie ma. Pozew już się pisze. Póki co na kartonowym pudle po papierze A4, ale to treść a nie nośnik się liczy :D będziesz dalej konfabulował i mataczył w sprawie, to ostrzegam, że przedmiotowe pudło zaniosę do parlamentu europejskiego i zwołam posiedzenie plenarne w trybie nadzwyczajnym. A blisko mam 8:E tak, że uważaj. Mam pudło i nie zawaham się go użyć.

 

Sam nie wiem. Ten wątek po prostu stał się takim ogólnym o narzekaniu/uwagach. Myślę, że czasem lepiej się pośmiać, niż płakać że nie mamy certyfikatów i jedziemy na dziurawym silniku. Niemniej, no... . Pasuje coś z tym w końcu zrobić.

 

Bono - a zdjęcia zamieszczone na serwisach zewnętrznych widoczne są w momencie jak forum jedzie na https? Czy robi się dziki zachód?

 

To pisz od razu, że o te ułomne wersje chodzi 8:E

To się już więcej nie powtórzy - przysięgam devil.gif

 

Po prostu na wygnaniu zapomniałem jak wygląda normalny komputer :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pozew już się pisze.

 

Et tu, Brute? :(

 

Sam nie wiem. Ten wątek po prostu stał się takim ogólnym o narzekaniu/uwagach. Myślę, że czasem lepiej się pośmiać, niż płakać że nie mamy certyfikatów i jedziemy na dziurawym silniku. Niemniej, no... . Pasuje coś z tym w końcu zrobić.

 

W sumie fakt :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bono - a zdjęcia zamieszczone na serwisach zewnętrznych widoczne są w momencie jak forum jedzie na https? Czy robi się dziki zachód?

To że jestem informatyk/programista to już znaczy, że znam się na https-ach? ;)

Nie mam pojęcia ale przypuszczam, że dziki owszem ale raczej wschód niż zachód :E

 

Powinny być widoczne, w końcu to tylko link odpowiednio otagowany, żeby przeglądarka wyświetliła obraz. Problemy będą jak forum będzie po szyfrowanym łączu, a zdjęcia z serwera bez szyfrowania, wtedy przeglądarki z pewnością będą krzyczeć, że strona niebezpieczna bo nie ma wszystkich elementów zabezpieczonych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zwykle nie atakuję autorów publikacji,

Staram się rozumieć, że wśród takiej ilości testów trafiają się błędy,

Staram się być wyrozumiały wobec głupot, jakie niektórzy redaktorzy - niekiedy piszą.

 

Ale robienie ludziom siana w głowie i wypisywanie takich durnot w testach, jest czymś czego zrozumieć nie mogę.

 

To wymagało cierpliwości, sporo czasu - ale chyba było warto. Od początku.

19 Września pojawia się test kart Turing

 

 

https://pclab.pl/art78828.html

 

21 Września 2018 - Na pc Lab pojawia się ten test.

 

https://pclab.pl/art78818-4.html

 

21 Września 2018 - piszę grzeczną informację o błędzie do autora, bez odzewu.

22 Września 2018 - piszę taki post:

 

Panowie, tak na spokojnie. Nie uważacie, że z testem Turingów i innych kart w Tomb Raider jest coś nie tak? Podejrzewam, że miejscem testowym dla GPU było Ukryte Miasto albo Kuwak Yaku ( chociaż dzungla teoretycznie też mogłaby być )

 

40 klatek dla 1080TI w full HD przez bottelneck 8700k w lokacji GPU? scratchhead.gif

 

Tymczasem 90 klatek na stocku we wczorajszym teście w lokacji CPU? Mój link podejrzewam, że Kuwak Yaku? He?

 

 

Wyglądało to w ten sposób:

 

Panowie, sprawdzajcie, co wrzucacie na stronę!

 

sotr_1920_2.png

1920x1080Ultra.png

 

 

Na innych portalach, w tym samym czasie, na podobnych ustawieniach wyglądało to tak.

 

img_42777125.jpg

 

 

Obecnie, od jakiegoś czasu na PC Lab wygląda to tak ( dla CPU ):

 

img_42872484.jpg

 

 

Powyżej cytowane grafiki usunięto, wykresy poprawiono. Długo to trwało. Nie wiem kiedy dokładnie dokonano poprawy, ale nie było to bynajmniej zrobione w trybie poprawy omyłek - czyli niezwłocznie. Tylko wisiało sobie dobry kawał czasu.

 

Nie chce mi się w to wierzyć, ale uważam, że autor testował wydajność kart z włączoną synchronizacją pionową.... Serio?

 

Co tak naprawdę mnie w tej sytuacji dobija?

 

Wkradł się błąd - zdarza się.

Wisiał kawał czasu - też się zdarza.

Autor nie reagował na uwagi - bywa.

 

Ale jak do cholery, na największym portalu IT w Polsce, w oficjalnym teście można napisać, że 12 wątkowe, skręcone 8700k ogranicza karty graficzne praktycznie od GTX 1060 do 2080TI. Obecnie tekst również jest poprawiony, ale jakim cudem autor widząc takie wyniki, oczywiste sprzeczności ( lokacja CPU ma 40 % wyższe wyniki,niż lokacja GPU gdzie wąskim gardłem jest CPU. Taki narzut sterownika graficznego na CPU? Coś strasznego. ) i płaskie wykresy w spektrum, gdzie nie miały prawa być płaskie - bez krzty zwątpienia napisał, że wąskim gardłem na full HD jest procesor warty ponad 1500 zł i to on ryje kartę graficzną wartą ponad 5 tys zł na poziomie 58 klatek z dropami do 40.

 

Ludzie wchodzą na portal, żeby oglądnąć testy. Rzetelne. Oraz uczyć się od redaktorów, którzy w idealnym świecie, na tym stanowisku - powinni mieć w tej materii wyższą wiedzę od odwiedzających.

 

Odwiedzających - często w celu wybrania pozycji w zakupach. W tym wypadku test wprowadzał w oczywisty błąd. Zarówno wykresami, jak i stwierdzeniami redaktora, który nawet nie pomyślał, że to co orzeka i publikuje - jest sprzeczne.

 

GPU zostawcie Gołębiowi

CPU zostawcie Mateuszowi.

 

Takich kwiatków jest więcej. M.in tego redaktora. Ale mam to gdzieś - bo nie sugerują/ały w oczywisty sposób, że do gry w daną pozycję nie wystarczy procesor za 550 zł, a minimim za 1600 zł ( który i tak będzie bottelneck-ował i dropił na 40 klatek)

 

 

Przypomina mi to akcję jak chociażby z łączniem 750 Watowego PSU z GTX 1050 oraz I5 8400 ( bez K ) w artykule, gdzie UCZY się ludzi składania nowego PC.

 

 

https://pclab.pl/art78510.html

 

Ale, że miało to miejsce w artykule we współpracy z Asusem - spoko. Nie ma sprawy. Gorzka piguła, ale do przełknięcia. Nie ma autora - nie ma problemu. Chyba...

Błędy w testach - zdarza się. OK

 

Ale robienie ludziom siana w głowie, które skutkuje m.in kupnem czegoś, co nie jest im potrzebne -  nie może mieć miejsca. 

Chcecie tak robić, piszcie arty sponsorowane. Ale nie testy na litość....

Edytowane przez PrimoGhost

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Naprawdę, ze swoją wiedzą, czytasz jeszcze coś takiego, jak testy czegoś na pclabie? Hę? :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Testy Brzostka, Wojtka i Gołębia - owszem. Wiedzą więcej ode mnie. Znacznie więcej.

 

Ten przeczytałem, bo akurat ogrywałem grę i dziwiłem się jakim cudem na swoim gruzie GTX 970 mam wyższe wyniki, jak 2080TI...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W teście z Shadow of the Tomb Raider wypłaszczone wyniki pojawiły się, gdy gra została uruchomiona w trybie DX 11. Gra wtedy działała niestabilnie i miała zaniżoną wydajność, o czym w teście była mowa na samym początku analizy wyników GPU. Stąd wzięły się te "dziwne" wyniki.

Natomiast w DX 12, którego wrzuciłeś wyniki z innego portalu, wszystko działało jak należy:

1920x1080Ultra.png

Synchronizacja pionowa nie była w żadnym wypadku włączona – takie były wyniki w tym trybie.

Natomiast co do testu RTX-ów w SotTR to je robił Piotrek Gołąb i wykres, który wstawiasz był przez niego przygotowywany, więc jego trzeba zapytać co jest nie tak. Natomiast mój test CPU był od razu zrobiony po uruchomieniu gry w DX 12, gdzie gra działała poprawnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W teście z Shadow of the Tomb Raider wypłaszczone wyniki pojawiły się, gdy gra została uruchomiona w trybie DX 11. Gra wtedy działała niestabilnie i miała zaniżoną wydajność, o czym w teście była mowa na samym początku analizy wyników GPU. Stąd wzięły się te "dziwne" wyniki.

Natomiast w DX 12, którego wrzuciłeś wyniki z innego portalu, wszystko działało jak należy:

1920x1080Ultra.png

Synchronizacja pionowa nie była w żadnym wypadku włączona – takie były wyniki w tym trybie.

Natomiast co do testu RTX-ów w SotTR to je robił Piotrek Gołąb i wykres, który wstawiasz był przez niego przygotowywany, więc jego trzeba zapytać co jest nie tak. Natomiast mój test CPU był od razu zrobiony po uruchomieniu gry w DX 12, gdzie gra działała poprawnie.

 

zgadza sie, zawsze moze sie pojawic jakis problem techniczny tylko sęk w tym, ze nikt nie zweryfikowal "na zdrowy rozum" wyników przed publikacją :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Primo coś Ci się porypało chyba :E Tzn błąd jest oczywisty, ale z tego co na szybko sprawdziłem (działam z komórki aktualnie) to po stronie Piotrka który opisał wykres DX11 jako DX12. A nie Mateusza Ozimka. Mateusz jest naukowcem który u nas pisze głównie dlatego, że lubi, ale przykłada się do swoich testów aż do przesady. Także jeśli mówi że coś mu tak wyszło tzn że coś tak naprawdę wyszło.

Problemem w moim odczuciu jest raczej to, że ten błąd wciąż wisi i nie jest poprawiony. Do mnie informacja o nim nie dotarła, Piotrek jest od dawna na zwolnieniu i nie wiadomo kiedy do nas wróci. Na przyszłość wszelkie takie błędy lepiej zgłaszać tutaj, system "powiadamiania autora" działa jak chce, a zazwyczaj nie chce.

 

@jagular testów nie czytasz, newsy krytykujesz, to po co tu jeszcze w ogóle przychodzisz? :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wykresy są podpisane jako DX12. Tak zostały udostępnione światu. Skąd mamy w końcu wiedzieć które są które? Jeśli było w porządku, to skąd ten wpis w TREŚCI testu, że to procesor blokuje wydajność kart?? Szczerze i prosto w twarz - pisałeś tak? Bo ja pamiętam, że właśnie tak pisałeś. Bottelneck CPU, nie Bug w DX11. DX11 poświęciłeś inny, niezmieniony dod zisiaj akapit, do którego nie mam uwag.

 

Test był walnięty. Jak masz natywną wersję tekstu, którą publikowałeś, to ją przeczytaj.

 

 

Mateusz, jak widzi, że się coś nie trzyma kupy ( test Threadripper, Test nowego HEDT ) Potrafił przeskoczyć na inną maszynę, zweryfikować. Jak dalej się nie trzymało kupy - adnotacja w teście, że czekamy na sterowniki, naprawienie błędu po stronie programowej.

 

Żaden ze mnie specjalista ze świata IT, ale przed udostępnieniem światu informacji, że 8700k po OC blokuje wydajność kart średniego segmentu w polu testowym zarówno dla CPU jak i dla GPU - zastanowiłbym się co najmniej 2 razy.

 

Do błędu w wykresach nic nie mam. Sam bym pewnie robił niejeden. Do bezmyślnych wniosków z podsumowania testu - owszem, coś mam. Wspomniałem wyżej, co dokładnie.

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@PrimoGhost, masz na myśli test RTX-ów? Bo w teście samej gry od początku była adnotacja o wadliwym DX 11.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Która mnie nie interesuje. Bardziej interesowała mnie adnotacja w podsumowaniu, że wypłaszczenie wykresów jest winą bottelnecku CPU. Już jej nie ma. Magicznie zniknęła.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sprawdziłem, wersja podsumowania z testu gry nie zmieniła się od wersji, w której został on opublikowany:

Shadow of the Tomb Raider jest udaną kontynuacją bardzo popularnej serii gier z Larą Croft w roli głównej. Jej miłośników nie trzeba przekonywać do tego tytułu, a nawet gracze dotychczas niezaznajomieni z jej przygodami znajdą tu wciągającą historię, którą śledzi się z dużym zainteresowaniem. Poziom techniczny gry jest wysoki. Obyło się bez większych kompromisów. Zarówno wersja konsolowa, jak i pecetowy port mają duże wymagania sprzętowe, w zamian jednak dostajemy przyjemny dla oka obraz. Cienie wraz z grą świateł wprowadzają niemal magiczną atmosferę. Trochę szkoda, że na razie nie można sprawdzić w działaniu raytracingu, lecz można być pewnym, że technika ta wyniesie oprawę wizualną w grze na jeszcze wyższy poziom. Ze względu na przyjętą koncepcję artystyczną zdecydowanie znajdzie tutaj zastosowanie.

Wyniki testów konsol pokazują jednak wyraźnie, że ich obecna generacja jest raczej u kresu swoich możliwości, i sugerują, że można oczekiwać w najbliższym czasie nowego sprzętu. Ich wydajność zaczyna utrudniać twórcom gier zapewnienie grafiki na zamierzonym poziomie.

Natomiast poszukałem w artykule o RTX-ach pierwszego wykresu, który zalinkowałeś. Znalazłem go tutaj:

https://pclab.pl/art78828-15.html

Masz na myśli ten opis?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Porównaj go proszę z wykresami ze swojego testu i powiedz, co nie gra.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Panowie.

 

W teście RTX 2080Ti oraz RTX 2080 faktycznie wkradł się błąd. I przez moją omyłkę pojawiły się wykresy z Shadow of the Tomb Raider w wersji DX11 a nie z DX12. Dzisiaj dostałem informację że, te wykresy nadal źle się wyświetlają zamiast DX12 jest DX11. Wygenerowałem jeszcze raz wyniki dla tego testu i je ponownie zaimportowałem tym razem z innego katalogu to powinno rozwiązać problem. Oczywiście poprawiłem też opis pod tym testem zostawiając stary opis przekreślony, żeby zachować jak największą transparentność. Przepraszam, za całą sytuację. Przeprosiny też należą się Mateuszowi bo nie było w tym jego winy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mówiąc jako czytelnik - nie ma za co. Przyznanie się do omyłki jest czymś, co należy uszanować i to też czynię.

 

Z mojej strony również przepraszam Mateusza Ozimka, gdyż z oczywistych względów nie wiedziałem, kto przygotowywał wykresy. Byłem przekonany, iż autor. Powinienem być bardziej precyzyjny.

 

Dobrze, że błąd zostaje naprawiony a zafałszowana teza ( wydajność CPU ) jaka rysuje się pomiędzy oboma testami - została "naprostowana" i już nie będzie z niej wynikało, że 2080TI dławi się na 40 -58 klatkach w full HD przez i7 8 gen (na DX12, gzie gra miała działać poprawnie), gdyż to właśnie to stanowiło, że ta omyłka tak biła mnie w oczy.

 

P.S - Miło, że obaj Panowie zawitali na forum. Odwzajemniam szacunek.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niby jeden post, a jaki popłoch wywołał :rotfl:

 

Dlaczego poploch? To chyba dobrze, ze jak gdzies ktos z nas sie pomyli to staramy sie to wyjasnic/skorygowac? ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dobra, ponieważ ostatnio interakcja z mojej strony polegała zazwyczaj na krótkich wrzutach szydery i pompy, pomyślałem sobie że przeczytam jakiś test na labie.

Trzeba wiedzieć, z czego się szydzi, nieee?

No i wzięłłem i kliknęłłem sobie na test laptopa DTP Dream Machine. Temat wdzięczny. Laptop, jak zawsze mniej. Czytam, czytam, składam litery...aż tu nagle oczy me widzą:

Pokrycie palety barw sRGB oraz Adobe RGB wypada dobrze, osiągając odpowiednio 86,9% oraz 63%. Na wzorową ocenę zasłużył również wyznaczony podczas testów współczynnik kontrastu − 1275:1. Jedynym problemem jest kiepska kalibracja barw, wyświetlane na ekranie białe elementy są zauważalnie zaniebieszczone − to wina zbyt wysokiej temperatury barwowej bieli: 8224 K. Zastosowany w Dream Machines RX2060-17PL17 ekran dobrze sprawdzi się nie tylko w grach, ale także w bardziej profesjonalnych zastosowaniach.

Na tym zakończyłem składanie tych liter.

 

Nasuwa się, wobec powyższego, pytanie: co redakcja rozumie konkretnie przez "bardziej profesjonalne zastosowania"? Bo moje oczy widzą ekran, który nie dość, że ma jakiś masakryczny zafarb, i to w kierunku obecnie bardzo nielubianej składowej niebieskiej, to jeszcze nie jest w stanie nasycić 'głupiego' sRGB. Poziom, wydaje się, najtańszych monitorów z Tesco, tych za 399zł w promocji z ogórkami kiszonymi. A tu nagle "bardziej profesjonalne zastosowania".

 

EEEE?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W sumie to ciekawe, bo dosłownie 2 dni temu zastanawiałem się, czy mój Pedator X34 ( WQHD, IPS, Srgb - 100. rgb - 72, 178* po kalibracji i zleconej - zewnętrznej kontroli jakości matrycy) mógłby być użytkowany w bardziej profesjonalnych zastosowaniach.

 

Doszedłem do wniosku, że jeśli za profesjonalne zastosowanie uznać ułożenie 5 dokumentów MS Word w jednej linii to jak najbardziej tak.

 

Ale w sumie nie jestem pewien, czy o to tutaj chodzi....scratchhead.gif

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mateusz, nie chciało by Ci się pomyśleć o teście skalowalności zegara CPU względem temperatury na zadanym napięciu?

 

Dane na taki temat obejmują raczej delty w okolicach 110 stopni, co dla przeciętnego Kowalskiego jest raczej bez sensu :

 

img_137075078.jpg

 

 

Niemniej uważam, że jest to ciekawy temat. Zwłaszcza chodzi o serię Coffe Lake, która dość agresywnie skaluje się względem temperatury.

 

Test przynosiłby też odpowiedź na parę pytań typu - Jakiej delty wymaga się względem temperatury płynu w układzie a osiąganą przez CPU temperaturą w spektrum powiedzmy 50 -85 stopni do podniesienia zegara o 100 Mhz i kiedy dochodzimy do ściany względem przewodności na linii IHS - Blok a mocą [W] wytwarzaną przez podkręcony układ i jaka delta jest wymagana do zachowania zadanego maksimum ( 85 Tc )

 

Do fajnego testu potrzebowalibyście w sumie tylko chillera.

 

Aha - wiem, że każda sztuka skaluje się inaczej, ale jednocześnie myślę, że na Coffe Lake będziecie mieli na tyle twarde wyniki, aby móc jednak wyciągnąć z nich wnioski.

 

 

Przyznam, że robiłem kilka koślawych pomiarów i obliczeń i stwierdziłem, że od pewnego momentu ( Waty ) krzywe stają tak agresywne, że delty na poziomie 80 TC mogą być zbyt małe wink.gif

 

Bonus - Drugi przebieg na procesorze po skalpowaniu szczerbaty.gif To też będzie ciekawe, bo wymagane zmniejszenie delt nie powinno być duże a zauważalne ich zmniejszenie powinno być tylko w jednym ( chyba mi znanym ) zakresie, gdzie przeciętny Kowalski bywa rzadko albo nigdy. Odpowiedź na pytanie czy stwierdzenie - Paaaanie, idź Pan w..... z tym H100i a kup sobie 150I pro bo to z czysta megarercóff jak nic - ma sens.

 

Wiem, że pewnie Cię skręca na samą myśl o takim teście, ale...

 

  • Kto, jak nie Ty,
  • Lepsze to, jak testy myszek dla graczy ( uwaga - subiektywnie )
  • stagnacja na rynku CPU - nie ma nic ciekawego :(
  • technikalia Threadrippera już mi się znudziły po 55 czytaniu :)
  • No weź no zrób.... No Dej....

Edytowane przez PrimoGhost

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Odpowiadam na argumenty z listy po kolei:

  • hmm - może ludzie z forum, którzy mieli w rękach więcej tych procesorów, niż ja widziałem nawet na zdjęciach?
  • subiektywne
  • To prawda, że jest stagnacja. Dzięki temu nie trzeba robić w koło takich samych artykułów, ale jest czas zrobić coś nowego.
  • Przeczytałeś je o 54 razy za dużo. Mamy na PCLabie mnóstwo treści, których jeszcze nie czytałeś - może nie najłatwiej dotrzeć do starszych technologicznych artykułów, ale jakoś się da (poza tym pracujemy nad tym™)
  • Zrobię, ale coś trochę innego, ok? Będzie temperatura, megaherce i skalowanie, tylko trochę w innym połączeniu, niż proponujesz :E

 

A na serio: wydaje się, że takie dane są przydatne na początku cyklu życia rodziny procesorów, a nie dzisiaj. Zwykle po prostu nie ma czasu ich zgromadzić - w okolicach premiery z jednej strony dzwonią, żeby już odesłać procesory, z drugiej strony piszą w komentarzach że test jest do kitu, bo nie ma 2600K, albo żebyśmy przetestowali 777 rzeczy, które oni robią w domu non stop i to bardzo ważne. Z kolei entuzjaści, którzy są zainteresowani takim wykresem i potrafią go zrozumieć potrafią też znaleźć go w internecie, jeśli jakiś Gamers Nexus albo derbauer go zrobią. Zobaczę, co się da zrobić przy następnej premierze procesorów.

Edytowane przez mbrzostek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Witam, zamierzam sam zainstalować sobie monitoring wokoło domu i mam pytanie, ponieważ jestem laikiem. Czy można tak połączyć kamery za pomocą tych extenderów? 
    • Postaram się podrzucić następnym razem, jak będę na miejscu. Jak byłem ostatnio, to tyle pamiętam, że łapało LTE2100 z przekaźnika na odległości niecałych 4 km, a moc sięgała niżej niż -90dBm. Ogólnie tragedia z wczytaniem najprostszej strony internetowej, u 3 operatorów podobnie.   Powiem tak - została ta antena wybrana i zamontowana przez "fachowca" na zlecenie innych domowników. Ja się na tym tak nie znam, ale zanim się dowiedziałem jeszcze co tam w ogóle zostało zamontowane, to czułem już, że to będzie bubel, bo co innego może taki "fachowiec" zamontować. No i widzę, że moje przypuszczenia się potwierdzają. Żadnej poprawy to nie da? Bo trochę teraz ciężko będzie to zdjąć i rozmontować, nie wspominając już o poniesionych kosztach i ewentualnych następnych kosztach zakupu nowej anteny. Czy jesteś w stanie odpowiedzieć na resztę pytań dotyczących routera? Na przykład takie złącza to pewnie i tak zawsze będą te same, więc niezależnie od anteny router chyba można wybrać już teraz (mogę się mylić!). Chciałbym szczerze mieć coś ogarnięte przez majówką, o ile jest to osiągalne.
    • Witam po rocznej przerwie ; -). Odnawiam temat. Jak można łatwo odgadnąć, w poprzednim roku nic nie wyszło z kupna PC. Nic jednak straconego, gdyż jestem aktualnie gotowy do kupna gotowego zestawu lub zbudowania własnego PC. Budżet za samą jednostkę z softwarem (OS + Office) +/- 10000zł. Mogę dołożyć, o ile będzie miało to sens. Na początek, znalazłem taką oto promo w X-KOM: https://www.x-kom.pl/p/1220819-desktop-g4m3r-hero-i7-14700f-32gb-1tb-rtx4070s-w11x.html?sm=lowcygier Czy to dobra oferta? Czy też lepiej zbudować własną maszynę od zera?    
    • Świetne rady, autor tematu gra w 3440x1440, więc jakim cudem warto zmieniać 4070Ti na 4070Ti Super, skoro premiera RTX 5000 jest tak nieodległa ? Zanim braknie mu 12GB VRAM w tej rozdzielczości to będzie premiera RTX 6000. Więc @andriejek69 jak masz zmieniać teraz kartę to albo coś dużo mocniejszego, albo czekaj na nowe RTXy. Chyba, że faktycznie chcesz pograć w Cyberpanka z Path Tracingiem, ale tam nawet 4070Ti Super z 16GB to będzie za mało. Zrobisz ja uważasz, ale osobiście uważam taką zmanię za kompletnie bezsensowną, bo obecna kara Ci wystarczy do tej rozdzielczości, a jak zmieniać to na 4090, żeby faktycznie poczuć różnicę, teraz dostaniesz 10% to wydajności. Jedyna opcja to sprzedaż obecnej karty za dobrą cenę i niewielka dopłata.
    • Trudne się wylosowało... Monitorów z tunerem jest jak na lekartwo a szybszych niz 60hz tym bardziej. Nie ma mowy też o oledzie ani miniledzie z tunerem chyba że chodzi o telewizor to już prędzej coś znajdziesz.  Nie podałeś specyfikacji swojego komputera to też niezbyt można powiedzieć czy poradzi sobie z monitorem 4k np. (Samsung monitor m7 i m8) mają smart tv ale tunera już nie mają... Dodatkowo są na matrycy VA co nie każdemu może przypaść do gustu. Najlepszym rozwiązaniem będzie kupno możliwie najlepszego monitora na miniledzie/oled (jeżeli nadal mówimy o budżecie 4000zł) i jakiegoś smartboxa (googletv) z tunerem i podłączenie go do monitora poprzez HDMI.
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...