Skocz do zawartości
azgan

NVIDIA GeForce GTX 10x0, 1070, 1080 - Pascal

Rekomendowane odpowiedzi

Napisano (edytowane)

GTX 1080 wyniki 4k w grach:

ciężko przekroczyć 50 klatek, raczej z tymi stałymi 60 klatkami będzie problem nawet po OC

post-277705-146444607963_thumb.jpg

Edytowane przez Pitt_34

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W Ultra wiele gier nie będzie grywalnych. Ale popatrz chociażby na test u konkurencji w High. Na nie podkręconej 1080 masz 44fps, a na gtx 980Ti zaledwie 34 fps. I tu już się robi różnica pomiędzy grywalne, a nie grywalne szczególnie różnica będzie po OC gdzie na 1080 będzie się już dało grać bo powinno być te 50fps+. W wielu innych grach po zejściu z detali na High gtx 1080 po mocniejszym OC jest w stanie utrzymać te ~60 fps gdzie gtx 980Ti nie da rady.

to co jest grywalne a co nie jest grywalne jest uwarunkowane okiem i przetwarzaniem obrazu indywidualnego odbiorcy , wiec jak piszesz ze grywalne dodaj gwiazdkę i legendę z opisem :lol2:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

W Ultra wiele gier nie będzie grywalnych. Ale popatrz chociażby na test u konkurencji w High. Na nie podkręconej 1080 masz 44fps, a na gtx 980Ti zaledwie 34 fps. I tu już się robi różnica pomiędzy grywalne, a nie grywalne szczególnie różnica będzie po OC gdzie na 1080 będzie się już dało grać bo powinno być te 50fps+. W wielu innych grach po zejściu z detali na High gtx 1080 po mocniejszym OC jest w stanie utrzymać te ~60 fps gdzie gtx 980Ti nie da rady.

 

Jasna sprawa, mamy przecież wiele możliwości ustawień, nie trzeba przecież we wszystko grać na ultra, bo zejście o stopień niżej do very high, albo o 2 stopnie do high nie zawsze pogarsza znacząco obraz, a daje często konkretny boost w płynności. Chodzi tylko o nie popadanie w hurra optymizm, jest lepiej, jest szybciej, ale o żadnym zamiataniu nie ma tutaj mowy, przynajmniej jak dla mnie. GTX 1080 by zmiótł gtx 980 gdyby kosztował tyle co on, no dobra, te 2/3 stówy więcej, ale tak nie jest, na ten moment jest dużo droższy od 980Ti. Gdyby ktoś dzisiaj wydajność np z 10 najbardziej wymagających sprzętowo gier przeliczył na złotówkę per frame per second to na oko strzelam, że było by blisko 1 do 1.

 

Jestem ciekaw co się stanie jak wyjdzie w końcu 1080ti i titan. Czy np 1080ti wskoczy w cenę dzisiejszej 1080, a ta stanieje do poziomu 980, czy po prostu doda kolejną półkę cenową. Dla mnie zawsze punktem odniesienia w porównywaniu sprzętu jest jego cena, a nie numerki, które producent sobie wstawia w nazwie, bo to jest tylko siła marketingu, która napędza ten rynek. W sumie wszystko jeszcze zależy od AMD, co wydadzą i w jakich cenach, wtedy karty się ułożą w odpowiedniej dla siebie hierarchii, będziemy mieli dokładnie obraz co jest czego następcą i tak dalej.

Edytowane przez tolek_banan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

No tak wielu gra z lockiem na 30fps i jest to dla nich grywalne. Dla mnie Wiedzmin 3 z lockiem na 45 fps był jak najbardziej grywalny, a takie gta v musi już mieć te stabilne 60fps. Ale fakt to temat rzeka. Zaraz ktoś przyjdzie i napiszę, że jak gra nie działa w 120fps to nie tyka bo go oczy bolą.

 

A z tym zamiataniem to też każdy inaczej interpretuje. Jeszcze nie dawno było uważane, że warto dopłacić 1000pln do gtx 980Ti względem 980ki dla nieco ponad 20% przyrostu wydajności.

 

Dzisiaj widzę, że przy cenie 2800 za gtx 980ti wielu twierdzi, że nie warto dopłacić 800pln dla ponad 20% wydajności. Do tego trzeba pamiętać. Że kwestia ~3200pln za 1080 to kwestia niedługiego czasu. Bo w Niemczech już można zrobić było zamówienie za ~2900-3100pln za EVGA SC, Palita etc. Więc cena za 1080 jak za gtx 980Ti w Polsce lub nie wiele wyższa.

Edytowane przez lukadd

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

siema wszystkim

 

z racji tego ,że przymieszam się do kupna nowego pascala 1080, mam pytanie o mojego procka

czy i5 2500K @4.4 Ghz nie będzie go ograniczało gtx1080 ?, a jak będzie to do ilu trzeba by podbić z OC ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mi jeszcze brakuje testów dokładnych z Gsync. Póki co jeszcze nie mam takowego monitora, wiem jedynie tyle ile czytam. Niby mocno ta technologia "pomaga" w odczuwaniu płynności gdy fps spada z np 60 do 50/40. Niby nadal odczuwamy płynność jak gdyby było stałe 60fps. Fajnie by było o test gdzie jest dolna granica takiej płynności, na jakim poziomie fps odczuwamy, że to już nie jest tak płynne jak te 60fps. Oczywiście mówię o casualowym graniu, a nie hardcorowym w CS'a przy odświeżaniu 144Hz bo to trochę inna liga i o co innego chodzi.

 

Jeżeli taki Gsync (a tego póki co nie wiem z własnego doświadczenia) powoduje, że np fps na poziomie 40-60 daje nam płynność równą z V sync on i 60fps stałym, to ja to kupuję, a wtedy porównywanie grafik jeszcze bardziej staje się ciekawe i niejednoznaczne ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

siema wszystkim

 

z racji tego ,że przymieszam się do kupna nowego pascala 1080, mam pytanie o mojego procka

czy i5 2500K @4.4 Ghz nie będzie go ograniczało gtx1080 ?, a jak będzie to do ilu trzeba by podbić z OC ?

więcej niż 1070 to bym chyba do SB nie wkładał, lepiej odłożyć te ok 1tys różnicy i dozbierać do nowszej platformy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

No tak wielu gra z lockiem na 30fps i jest to dla nich grywalne. Dla mnie Wiedzmin 3 z lockiem na 45 fps był jak najbardziej grywalny, a takie gta v musi już mieć te stabilne 60fps. Ale fakt to temat rzeka. Zaraz ktoś przyjdzie i napiszę, że jak gra nie działa w 120fps to nie tyka bo go oczy bolą.

 

A z tym zamiataniem to też każdy inaczej interpretuje. Jeszcze nie dawno było uważane, że warto dopłacić 1000pln do gtx 980Ti względem 980ki dla nieco ponad 20% przyrostu wydajności.

 

Dzisiaj widzę, że przy cenie 2800 za gtx 980ti wielu twierdzi, że nie warto dopłacić 800pln dla ponad 20% wydajności. Do tego trzeba pamiętać. Że kwestia ~3200pln za 1080 to kwestia niedługiego czasu. Bo w Niemczech już można zrobić było zamówienie za ~2900-3100pln za EVGA SC, Palita etc. Więc cena za 1080 jak za gtx 980Ti w Polsce lub nie wiele wyższa.

 

 

No tak, są też i tacy którzy się przesiadali z 970 na 980, żeby później wsadzić 980ti. Myślę, że skrajności nigdy nie są dobrym punktem odniesienia do niczego, po prostu takich przypadków nie bierzmy pod uwagę :D

 

Trzeba jeszcze pamiętać, że testy są robione na grach, które już są, za niedługo będziemy mieli kolejne tytuły, które mniej lub bardziej obciążą sprzęt, albo zniszczą marzenia niektórych swoją marną optymalizacją i zabawa się zacznie od nowa. Osobiście nigdy nie byłem fanem zakupów zaraz po premierze tym bardziej, że nie mamy całej palety kart dostępnych. Wyjdą wersje mocniejsze, wyjdzie coś od AMD, ceny się bardziej unormują, będziemy mądrzejsi o parę nowych tytułów, rywalizacja o słupki w tabelkach zacznie się od nowa.

Edytowane przez tolek_banan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Mi jeszcze brakuje testów dokładnych z Gsync. Póki co jeszcze nie mam takowego monitora, wiem jedynie tyle ile czytam. Niby mocno ta technologia "pomaga" w odczuwaniu płynności gdy fps spada z np 60 do 50/40. Niby nadal odczuwamy płynność jak gdyby było stałe 60fps. Fajnie by było o test gdzie jest dolna granica takiej płynności, na jakim poziomie fps odczuwamy, że to już nie jest tak płynne jak te 60fps. Oczywiście mówię o casualowym graniu, a nie hardcorowym w CS'a przy odświeżaniu 144Hz bo to trochę inna liga i o co innego chodzi.

 

Jeżeli taki Gsync (a tego póki co nie wiem z własnego doświadczenia) powoduje, że np fps na poziomie 40-60 daje nam płynność równą z V sync on i 60fps stałym, to ja to kupuję, a wtedy porównywanie grafik jeszcze bardziej staje się ciekawe i niejednoznaczne ;)

Wiesz, sam GSync nie dodaje klatek wiec nie wiem czy takie testy się pojawią. Natomiast z własnego doświadczenia mogę napisać jako posiadacz monitora Asus PG279Q 144/165Hz, że GSync sprawuje się swietnie utrzymując perfekcyjną płynność obrazu w przedziale 40-165fps (chociaż nie znam tej dolnej granicy, od której najlepiej działa). Dla mnie osobiscie granie poniżej 45 fpsów jest nieakceptowalne wiec robie wszystko, aby mieć conajmniej te 45 (zależy od tytułu tne detale). Tradycyjny VSync powiedzmy na monitorze 60Hz działa dobrze jak masz dużo wiecej niż te 60fps, a jak masz juz skoki fpsów powiedzmy +/-10 to pojawia się już stuttering. GSync to eliminuje.

Natomiast na monitorze z 144/165Hz wiadomo, ze rzadko kiedy osiągniesz 144fpsy czy wiecej (tymbardziej w 1440p) ale dzieki GSync można cieszyć się idelaną płynnością w całym przedziale fpsów.

Powiedziałbym nawet, ze na 144Hz monitorze 60fps z Gsync wygląda zdecydowanie płynniej niż 100fps na 60Hz monitorze.

Edytowane przez brooklyn

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

siema wszystkim

 

z racji tego ,że przymieszam się do kupna nowego pascala 1080, mam pytanie o mojego procka

czy i5 2500K @4.4 Ghz nie będzie go ograniczało gtx1080 ?, a jak będzie to do ilu trzeba by podbić z OC ?

 

 

Oczywiście, że 2500K będzie ograniczał GTX'a.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

GTX 1080 wyniki 4k w grach:

ciężko przekroczyć 50 klatek, raczej z tymi stałymi 60 klatkami będzie problem nawet po OC

No nie wiem, Doom wszystko na max detalach w 4K nie spada poniżej 60fps.

Edytowane przez PeterMac

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiesz, sam GSync nie dodaje klatek wiec nie wiem czy takie testy się pojawią. Natomiast z własnego doświadczenia mogę napisać jako posiadacz monitora Asus PG279Q 144/165Hz, że GSync sprawuje się swietnie utrzymując perfekcyjną płynność obrazu w przedziale 40-165fps (chociaż nie znam tej dolnej granicy, od której najlepiej działa). Tradycyjny VSync powiedzmy na monitorze 60Hz działa dobrze jak masz dużo wiecej niż te 60fps, a jak masz juz skoki fpsów powiedzmy +/-10 to pojawia się już stuttering. GSync to eliminuje.

Natomiast na monitorze z 144/165Hz wiadomo, ze rzadko kiedy osiągniesz 144fpsy czy wiecej (tymbardziej w 1440p) ale dzieki GSync można cieszyć się idelaną płynnością w całym przedziale fpsów.

Powiedziałbym nawet, ze na 144Hz monitorze 60fps z Gsync wygląda zdecydowanie płynniej niż 100fps na 60Hz monitorze.

 

Chodzi mi właśnie o takie info. Jeżeli mówisz, że w przedziale 40 - 165fps masz stałą płynność z Gsync, płynność równą Vsync i lock na 60fps(gdzie klatki poniżej nie schodzą), to jest to dla mnie świetna wiadomość i zmienia się trochę punkt odniesienia w testach kart graficznych, bo np już nie trzeba wymagać od karty minimum 60fps, tylko 40fps + monitor z Gsync. Dodatkowo idąc dalej można wtedy z mniejszym bólem wejść w wyższą rozdzielczość kosztem AA i znowu jest progres.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No tak, są też i tacy którzy się przesiadali z 970 na 980, żeby później wsadzić 980ti. Myślę, że skrajności nigdy nie są dobrym punktem odniesienia do niczego, po prostu takich przypadków nie bierzmy pod uwagę :D

 

Trzeba jeszcze pamiętać, że testy są robione na grach, które już są, za niedługo będziemy mieli kolejne tytuły, które mniej lub bardziej obciążą sprzęt, albo zniszczą marzenia niektórych swoją marną optymalizacją i zabawa się zacznie od nowa. Osobiście nigdy nie byłem fanem zakupów zaraz po premierze tym bardziej, że nie mamy całej palety kart dostępnych. Wyjdą wersje mocniejsze, wyjdzie coś od AMD, ceny się bardziej unormują, będziemy mądrzejsi o parę nowych tytułów, rywalizacja o słupki w tabelkach zacznie się od nowa.

 

I to jest najmądrzejsza wypowiedź od dawna w kwestii szaleństwa pascalowego :thumbup:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

No nie wiem

 

 

Ale Ty tak poważnie? Na podstawie jednego Dooma, który jest mimo wszystko grą tunelową? :D Weź pod uwagę 3 letniego Crysis'a 3, Wiedźmina 3, albo ostatnio wydanego The Division, a Twój pogląd runie jak domek z kart.

Edytowane przez tolek_banan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chodzi mi właśnie o takie info. Jeżeli mówisz, że w przedziale 40 - 165fps masz stałą płynność z Gsync, płynność równą Vsync i lock na 60fps(gdzie klatki poniżej nie schodzą), to jest to dla mnie świetna wiadomość i zmienia się trochę punkt odniesienia w testach kart graficznych, bo np już nie trzeba wymagać od karty minimum 60fps, tylko 40fps + monitor z Gsync. Dodatkowo idąc dalej można wtedy z mniejszym bólem wejść w wyższą rozdzielczość kosztem AA i znowu jest progres.

Dokładnie tak jest.

Wiadomo GSync trochę kosztuje rzędu 500-600 zł do ceny monitora ale coś za coś.

Komfort rozgrywki o niebo lepszy nawet od pompowanego dziś 4K, które jak wiadomo są tylko 60Hz (przytargałem taki z pracy dla porównania i zostałem przy tym pierwszym).

Rozdzielczość to nie wyszystko.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

 

 

ciekawe :E

Edytowane przez zimek123456

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Ale Ty tak poważnie? Na podstawie jednego Dooma, który jest mimo wszystko grą tunelową? :D Weź pod uwagę 3 letniego Crysis'a 3, Wiedźmina 3, albo ostatnio wydanego The Division, a Twój pogląd runie jak domek z kart.

Przeciez to oczywiste ze nie w każdym tytule będzie taki fps, ale jak na jedną kartę to jest już dobrze i grywalnie w większości tytułów w 4K.

 

Wiesz, sam GSync nie dodaje klatek wiec nie wiem czy takie testy się pojawią. Natomiast z własnego doświadczenia mogę napisać jako posiadacz monitora Asus PG279Q 144/165Hz, że GSync sprawuje się swietnie utrzymując perfekcyjną płynność obrazu w przedziale 40-165fps (chociaż nie znam tej dolnej granicy, od której najlepiej działa). Dla mnie osobiscie granie poniżej 45 fpsów jest nieakceptowalne wiec robie wszystko, aby mieć conajmniej te 45 (zależy od tytułu tne detale). Tradycyjny VSync powiedzmy na monitorze 60Hz działa dobrze jak masz dużo wiecej niż te 60fps, a jak masz juz skoki fpsów powiedzmy +/-10 to pojawia się już stuttering. GSync to eliminuje.

Natomiast na monitorze z 144/165Hz wiadomo, ze rzadko kiedy osiągniesz 144fpsy czy wiecej (tymbardziej w 1440p) ale dzieki GSync można cieszyć się idelaną płynnością w całym przedziale fpsów.

Powiedziałbym nawet, ze na 144Hz monitorze 60fps z Gsync wygląda zdecydowanie płynniej niż 100fps na 60Hz monitorze.

niestety ale Gsync mocno tez bluruje rozmywa obraz

Edytowane przez PeterMac

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

 

ciekawe :E

 

No ciekawe w teście Digital Foundry w tych kilku grach przewaga nad TXem to przedział 25-35% więcej fps. Więc nie mało.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tak czy siak jeszcze do 4k brakuje karcie no ale poczekamy na ti i nastepnego tiana mam nadzieje ze dlugo monitor nie bedzie lezal :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

niestety ale Gsync mocno tez bluruje rozmywa obraz

TO musi być jakaś bzdura. Nic takiego nie zauważyłem. Musiałeś mieć blur włączony w opcjach danej gry, bo inaczej tego nie można wytłumaczyć.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

GTX 1080 wyniki 4k w grach:

ciężko przekroczyć 50 klatek, raczej z tymi stałymi 60 klatkami będzie problem nawet po OC

We wszystkich tych grach schodzisz z Ultra i w niektórych przypadkach stawiam, że +20FPS będzie albo i więcej ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

We wszystkich tych grach schodzisz z Ultra i w niektórych przypadkach stawiam, że +20FPS będzie albo i więcej ;)

 

Zgadzam się z Tobą, tylko w takim razie ta karta nie powinna kosztować więcej jak 2,5 K, TOP karta za 3600 zł, w której trzeba obniżać ustawienia szczerbaty.gif

Edytowane przez Pitt_34

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ta karta kosztuje tyle ile powinna, a to, że mieszkamy w europie i nasza waluta jest niewiele warta to nasz problem, a nie nvidii i producentów. Dla nich to tylko 50$ więcej ;)

 

Ceny w USA

http://www.evga.com/Products/Product.aspx?pn=08G-P4-6181-KR

 

620$+7%*3,94=2613zł

 

z kursem 3 zł = 1990 zł

 

Trzeba było emigrować, kiedy była taka możliwość. :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • A mi w ich testach VRR coś nie gra, testowali AOC którego mam (VA) i według nich i tej scenki migocze jak diabli. Posiadam go od dwóch dni i ani jednego mignięcia nie widziałem.  Tutaj też ludzie się sprzeczali, który model migocze, a który nie.
    • Model ASUS TUF Gaming , o którym wspominasz jest to fajnie prezentujący się 27 calowy monitor IPS 2K (2560 x 1440) z natywnie 240 Hz, po OC 260Hz (1ms) dodatkowo pokrycie barw DCI-P3 wynosi 90 % więc monitor zapewni dobrą jakość i wyrazistość a obraz będzie płynny i przyjemny. Niektóre gry wykorzystują HDR więc z tym monitorem również można skorzystać z tej funkcji. Według mnie plusem jest też jasność na poziomie 400 nitów oraz technologie synchronizacji FreeSync i G-Sync (dla amd i nvidia).  Oczywiście są też tańsze modele z rozdzielczością 2K 240Hz patrz Lenovo Legion z lepszym pokryciem bartw DCI-P3 95% i z funkcją PIVOT - aby móc dostosować sobie wysokość i kąt pochylenia monitora do swoich potrzeb.
    • Chociaż faktycznie, niezawarcie umowy o produkcji w Polsce plus offset to wina Plaszczaka który brał wszystko z półki. Z samolotami bez uzbrojenia też się popisał, więc pewnie MON odkręca wszystko i spróbuje podpisać offset + produkcję w ostatniej umowie. Czemu się nie dało w drugiej? A no Plaszczak to Plaszczak co tutaj więcej dodawać.   Jak podpisywać umowy z Niemcami potrafią Czesi którzy w Europie mniej znaczą niż Polska ale jednak potrafią negocjować. Pomysł żeby brać pociski z Korei jako lewar na Niemcy nawet nie skomentuję, bo to poziom debila mógł wymyślić. 
    • Przede wszystkim to przynajmniej moim zdaniem zmiana bez sensu. Co do OC to jest to poblokowany CPU (coś jak non k u intela), więc tylko UV  
    • Fajnie że podałeś typ tego extendera bo z samego zdjęcia tak niskiej jakości trudno wywnioskować. Po zdjęciu wnioskuje, że to ten typ:  https://rbline.pl/extender-poe-pft1320-36882.html    Ogólnie standardowe extendery jakie stosowałem tylko regenerują sygnał nie są switchami czyli nie rozdzielają sygnału. W tym przypadku mają w sobie switcha. Różnica jest taka, że takie urządzenie różni się od typowego switcha tym, że zasilanie bierze z "głównego" switcha POE i nie ma w sobie zasilacza (taka jest idea extenderów). Na stronie którą podlinkowałem jest informacja  Więc można łączyć kaskadowo. Jednak pod 1 wyjście nie podłączysz kolejnych 2 extenderów (pewnie sam z siebie pobiera na własne działanie ze 2 W) oraz 3 kamer (każda np. po 6W). Czyli nie możesz podłączyć urządzeń które w sumie biorą więcej niż 15W. Jeszcze jedna uwaga. W specyfikacji masz 1 x PoE (802.3af/at). Oznacza to, że aby na 2 wyjściach w expanderze mieć 15W to switch musi być POE+ 802.3at, czyli na jednym porcie musi dać 30W. Jak dasz standardowego switcha 802.3af (czyli 15W) to w extenderze nie możesz podłączyć do każdego z dwóch wyjść urządzeń biorących 15 W. Wtedy tylko 1 port będzie działał z teką mocą  albo 2 gdzie suma mocy nie przekroczy 15W (Możesz wtedy np. podłączyć tylko 2 kamery np. po 6W).   
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...