Skocz do zawartości
azgan

NVIDIA GeForce GTX 10x0, 1070, 1080 - Pascal

Rekomendowane odpowiedzi

W związku z tym, że nowa architektura Pascal zbliża się wielkimi krokami i wiemy o niej coraz więcej pozwoliłem sobie na utworzenie tego tematu.

 

GeForce GTX 1070 i GTX 1080 - nowa generacja kart graficznych z architekturą Nvidia Pascal

 

gtx-pascal-2.jpg

Nvidia oficjalnie zapowiedziała nową generację kart graficznych, w której pierwszym z najmocniejszych przedstawicieli będzie GeForce GTX 1080. Nowa karta wykorzystuje procesor grafiki produkowany w technice FinFET, oparty na architekturze Pascal. Według Nvidii nowa architektura wraz z nową litografią zapewnia zupełnie nowe poziomy wydajności, a także sprawności energetycznej.

 

GeForce GTX 1080 opracowany został z myślą nie tylko o graniu w rozdzielczości 4K, ale też w technice wirtualnej rzeczywistości, która w tym roku ma być najgorętszym tematem w branży gier komputerowych. Szef Nvidii, Jen-Hsun Huang w trakcie prezentowania nowej generacji konsumenckich kart graficznych ogłosił, że GeForce GTX 1080 w testach będzie lepszy nawet niż dwie karty GeForce GTX 980 spięte w systemie SLI.

 

GeForce GTX 1080 oparty jest na procesorze Nvidia GP104-400-A1 z 2560 rdzeniami CUDA. W trakcie oficjalnej prezentacji można było zobaczyć tą kartę z GPU o zegarze bagatela 2,1 GHz, przy zastosowaniu tradycyjnego systemu chłodzenia powietrznego. GPU w trakcie prezentacji osiągał przy tej częstotliwości temperaturę zaledwie 67 stopni Celsjusza. W specyfikacji referencyjnej zegar bazowy określowo na 1,6 GHz, a częstotliwość GPU Boost na 1,733 GHz. Referencyjna karta GeForce GTX 1080 ma 8 GB pamięci RAM typu GDDR5X o efektywnej częstotliwości 10 GHz, co daje przepustowość na poziomie 320 GB/s. Pobór mocy to tylko 180 W.

 

Jen-Hsun Huang poinformował o tym, że GeForce GTX 1080 do sprzedaży trafi jeszcze przed końcem bieżącego miesiąca, w sugerowanej i w sumie zaskakującej cenie 599 dolarów. Nvidia przygotowała też specjalną wersję Founders Edition, w cenie 699 dolarów, w której zastosowano ręcznie selekcjonowane procesory GP104, mające zapewniać najlepsze wyniki podkręcania.

 

Drugim z nowych produktów jest GeForce GTX 1070, który potencjalnie może powalczyć o następstwo dla ogromnego sukcesu, jakim jest GeForce GTX 970. Nowa karta wykorzystuje procesor grafiki Nvidia GP104-200-A1, wyposażony w 2048 rdzeni CUDA. Karta ta ma łączyć w sobie najlepsze cechy archtektury Pascal i trafiać do tych graczy, którzy poszukują rozwiązań przyszłościowych, ale niekoniecznie za najwyższą cenę.

 

Pod tym względem GeForce GTX 1070 wydaje się być produktem niemalże idealnym, choć oczywiście wszystko muszą rozstrzygnąć niezależnie testy. Według Nvidii GeForce GTX 1070 w cenie zaledwie 379 dolarów ma zapewniać wydajność lepszą niż GeForce GTX Titan X. W tym modelu Nvidia referencyjnie zastosowała 8 GB pamięcu RAM typu GDDR5. Także w tym przypadku mamy ofertę wersji Founders Edition, w cenie 449 dolarów za sztukę.

 

http://pclab.pl/news69573.html

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

GDDR5X? Przede wszystkim wyższą przepustowością, bo każda kość komunikuje się za pomocą 64-bitowej magistrali (zamiast 32-bitowej w GDDR5). Nowy standard podobno pozwoli na osiągniecie przepustowości na poziomie 448 GB/s, podczas gdy w kartach z pamięciami GDDR5 jest to maksymalnie 320 GB/s, natomiast rewolucyjne pamięci HBM jak na razie osiągają „tylko” 512 GB/s. Dodatkową zaletą (lub jak kto woli wadą) ma być fizyczna kompatybilność z kośćmi GDDR5.

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mniejsza o pamięci. Czekam nawet na odpowiednika 980-tki.

Jeśli skok wydajności w stosunku do 980Ti będzie na poziomie 780Ti vs 980 a TDP znacznie niższe to biorę w ciemno.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

HBM2, w kartach od 2000 zł ?

Ciekawe na ile wycenią Pascala o wydajności GTX 980Ti.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mniejsza o pamięci. Czekam nawet na odpowiednika 980-tki.

Jeśli skok wydajności w stosunku do 980Ti będzie na poziomie 780Ti vs 980 a TDP znacznie niższe to biorę w ciemno.

 

Też właśnie na to czekam GTX980Ti to straszny grzejnik bez chłodzenia cieczą lub innej hybrydy nie warto się w to pakować. Wcześniej miałem MSI GTX 780Ti Gaming 3G Twin Frozr IV ta karta miała takie TDP, że granie latem to był koszmar. Odczułem ogromną ulgę po przesiadce na GTX980 i liczę na to właśnie, że GP104 zrobi to samo, co GM204 z GK100 :E.

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko żeby zdjęcia po jakimś czasie nie wygasły tak, jak to się stało w temacie o Radeonach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

HBM2, w kartach od 2000 zł ?

Ciekawe na ile wycenią Pascala o wydajności GTX 980Ti.

 

Przy założeniu, że GP104 będzie na GDDR5X a nie HBM2 to wydajność i tak powinna być lepsza od GTX980Ti zwłaszcza w DirectX 12. NVIDIA na pewno dokona zmian w architekturze na korzyść Pascal'a. Trzeba pamiętać, że Maxwell powstawał w czasie, kiedy DirectX 12 nie był jeszcze ukończony i NVIDIA nie znała jego pełnej specyfikacji, obecnie ta sytuacja uległa zmianie mamy oficjalną dystrybucje Windows 10 i DirectX 12, zatem od strony technicznej nowe GPU powinno poczynić postęp.

 

PS. NVIDIA zmieniła swoje plany i do Pascal'a trafią rozwiązania, które miała dostać dopiero Volta w 2018r. Więc czeka nas cała masa nowości.

 

nvidia-pasc-11-1.jpg

Edytowane przez azgan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekaw jestem czy rzeczywiście cokolwiek się zmieni w kwestii DX12, jakiś czas temu zobaczyłem coś takiego:

 

NVIDIA-Pascal-GPU_Compute-Performance.jpg

 

Jeżeli w kwestii AC się nic nie zmienia na Pascalach to raczej można oczekiwać że twórcy gier będą z tego po prostu rezygnować niż dawać słabą wydajność u 80% userów.

 

No i jeszcze kwestia wydania, wersje dla przeciętnego zjadacza chleba dopiero w połowie roku (GDDR5X ma być wtedy dostępny)?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

PS. NVIDIA zmieniła swoje plany i do Pascal'a trafią rozwiązania, które miała dostać dopiero Volta w 2018r. Więc czeka nas cała masa nowości.

Pleciecie głupstwa tawarisz, wszystko co jest na screenie miał mieć pascal, a nvlink to sobie na działa już keplerze.

Edytowane przez sideband

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sam czekam na Pascala. Najwyższy czas by gtx 780 poszedł na emeryture, bo na ultra w 1080p juz 60 klatek w niektórych grach nie trzyma.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie przejmuj się GTX980 i 980Ti też nie trzymają 60 k/s w niektórych nowych grach

 

w3l-ultra-1920h.png

w3b1-ultra-1920h.png

w3b2-ultra-1920h.png

 

http://pclab.pl/art63116-27.html

 

Przesiadka z GTX780 na Pascal'a powinna być mocno odczuwalna i sam też na to czekam ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pascal podobno ma użyć nowego slotu zamiast PCI-e, czyli o modernizacji można zapomnieć, bo zapewne będzie konieczna nowa płyta, a nie zdziwię się jak intel też zrobi nowy socket żeby skorzystać z okazji :mad2:

Edytowane przez Czacki

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

sprawdzona, ale możliwe, że te karty będą go "tylko" obsługiwać i wsadzisz je też w pci-e.

 

Ciężko powiedzieć na ten moment.

Edytowane przez Czacki

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

NV Link ma być zamiast portu/portów SLI na karcie, a nie zamiast PCI-e.

PCI-e być musi, bo nikt nie kupi karty którą będzie można włożyć tylko w wybrane płyty główne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pierwsze słyszę i nie wierzę :E

 

Edit: Ano, wszystko jasne :)

Edytowane przez Fuudimitzu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mnie najbardziej ciekawi czy rozwiążą problem piszczących cewek.

 

Oddałem już trzy 970 różnych producentów (wszystkie warczały sekcją zasilania) więc to dla mnie dość istotne.

Edytowane przez Czacki

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli pewnie znów pojadą z chińszczyzną i marnymi sekcjami zasilania żeby zbić cenę produkcji :kwasny:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dokładnie, z tego co widzę producenci mają gdzieś kwestie cewek. Moja 970 nie piszczy, wcześniejsza 290 też nie, 770 też ale już 680 wyła. To loteria.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bo mają niewiele reklamacji z tego tytułu. Większość graczy idzie w moc, a kultura pracy ich nie interesuje - zresztą fabryczne wiatraki na i5 czy i7 i tak wszystko zagłuszą, a ile % je wymienia?

 

Tak więc znów będzie wałek na 99.99% jeśli to w gestii producentów leży :kwasny:

Edytowane przez Czacki

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

NV Link ma być zamiast portu/portów SLI na karcie, a nie zamiast PCI-e.

PCI-e być musi, bo nikt nie kupi karty którą będzie można włożyć tylko w wybrane płyty główne.

Niepotrzebna jest żadna specjalna płyta, szybkość komunikacji między kartami wzrośnie 4krotnie względem zwykłego połączenia kablem w sli, cała filozofia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

...

 

PS. NVIDIA zmieniła swoje plany i do Pascal'a trafią rozwiązania, które miała dostać dopiero Volta w 2018r. Więc czeka nas cała masa nowości.

 

to był ten Volta a nie ta Volta... echh... forum techniczne...

Edytowane przez ghs

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

...

PCI-e być musi, bo nikt nie kupi karty którą będzie można włożyć tylko w wybrane płyty główne.

Nie musi być PCI-e, przecież agp został zastąpiony, więc i pci-e w końcu kiedyś pójdzie w odstawkę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Przede wszystkim to przynajmniej moim zdaniem zmiana bez sensu. Co do OC to jest to poblokowany CPU (coś jak non k u intela), więc tylko UV  
    • Fajnie że podałeś typ tego extendera bo z samego zdjęcia tak niskiej jakości trudno wywnioskować. Po zdjęciu wnioskuje, że to ten typ:  https://rbline.pl/extender-poe-pft1320-36882.html    Ogólnie standardowe extendery jakie stosowałem tylko regenerują sygnał nie są switchami czyli nie rozdzielają sygnału. W tym przypadku mają w sobie switcha. Różnica jest taka, że takie urządzenie różni się od typowego switcha tym, że zasilanie bierze z "głównego" switcha POE i nie ma w sobie zasilacza (taka jest idea extenderów). Na stronie którą podlinkowałem jest informacja  Więc można łączyć kaskadowo. Jednak pod 1 wyjście nie podłączysz kolejnych 2 extenderów (pewnie sam z siebie pobiera na własne działanie ze 2 W) oraz 3 kamer (każda np. po 6W). Czyli nie możesz podłączyć urządzeń które w sumie biorą więcej niż 15W.            
    • Zamierzam przesiąść się z 13700kf na 7800x3d i chciałbym go posadzić na dobrej płycie x670e w rozsądnej cenie, używki też wchodzą w grę, co byście polecili powiedzmy do kwoty 1500 zł im mniej tym lepiej. Nie śledziłem wątku więc nie wiem jak z oc wyżej wymienionego procka, mocno wyżyłowany czy mozna go jeszcze podkręcić czy lepiej iść w UV? 
    • Pograłem trochę dłużej: VRR i flickering - testowałem Squad gdzie FPS potrafi spaść ze 120 do 80 FPS, zero mignięć. Zablokowałem FPSy w grze na 45 i też zero mignięć. Może są różne wersje softu albo nie wiem, u mnie nie miga. Smużenie - jak się przypatrzy to jest przy ciemnych kolorach, ale na pewno nie taka skala jak kiedyś to było na VA. Na tyle małe że podczas normalnej rozgrywki tego nie widać i można pominąć (pewnie subiektywne, ale mi nie przeszkadza).  Skalibrowałem HDR w apce do kalibracji W11, wyszło że max jasnosć to jakieś 1150-1200 nitów. Wieczorem w grach robi serio robotę, pierwszy raz musiałem oczy zmrużyć patrząc na płomienie  Jakieś tam VA/IPS z podświetleniem krawędziowym to w ogóle nie ma jak porównać... Oby więcej takich Miniled powstawało, pakować więcej stref, walczyć ze smużeniem i super sprzęt za nieduże pieniądze.  Dziwi mnie trochę polityka cenowa, kupiłem go za 1600 zł, a na drugi dzień kosztował 2000 zł, potem 1800 zł i znowu 2000 zł. Chyba malutko ich produkują że ceny tak skaczą. Za 2k to nie warto zdecydowanie, 1600 adekwatna cena.
    • Też tak myślę, jeśli te przecieki są prawdziwe i jeśli dalej pogłębią dysproporcję między serią 90 a 80 to nie zdziwię się jak 5080 będzie miało wydajność ledwie 4090 i 16GB, to by oznaczało, że ten ostatni w ogóle nie stanieje i pozostałby na pułapie 6-7k PLN. To byłoby bardzo w stylu NV
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...