Skocz do zawartości
Minciu

NVIDIA GeForce GTX-RTX 20x0

Rekomendowane odpowiedzi

@darkmartin

tylko kto na początku życia gddr6 będzie w stanie produkować pamięci o prędkości 16Gbps?

 

nikt ;) na razie robią wolniejsze ;P

 

a 16gbps ma być najszybszą ddr6, czyli raczej trafi w wersje TI i Titany

 

przy okazji podana cena jest z przed obniżek, czyli wyjdzie pewnie jak za 1080ti :)

Edytowane przez Minciu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

karta 10-20% szybsza od 1080Ti w cenie 1080Ti raczej nie zrobi furory - aczkolwiek pierwotnie 1080 było chyba właśnie tyle lepsze od 980Ti i się ładnie sprzedawało? fakt, że znacznie poprawiono energooszczędność..

 

ja pewnie będę czekał na x80Ti, może nawet icelake+x80Ti jednym rzutem, bo to już konkretniejszy upgrade :) marzeniem by było by i DDR5 wyszło w tym okresie, byłby upgrade na następne 5 lat, ale na to raczej się nie zanosi.

Edytowane przez Kaiketsu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Karol_G

Moim zdaniem marne szanse na 20% na plus względem 1080 Ti bo byłoby za blisko Titana V szczerbaty.gif

Ostatnio mieliśmy skoki z Keplera na Maxwella gdzie topowy 780 Ti zaczął dostawać po dupie od 970, i następny podobny gdzie 1070 zrównał się z topowym 980 Ti, teraz czas chyba na jakiś drobny kroczek skupiający się na energooszczędności i może nowych technologiach typu raytracing (który zobaczymy w grach za 5 lat jak te karty już dawno będą przestarzałe)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jak dadzą +10% i kiepską cenę, to IMHO dużo chętnych nie będzie... :hmm:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ja pewnie będę czekał na x80Ti, może nawet icelake+x80Ti jednym rzutem, bo to już konkretniejszy upgrade :) marzeniem by było by i DDR5 wyszło w tym okresie, byłby upgrade na następne 5 lat, ale na to raczej się nie zanosi.

Niestety Icelake będzie prawdopodobnie na DDR4, bo DDR5 wyjdzie za późno. No chyba, że Intel opóźni premierę następnej serii i wypuści te 8-rdzeniowe Kawy. Sam chciałbym kupić wszystko co najnowsze i mieć to z głowy, ale raczej nie będę aż tyle czekał. Półtora roku max.

 

Oby tylko x80Ti była takim potworem jakim jest teraz 1080Ti w porównaniu do poprzedniej serii. bigsmile.gif

Edytowane przez Isharoth

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nowe przecieki sugeruja wydajnosc gp104 gtx 1180 na poziomie 1080ti a premiera latem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nowe przecieki nic nie sugerują, bo są tyle warte ile wszystkie inne bzdury wyssane z palca "redaktorów" WCCFTech. Nie ma sensu w zwracaniu uwagi na plotki generowane przez wesołą drużynę hindusów.

 

@Karol_G

Rozwiązania graficzne bazujące na ray-tracingu to będziesz przecież miał już w tym roku przy premierze nowego Metro. Zresztą oni nawet korzystają z tych technik, które przygotowała Nvidia. Więc raczej nie trzeba będzie czekać 5 lat.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Karol_G

Widziałem trailer i dupy nie urywa, do demek jakie prezentowano to brakuje jeszcze baaardzo dużo, także te 5 lat to raczej na jakieś konkretne i w miarę pełne wykorzystanie technologii, a nie kilka bajerów wstawionych pod publikę.

Edytowane przez Karol_G

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na pełne wykorzystanie techniki ray tracingu w grach to możemy poczekać nawet i 10-15 lat, a nie 5. Na początku będzie to używane do tego, do czego użyli go w Metro. I bez tych "bajerów wstawionych pod publikę", jak to nazywasz, w przyszłości nie było by tych gier z pełnym wykorzystaniem RT. Ktoś musi przecierać szlaki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Alternatywna forma zarabiania na GPU: https://vectordash.com/hosting/ wynajmujesz swoje GPU dla AI czy innego zastosowania za które ktoś wynajmujący moc twojego gpu płaci. W zależności od GPU jakie udostępniasz dostajesz od 1.92$ za dzień za 1050 do 10.08$ za Titana V.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Alternatywna forma zarabiania na GPU: https://vectordash.com/hosting/ wynajmujesz swoje GPU dla AI czy innego zastosowania za które ktoś wynajmujący moc twojego gpu płaci. W zależności od GPU jakie udostępniasz dostajesz od 1.92$ za dzień za 1050 do 10.08$ za Titana V.

 

Jak się ludzie na to rzucą, znowu karty odpłyną z magazynów. Przecież 1080 się spłaca w tym przypadku jakieś 4 msc.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Alternatywna forma zarabiania na GPU: https://vectordash.com/hosting/ wynajmujesz swoje GPU dla AI czy innego zastosowania za które ktoś wynajmujący moc twojego gpu płaci. W zależności od GPU jakie udostępniasz dostajesz od 1.92$ za dzień za 1050 do 10.08$ za Titana V.

 

Są wypłacalni?

 

Z tego co widzę,raczej szukają wielu gpu,jednej chyba nie biorą pod uwagę

Edytowane przez szmitu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak dla mnie to zbyt piękne, żeby mogło być prawdziwe (na tę chwilę). Jakby wszyscy mogli to robić, to rzuciłoby się na to tyle osób, że Skynet powstałby w tydzień :E

 

Poza tym, z tego co widzę, temat funkcjonuje w sieci już od co najmniej miesiąca, i furory nigdzie nie robi. Najnowszy post na fejsie projektu jest z 9 marca. Całość robi jakiś student z długami (sam autor projektu tak się przedstawia). Jak na razie zbyt podejrzane.

Edytowane przez Mifun

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Są wypłacalni?

 

Z tego co widzę,raczej szukają wielu gpu,jednej chyba nie biorą pod uwagę

Tego nie wiadomo usługa tak naprawdę dopiero co ruszyła.

 

Szukają jednych i również wielu GPU.

 

Poza tym, z tego co widzę, temat funkcjonuje w sieci już od co najmniej miesiąca, i furory nigdzie nie robi. Najnowszy post na fejsie projektu jest z 9 marca. Całość robi jakiś student z długami (sam autor projektu tak się przedstawia). Jak na razie zbyt podejrzane.

"funkcjonuje" ledwo 3-4 dni temu podał wymagania jakie są potrzebne by dołączyć do tego więc może idea czy jakieś podstawy funkcjonowały miesiąc temu ale nie było żadnych GPU w tym więc ciężko by to działało :E Porównując ceny do innych render farm GPU wydają się konkurencyjne więc może się udać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pożyjemy, zobaczymy. Żeby się tylko nie okazało, że koleś pokopie sobie przez kilka tygodni krypto na tysiącach kart, a później zniknie :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ktoś jeszcze na poważnie bierze rewelacje "wc kwadrans"? :E 50% więcej rdzeni CUDA przy powierzchni większej o ~30% i praktycznie tym samym procesie gdzie trzeba upchnąć teraz jeszcze rdzenie Tensor. Chciałbym to widzieć :lol2:

Nowe SM-y są mniejsze i dlatego da się ich więcej upakować. Pomimo dopakowania dodatkowo w jednostki int32 w ilości 5376 i tensory to ilość tranzystorów wzrosła tylko ~38% w GV100.

 

Lepsze upakowanie związane z procesem i mniejsze SM-y zrobiły swoje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

najlepsze będą znowu testy.

 

Ref 1080/1080TI z throtlującym chłodzeniem VS Strixy, JetStreamy, Gamingi itp nowej generacji :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dlatego lepiej będzie porównać sobie niezależne testy (robione przez graczy) w konkretnych tytułach na starych kartach, a później porównać z tymi na nowych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nowe SM-y są mniejsze i dlatego da się ich więcej upakować. Pomimo dopakowania dodatkowo w jednostki int32 w ilości 5376 i tensory to ilość tranzystorów wzrosła tylko ~38% w GV100.

 

Lepsze upakowanie związane z procesem i mniejsze SM-y zrobiły swoje.

wogóle rdzenie CUDA to nie wszystko, trzeba wziąć pod uwagę jeszcze wielkości kontrolerów, Cache'u itp. i wychodzi że nawet przy tym samym procesie +50% CUDA nie oznacza +50% powierzchni

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

niezly spam sie tu zrobil...a mod spi?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

GPU to nie bułki, nie da się łatwo dorobić 2x więcej jak zabrakło, oni przewidują zapotrzebowanie rynku i na bazie tego rusza produkcja.

Poza tym zalanie rynku kartami też jest ryzykowne bo nie na raz sztuka, kolejne generacje też muszą się sprzedać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja tam sądzę że gdyby producenci chcieli to by zalali rynek taką ilością kart że i dla graczy i dla górników by starczyło, ale najwidoczniej opłaca się bardziej sprzedawać mniej/wolniej ale drożej.

 

 

Maszyny produkcyjne mają określoną wydajność. Ustala się także wielkość produkcji przed jej rozpoczęciem i nie można jej ot tak zwiększyć w trakcie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To nie jest tak jak piszesz. Bo to nie jest mały zakład jak na przykład produkcja styropanu gdzie takowych są setki i warto czasem zalać większą ilością towaru i taniej sprzedać bo jest konkurencja. Tu jest całkiem inaczej bo firma produkuje na cały świat i ma jak na razie słabą konkurencję więc żeby zarobić nie musi zalać rynku a wręcz przeciwnie tu cena towaru rośnie wraz z mniejszą dostępnością wystarczy dostarczać trochę mniej niż jest zapotrzebowanie a ceny powoli będą rosły a klienci i tak kupią bo nie mają alternatywy. Nvidia to Firma a w firmie pracują ludzie którym się płaci za to żeby główkowali jak najlepiej wydoić klienta i żeby to jeszcze ładnie wyglądało niestety taki jest biznes A PRowcy zrobią swoje i powiedzą że to nie jest wina firmy i że chcieliśmy dobrze bo ludzie chcą tego usłyszeć. Bo przecież ich ulubiona firma nigdy nie robi nieczystych zagrywek i jak by mogli to by sprzedawali karty za darmo.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Przedstawiciel firmy Gigabyte zdradził kiedy mniej więcej możemy spodziewać się premiery kolejnej architektury od nvidii.

Premiera laptopowych kart graficznych, pod koniec 2018 roku (listopad/grudzień)

Dotychczasowa różnica między prezentacją desktopowych oraz mobilnych wersji kart nvidii wynosiła około 3-4 miesiące.

Jeśli producent w dalszym ciągu będzie szedł tym ciągiem, wówczas GPU Volta/Ampere dla komputerów stacjonarnych powinny się pojawić najpóźniej w okresie wakacyjnym.

 

SHL4bKQ.png

 

 

Źródła: Klik Klik2

Edytowane przez Pawcioo10

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...