Skocz do zawartości
yampik

NVIDIA (GTX) rly RTX 30x0

Rekomendowane odpowiedzi

Gość
30 minut temu, Aori napisał:

 

I się zastanawiam na jaką wymienić, by niebyło trzeb robić UV i karta była w miarę chłodna ? J

GT 710 - nowość MSI na rynku kart graficznych. Oprócz tego GT1030 też spełni twoje wymagania.:rotfl:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ostatnio widziałem filmik na kanale Foresta z cyklu Frankenstein. RTX 3080 Aorus z wciśniętym chłodzeniem od Eagle. Nawet po pijaku bym nie wpadł żeby takie coś montować. Nie wiem kto był bardziej w transie ten kto sprzedawał czy ten co kupił.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z wygladu ok, o wiele lepiej niz 90% odpustowych modeli dla gimbazy ? lubię taki classic look :thumb:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Passt napisał:

@Send1N @DisconnecT

Dzięki Panowie, tak myślałem, ale wolałem się upewnić.

Ustawiaj maksymalną wydajność w panelu NV dla danej gry (Program Settings zamiast Global), jeśli chcesz mieć pewność, że nie będzie spadków wydajności, globalnie na wszystko bez sensu tak jak wspomniane.
Et7Yr6m.jpg

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, Aori napisał:

Sory, że zawracam znowu tyłek ?

Bo zwracam moją kartę https://www.x-kom.pl/p/659839-karta-graficzna-nvidia-gigabyte-geforce-rtx-3070-ti-eagle-8gb-gddrx6.html

I się zastanawiam na jaką wymienić, by niebyło trzeb robić UV i karta była w miarę chłodna ? Już niebędę mógł zwrócić drugi raz... a karta 4500 zł , więc chcę mieć pewność, że karta będzie chłodna, a nie jak ten Eagle - 93 stopnie na Hot Spocie...

Myśle im większa karta, im większy radiator tym lepiej dlatego, rozważam wymiane na :
https://www.x-kom.pl/p/655244-karta-graficzna-nvidia-msi-geforce-rtx-3070-ti-gaming-x-trio-8gb-gddr6x.html

 

A obudowe mam dużą i przewiewną

https://www.x-kom.pl/p/546566-obudowa-do-komputera-silentiumpc-signum-sg7v-evo-tg-argb.html

 

Licze na waszą pomoc...

Czy do tej karty starczy zasilacz 750  W ?

https://www.x-kom.pl/p/655243-karta-graficzna-nvidia-msi-geforce-rtx-3070-ti-suprim-x-8gb-gddr6x.html#Specyfikacja

Bo w specyfikacji pisze 850 W.. Procesor jaki mam to Ryzen 5 5600 X ??

 

 

17 godzin temu, Aori napisał:

 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, Aori napisał:

Czy do tej karty starczy zasilacz 750  W ?

https://www.x-kom.pl/p/655243-karta-graficzna-nvidia-msi-geforce-rtx-3070-ti-suprim-x-8gb-gddr6x.html#Specyfikacja

Bo w specyfikacji pisze 850 W.. Procesor jaki mam to Ryzen 5 5600 X ??

Dobre 650 pociągnie to z palcem w dupie. 750W się nawet nie spoci

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 30.07.2021 o 21:32, blubaju napisał:

Spokojnie, nic się nie pourywa. W zestawie z karta dostaniesz paletę cegieł oraz worek cementu i sobie wybudujesz murowaną podporę :thumbup:

Już jakiś czas temu wyciekły testy pierwszych próbek inżynieryjnych 4090, nawet PCB pokazał i układ chłodzenia, polecam :E

 

  • Haha 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

I to jest piękny przykład gdzie płyta główna jest wpinana do karty graficznej  a nie na odwrót :thumbup::]

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeżeli prawdą jest, że pobór prądu wzrośnie, to na forum będzie płacz i lament przez osoby, dla których obecnie 250-300w to za dużo. 

Rtx 4080 2x wydajniejszy od rtx 3080, z poborem 300-350W po UV byłby dla mnie w pełni akceptowalny. 

Producenci nie będą mieli łatwego zadania, chłodzenia jeszcze bardziej urosną i masa wzrośnie.

 

Edytowane przez Doamdor

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość
2 minuty temu, Doamdor napisał:

Jeżeli prawdą jest, że pobór prądu wzrośnie, to na forum będzie płacz i lament przez osoby, dla których obecnie 250-300w to za dużo. 

Rtx 4080 2x wydajniejszy od rtx 3080, z poborem 300-350W po UV byłby dla mnie w pełni akceptowalny. 

Producenci nie będą mieli łatwego zadania, chłodzenia jeszcze bardziej urosną i masa wzrośnie.

 

Pytanie tylko w czym wydajniejszy 2 razy? Jeżeli w DX11 to meh. :szczerbaty:Jeżeli w RT + DX to jeszcze mogę zrozumieć te 400W w przypadku ostatniego monolitu Nvidii.:pimp:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, Pioneer83 napisał:

Pytanie tylko w czym wydajniejszy 2 razy? Jeżeli w DX11 to meh. :szczerbaty:Jeżeli w RT + DX to jeszcze mogę zrozumieć te 400W w przypadku ostatniego monolitu Nvidii.:pimp:

Dla jednych w grach bez rt, dla innych w grach z rt.

Dla mnie wydajność ogólna się liczy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No i właśnie dlatego nie rozumiesz lamentu o TDP. Bo patrzysz tylko na wydajność nie patrząc jakim kosztem została osiągnięta. Dla ciebie najlepiej żeby Nv wydala GPU które będzie maiło wydajność 4x RTX 3xxx a TDP... sky is the limit, a potem płacz ze cos padło i co się dzieje czemu tak. Zainteresuj się troche tym pudlem którego używasz a nie tylko na słupki wydajności patrzysz.

  • Thanks 1
  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Passt napisał:
Cytat

GeForce GTX 1080 Ti  to wciąż rewelacyjna na karta, która jest uważana za najlepszy układ "Ti" jaki kiedykolwiek powstał, a oferowany wzrost wydajności nie został później powtórzony przy Turnigach i Ampere.

Przecież skok wydajności u nV z generacji na generację jest mniej więcej podobny. Układ z serii xx70 jest na równi lub lekko wyżej niz topowy układ poprzedniej generacji. Noo, Turing był małym wyjątkiem.
Idąc od Keplera
780Ti = 970
980Ti = 1070
1080Ti > 2080
2080Ti = 3070

Nie tak to było? :hmm:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, kadajo napisał:

No i właśnie dlatego nie rozumiesz lamentu o TDP. Bo patrzysz tylko na wydajność nie patrząc jakim kosztem została osiągnięta. Dla ciebie najlepiej żeby Nv wydala GPU które będzie maiło wydajność 4x RTX 3xxx a TDP... sky is the limit, a potem płacz ze cos padło i co się dzieje czemu tak. Zainteresuj się troche tym pudlem którego używasz a nie tylko na słupki wydajności patrzysz.

Mały masz wzrost wydajności na wat, w porównaniu GTX 1080 vs rtx 3080?

Zamiast bredzić i pisać głupoty, to lepiej nic nie pisz.

Nie odemnie zależy to co zaoferuje rtx 4xxx. Jeżeli nie akceptujesz ampere i jego poboru prądu, to trzeba było kupić RX. 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Doamdor napisał:

Mały masz wzrost wydajności na wat, w porównaniu GTX 1080 vs rtx 3080?

Zamiast bredzić i pisać głupoty, to lepiej nic nie pisz.

Nie odemnie zależy to co zaoferuje rtx 4xxx. Jeżeli nie akceptujesz ampere i jego poboru prądu, to trzeba było kupić RX. 

 

Ty kompletnie nie kumasz o co chodzi, już ci to pisałem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, kadajo napisał:

Ty kompletnie nie kumasz o co chodzi, już ci to pisałem.

Przeczytaj ze zrozumieniem to co napisałem . 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Performance per watt to nie wszystko. Jest jakiś zdrowy rozsadek limitu W i TDP jaki powinien być zachowany w kartach konsumenckich. Widać wyraźnie ze nie są w stanie utrzymać tak wysokiej wydajności nie poświęcając limitów TDP. Skoro nie potrafią tak usprawnić architektury co dwa lata to niech karty wydają co 4 lata zachowując to samo albo mniejsze TDP a nie ciągle je w gore windują. Pomyśl do czego to za chwile doprowadzi. Jest limit tego co można osiągnąć chodząc karty powietrzem chyba ze dla ciebie zaraz wprowadzenie w kartach graficznych chłodzenia wodnego to nic takiego bo kogo obchodzi TDP... Nie wiem czego tu nie rozumieć. Tak wysokie TDP jakie zaczyna być w procesorach i kartach graficznych dla konsumentów jest nieakceptowalne i na pewno nie przyspieszy ich rozwoju.

Edytowane przez kadajo
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, kadajo napisał:

Performance per watt to nie wszystko. Jest jakiś zdrowy rozsadek limitu W i TDP jaki powinien być zachowany w kartach konsumenckich. Widać wyraźnie ze nie są w stanie utrzymać tak wysokiej wydajności nie poświęcając limitów TDP. Skoro nie potrafią tak usprawnić architektury co dwa lata to niech karty wydają co 4 lata zachowując to samo albo mniejsze TDP a nie ciągle je w gore windują. Pomyśl do czego to za chwile doprowadzi. Jest limit tego co można osiągnąć chodząc karty powietrzem chyba ze dla ciebie zaraz wprowadzenie w kartach graficznych chłodzenia wodnego to nic takiego bo kogo obchodzi TDP... Nie wiem czego tu nie rozumieć. Tak wysokie TDP jakie zaczyna być w procesorach i kartach graficznych dla konsumentów jest nieakceptowalne i na pewno nie przyspieszy ich rozwoju.

Jakie masz rozwiązanie dla nvidii ?

Uzasadnij jaki masz problem z amper po UV 

Co cię skłoniło do zakupu rtx 3070, zamiast RX ? To już Rtx 3080 wypada o wiele lepiej od rtx 3070.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, blubaju napisał:

1080Ti > 2080
Nie tak to było? :hmm:

Tu tak nie bylo, 1080ti > 2070, 2080 byla 10% lepsza, później wyszła 2070S i była tez o 5% szybsza od 1080ti

Edytowane przez Send1N
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość
57 minut temu, kadajo napisał:

Performance per watt to nie wszystko. Jest jakiś zdrowy rozsadek limitu W i TDP jaki powinien być zachowany w kartach konsumenckich. Widać wyraźnie ze nie są w stanie utrzymać tak wysokiej wydajności nie poświęcając limitów TDP. Skoro nie potrafią tak usprawnić architektury co dwa lata to niech karty wydają co 4 lata zachowując to samo albo mniejsze TDP a nie ciągle je w gore windują. Pomyśl do czego to za chwile doprowadzi. Jest limit tego co można osiągnąć chodząc karty powietrzem chyba ze dla ciebie zaraz wprowadzenie w kartach graficznych chłodzenia wodnego to nic takiego bo kogo obchodzi TDP... Nie wiem czego tu nie rozumieć. Tak wysokie TDP jakie zaczyna być w procesorach i kartach graficznych dla konsumentów jest nieakceptowalne i na pewno nie przyspieszy ich rozwoju.

Jak EVGA się rozkręci to machnie jakiegoś Kingpina z limitem 2500W i wtedy to biedne 480W wyda się przy tym cudaku niezbyt wielkim TDP.:szczerbaty:

Edytowane przez Gość

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja jutro zmieniam Zotaca 3080 na Gigabite Gaming 3080Ti. Podsumowując 3080Ti wyniesie mnie ~4800PLN. Nie ma tragedii. Mam nadzieję że nie będę żałował i po UV da się wytrzymać z tą grzałką.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z jakiego powodu zmieniasz? :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • To jest 120mm wentylator Dla pewności zmierz jeden bok i napisz. Jeżeli jest to jak pisałem 120mm to masz wybór, tylko napisz jakie jest napięcie na obecnym wentylatorze, gdy zasilacz jest w idle - wystarczy go uruchomić na stole z zwartymi zielonym i obojętnie jakimś czarnym. Ta zworka uruchomi zasilanie.
    • kupujesz najtańszy Arctic Cooling F12 bez PWM, rozcinasz wtyczkę, lutujesz i gotowe.
    • No i już widać że kompletnie nie zrozumiałeś co napisałem. Napisałem, że te wykresy zostały później skorygowane. Oba które przytoczyłeś są i były niekompletne i niedokładne już w dniu ich publikacji. Pierwszy wykres w zasadzie jest drugim wykresem ale ze zmienionym liczeniem dokładności i wywaloną częścią danych, które ktoś uznał za mało szczegółowe (bo w zasadzie nie pasowały do wyliczeń by osiągnąć 95% dokładność w ujęciu statystyczno-metrologicznym modelu, nie myl tego z dokładnością danych bo to nie to samo).   Jak chcesz patrzeć w szerszej perspektywie to zainteresuj się czym było MWP (średniowieczny okres cieplny) i co było jego przyczyną. Trwał od około 1000 do 1300 roku. Napisałem, zestaw to sobie z danymi aktywności wulkanicznej (podpowiedź - była znacznie niższa niż wcześniej) oraz z promieniowaniem słonecznym, które było wyższe. Natomiast do małej epoki lodowcowej która zaczęła się około 1600 roku a skończyła około 1900 roku spowodował bardzo duży wzrost aktywności wulkanicznej w konsekwencji zmniejszone promieniowanie słoneczne. Co ciekawe nie zawsze duża aktywność wulkaniczna działa globalnie czego dowodzi wybuch Pektu-San (góra Paektu) w okolicy 946 roku którego erupcja była większa niż inne powodujące zmiany globalne, a jednak wpłynęła tylko lokalnie na Półwyspie Koreańskim.  Co na to wpłynęło? Mógł to być choćby korzystny w tej sytuacji układ prądów powietrza w okresie erupcji. To co piszesz ogólnie świadczy o tym, że nie ogarniasz jak to wszystko jest połączone i jak zmiana kilku elementów może wpłynąć na pozostałe. Stąd właśnie teksty typu:     Gdzie widać jak na dłoni, że nie ogarniasz dlaczego analizuje się tempo zmian głównie w okresie po 1900 roku.  Odpowiedz sobie sam na pytanie jaki przemysł miał człowiek w latach 800-1300 który mógłby globalnie wpłynąć na temperatury, żeby nie mówić o tym, że wtedy było to zjawisko naturalne. Zestaw to sobie teraz właśnie z tempem wzrostu temperatury i zmian w układzie klimatycznym na Ziemi w ostatnich 100 latach. Może znajdziesz odpowiedź, a nie wysiądziesz z racji tego że Cię to przerosło.  
    • Co to za gówniany monitor ten Aorus 😄 3 strony rozprawek o tym jak włączyć tryb, a co powinno być w instrukcji na wierzchu
    • Albo USA postawiło warunek w zamian za zabawki i pieniądze  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...