Skocz do zawartości
yampik

NVIDIA (GTX) rly RTX 30x0

Rekomendowane odpowiedzi

Godzinę temu, Passt napisał:

Dodam, że plan zasilania w sterowniku NVIDII to oczywiście maksymalna wydajność.

tu masz odpowiedz, jak ustawisz tak w głównym menu zamiast robić profile do danej gry z takim trybem to karta nigdy nie zejdzie do najniższego stanu zegarów i masz efekt zbednego grzania w idle.

  • Upvote 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Passt napisał:

Dodam, że plan zasilania w sterowniku NVIDII to oczywiście maksymalna wydajność.

No i oczywiście sam sobie odpowiedziałeś skąd takie duże temperatury w idle.

  • Upvote 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sory, że zawracam znowu tyłek 😛

Bo zwracam moją kartę https://www.x-kom.pl/p/659839-karta-graficzna-nvidia-gigabyte-geforce-rtx-3070-ti-eagle-8gb-gddrx6.html

I się zastanawiam na jaką wymienić, by niebyło trzeb robić UV i karta była w miarę chłodna ? Już niebędę mógł zwrócić drugi raz... a karta 4500 zł , więc chcę mieć pewność, że karta będzie chłodna, a nie jak ten Eagle - 93 stopnie na Hot Spocie...

Myśle im większa karta, im większy radiator tym lepiej dlatego, rozważam wymiane na :
https://www.x-kom.pl/p/655244-karta-graficzna-nvidia-msi-geforce-rtx-3070-ti-gaming-x-trio-8gb-gddr6x.html

 

A obudowe mam dużą i przewiewną

https://www.x-kom.pl/p/546566-obudowa-do-komputera-silentiumpc-signum-sg7v-evo-tg-argb.html

 

Licze na waszą pomoc...

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
30 minut temu, Aori napisał:

 

I się zastanawiam na jaką wymienić, by niebyło trzeb robić UV i karta była w miarę chłodna ? J

GT 710 - nowość MSI na rynku kart graficznych. Oprócz tego GT1030 też spełni twoje wymagania.:rotfl:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Karta ciekawostka:

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ostatnio widziałem filmik na kanale Foresta z cyklu Frankenstein. RTX 3080 Aorus z wciśniętym chłodzeniem od Eagle. Nawet po pijaku bym nie wpadł żeby takie coś montować. Nie wiem kto był bardziej w transie ten kto sprzedawał czy ten co kupił.

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z wygladu ok, o wiele lepiej niz 90% odpustowych modeli dla gimbazy 😛 lubię taki classic look :thumb:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Passt napisał:

@Send1N @DisconnecT

Dzięki Panowie, tak myślałem, ale wolałem się upewnić.

Ustawiaj maksymalną wydajność w panelu NV dla danej gry (Program Settings zamiast Global), jeśli chcesz mieć pewność, że nie będzie spadków wydajności, globalnie na wszystko bez sensu tak jak wspomniane.
Et7Yr6m.jpg

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, Aori napisał:

Sory, że zawracam znowu tyłek 😛

Bo zwracam moją kartę https://www.x-kom.pl/p/659839-karta-graficzna-nvidia-gigabyte-geforce-rtx-3070-ti-eagle-8gb-gddrx6.html

I się zastanawiam na jaką wymienić, by niebyło trzeb robić UV i karta była w miarę chłodna ? Już niebędę mógł zwrócić drugi raz... a karta 4500 zł , więc chcę mieć pewność, że karta będzie chłodna, a nie jak ten Eagle - 93 stopnie na Hot Spocie...

Myśle im większa karta, im większy radiator tym lepiej dlatego, rozważam wymiane na :
https://www.x-kom.pl/p/655244-karta-graficzna-nvidia-msi-geforce-rtx-3070-ti-gaming-x-trio-8gb-gddr6x.html

 

A obudowe mam dużą i przewiewną

https://www.x-kom.pl/p/546566-obudowa-do-komputera-silentiumpc-signum-sg7v-evo-tg-argb.html

 

Licze na waszą pomoc...

Czy do tej karty starczy zasilacz 750  W ?

https://www.x-kom.pl/p/655243-karta-graficzna-nvidia-msi-geforce-rtx-3070-ti-suprim-x-8gb-gddr6x.html#Specyfikacja

Bo w specyfikacji pisze 850 W.. Procesor jaki mam to Ryzen 5 5600 X ??

 

 

17 godzin temu, Aori napisał:

 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 minut temu, Aori napisał:

Czy do tej karty starczy zasilacz 750  W ?

https://www.x-kom.pl/p/655243-karta-graficzna-nvidia-msi-geforce-rtx-3070-ti-suprim-x-8gb-gddr6x.html#Specyfikacja

Bo w specyfikacji pisze 850 W.. Procesor jaki mam to Ryzen 5 5600 X ??

Dobre 650 pociągnie to z palcem w dupie. 750W się nawet nie spoci

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 30.07.2021 o 21:32, blubaju napisał:

Spokojnie, nic się nie pourywa. W zestawie z karta dostaniesz paletę cegieł oraz worek cementu i sobie wybudujesz murowaną podporę :thumbup:

Już jakiś czas temu wyciekły testy pierwszych próbek inżynieryjnych 4090, nawet PCB pokazał i układ chłodzenia, polecam :E

 

  • Haha 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

I to jest piękny przykład gdzie płyta główna jest wpinana do karty graficznej  a nie na odwrót :thumbup::]

  • Haha 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Jeżeli prawdą jest, że pobór prądu wzrośnie, to na forum będzie płacz i lament przez osoby, dla których obecnie 250-300w to za dużo. 

Rtx 4080 2x wydajniejszy od rtx 3080, z poborem 300-350W po UV byłby dla mnie w pełni akceptowalny. 

Producenci nie będą mieli łatwego zadania, chłodzenia jeszcze bardziej urosną i masa wzrośnie.

 

Edytowane przez Doamdor

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, Doamdor napisał:

Jeżeli prawdą jest, że pobór prądu wzrośnie, to na forum będzie płacz i lament przez osoby, dla których obecnie 250-300w to za dużo. 

Rtx 4080 2x wydajniejszy od rtx 3080, z poborem 300-350W po UV byłby dla mnie w pełni akceptowalny. 

Producenci nie będą mieli łatwego zadania, chłodzenia jeszcze bardziej urosną i masa wzrośnie.

 

Pytanie tylko w czym wydajniejszy 2 razy? Jeżeli w DX11 to meh. :szczerbaty:Jeżeli w RT + DX to jeszcze mogę zrozumieć te 400W w przypadku ostatniego monolitu Nvidii.:pimp:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, Pioneer83 napisał:

Pytanie tylko w czym wydajniejszy 2 razy? Jeżeli w DX11 to meh. :szczerbaty:Jeżeli w RT + DX to jeszcze mogę zrozumieć te 400W w przypadku ostatniego monolitu Nvidii.:pimp:

Dla jednych w grach bez rt, dla innych w grach z rt.

Dla mnie wydajność ogólna się liczy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No i właśnie dlatego nie rozumiesz lamentu o TDP. Bo patrzysz tylko na wydajność nie patrząc jakim kosztem została osiągnięta. Dla ciebie najlepiej żeby Nv wydala GPU które będzie maiło wydajność 4x RTX 3xxx a TDP... sky is the limit, a potem płacz ze cos padło i co się dzieje czemu tak. Zainteresuj się troche tym pudlem którego używasz a nie tylko na słupki wydajności patrzysz.

  • Thanks 1
  • Haha 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Passt napisał:
Cytat

GeForce GTX 1080 Ti  to wciąż rewelacyjna na karta, która jest uważana za najlepszy układ "Ti" jaki kiedykolwiek powstał, a oferowany wzrost wydajności nie został później powtórzony przy Turnigach i Ampere.

Przecież skok wydajności u nV z generacji na generację jest mniej więcej podobny. Układ z serii xx70 jest na równi lub lekko wyżej niz topowy układ poprzedniej generacji. Noo, Turing był małym wyjątkiem.
Idąc od Keplera
780Ti = 970
980Ti = 1070
1080Ti > 2080
2080Ti = 3070

Nie tak to było? :hmm:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, kadajo napisał:

No i właśnie dlatego nie rozumiesz lamentu o TDP. Bo patrzysz tylko na wydajność nie patrząc jakim kosztem została osiągnięta. Dla ciebie najlepiej żeby Nv wydala GPU które będzie maiło wydajność 4x RTX 3xxx a TDP... sky is the limit, a potem płacz ze cos padło i co się dzieje czemu tak. Zainteresuj się troche tym pudlem którego używasz a nie tylko na słupki wydajności patrzysz.

Mały masz wzrost wydajności na wat, w porównaniu GTX 1080 vs rtx 3080?

Zamiast bredzić i pisać głupoty, to lepiej nic nie pisz.

Nie odemnie zależy to co zaoferuje rtx 4xxx. Jeżeli nie akceptujesz ampere i jego poboru prądu, to trzeba było kupić RX. 

 

  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Doamdor napisał:

Mały masz wzrost wydajności na wat, w porównaniu GTX 1080 vs rtx 3080?

Zamiast bredzić i pisać głupoty, to lepiej nic nie pisz.

Nie odemnie zależy to co zaoferuje rtx 4xxx. Jeżeli nie akceptujesz ampere i jego poboru prądu, to trzeba było kupić RX. 

 

Ty kompletnie nie kumasz o co chodzi, już ci to pisałem.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, kadajo napisał:

Ty kompletnie nie kumasz o co chodzi, już ci to pisałem.

Przeczytaj ze zrozumieniem to co napisałem . 

  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Performance per watt to nie wszystko. Jest jakiś zdrowy rozsadek limitu W i TDP jaki powinien być zachowany w kartach konsumenckich. Widać wyraźnie ze nie są w stanie utrzymać tak wysokiej wydajności nie poświęcając limitów TDP. Skoro nie potrafią tak usprawnić architektury co dwa lata to niech karty wydają co 4 lata zachowując to samo albo mniejsze TDP a nie ciągle je w gore windują. Pomyśl do czego to za chwile doprowadzi. Jest limit tego co można osiągnąć chodząc karty powietrzem chyba ze dla ciebie zaraz wprowadzenie w kartach graficznych chłodzenia wodnego to nic takiego bo kogo obchodzi TDP... Nie wiem czego tu nie rozumieć. Tak wysokie TDP jakie zaczyna być w procesorach i kartach graficznych dla konsumentów jest nieakceptowalne i na pewno nie przyspieszy ich rozwoju.

Edytowane przez kadajo
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, kadajo napisał:

Performance per watt to nie wszystko. Jest jakiś zdrowy rozsadek limitu W i TDP jaki powinien być zachowany w kartach konsumenckich. Widać wyraźnie ze nie są w stanie utrzymać tak wysokiej wydajności nie poświęcając limitów TDP. Skoro nie potrafią tak usprawnić architektury co dwa lata to niech karty wydają co 4 lata zachowując to samo albo mniejsze TDP a nie ciągle je w gore windują. Pomyśl do czego to za chwile doprowadzi. Jest limit tego co można osiągnąć chodząc karty powietrzem chyba ze dla ciebie zaraz wprowadzenie w kartach graficznych chłodzenia wodnego to nic takiego bo kogo obchodzi TDP... Nie wiem czego tu nie rozumieć. Tak wysokie TDP jakie zaczyna być w procesorach i kartach graficznych dla konsumentów jest nieakceptowalne i na pewno nie przyspieszy ich rozwoju.

Jakie masz rozwiązanie dla nvidii ?

Uzasadnij jaki masz problem z amper po UV 

Co cię skłoniło do zakupu rtx 3070, zamiast RX ? To już Rtx 3080 wypada o wiele lepiej od rtx 3070.

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...