Skocz do zawartości

Rekomendowane odpowiedzi

48 minut temu, AndrzejTrg napisał:

Tak to czytam to widzę to tak. "Wiem, ale nie powiem" 🙄

to jest ten jego cadillac , tylko wstydzi się go pokazać :rotfl:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
22 minuty temu, Minciu napisał:

Czyli trafiłeś Gigabajta co robi ponad 1900Mhz ale nie wkleisz wykresu z GPU-Z ? 


U mnie SuprimX chyba robi ponad 2000 w stock czasem. A czasem nie. Zegar nie musi być stały wystarczy, że GPU robi zegar ponad boost clock czy ponad base clock czy też ten max clock co teraz wpisali? :D

Bo tutaj już napalamy się na 2800MHz a to niby max.. I im niższy PL tym niżej FrameCap będzie trzeba wbić żeby ten 2800 się pojawił. 

Bo chyba o tym właśnie piszemy, że jak zetną TDP w prądo-żernym rdzeniu, to wysokie zegary nie będą trzymać się stabilnie.

 

Przypominam czym się hajpowałeś :

 

4070 - 7680cuda 285wat

4090 - 16384cuda 450wat

Praktycznie dwie karty w jednej za dodatkowe tylko 50% watów ? A już ta 4070 z 285wat będzie pewnie walić w PowerLimit

Gdzie przypomnę, 50 wat to same GDDR6X spokojnie podbije przy dwa razy większej ilości pamięci.

 

4070 też będzie dotykać power limit bo to są dane z refa natomiast 450wat z 4090 mnie nie interesuje i tak ja skrece na 350wat co będę w stanie pograć z godzine

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
7 minut temu, SylwesterI. napisał:

to jest ten jego cadillac , tylko wstydzi się go pokazać :rotfl:

Widzę że inni z forum też coś nie chcą łykać stabilnego boosta na RTXach ;) 

3 minuty temu, jurekk napisał:

4070 też będzie dotykać power limit bo to są dane z refa natomiast 450wat z 4090 mnie nie interesuje i tak ja skrece na 350wat co będę w stanie pograć z godzine

4090 skręconą na 450wat skręcisz na 350wat i będziesz się cieszyć zegarkiem 2800MHz ? Ja już w ciemno Ci powiem, że z tej specyfikacji wyżej to 4090 skręcona na 350wat będzie z trudem trzymać nawet base clock ;) 

Szczególnie jeśli niemal bliźniaczy rdzeń w 4090TI ma ciągnąć do 800wat XD 

Edytowane przez Minciu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jaki zegar będzie taki będzie. Może trafi się w miare

Nie ośmieszają się z base.2070s mobile ma 115w i tylko 300 MHz mniej od wersji pc

  • Haha 1
  • Confused 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A co ma 2070s mobile do rtxa 4090 ?

Nawet nie wiem czy uda Ci się zbić 4090tkę do 350wat. Bo przykładowo rtx3080 nie da się zjechać poniżej 220wat choćby nie wiem co. Tak czy siak przy tych 350wat pewnie obleci Cię nawet 4080 po podbiciu PL i dopasowaniu zegarów do możliwości rdzenia. Bo z 19k puktów w TimeSpy zlecisz w okolice 16k.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
16 minut temu, Minciu napisał:

 

po co z nim dyskutujesz :E , on tak "zoptymalizował" swojego 6900xt , ze latał jak 6800xt na stock , a to tylko 281W było w oryginale , kupi sobie 4090 i "zoptymalizuje" go wydajnościowo do poziomu 4050 , tylko prundu będzie łykał 2x tyle :boink:

Edytowane przez SylwesterI.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

22800 nie ma 6800xt na stoku a prędzej z 19500.Nudzicie mnie .a będę miał 4090 to ci powiem co ma . Każda karta jest podobna choć fakt 8nm nie można uznać do udanego procesu 

4 minuty temu, Minciu napisał:

 z 19k puktów w TimeSpy zlecisz w okolice 16k.

O matko 🤣

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
10 minut temu, SylwesterI. napisał:

po co z nim dyskutujesz :E , on tak "zoptymalizował" swojego 6900xt , ze latał jak 6800xt na stock , a to tylko 281W było w oryginale , kupi sobie 4090 i "zoptymalizuje" go wydajnościowo do poziomu 4050 , tylko prundu będzie łykał 2x tyle :boink:

Ja też teraz jestem tak zoptymalizowany na SuprimX 3080, że pewnie 3070 jakby mi ktoś wsadził to nie zauważyłbym różnicy.

3000 to są smoki i bez watów nie mają mocy. Najgorzej że nie zapowiada się aby miało coś poprawić się w tym temacie..

QpK2cjqeQEXo5iJajscGq3.jpg?time=16576103

6 minut temu, jurekk napisał:

O matko 🤣

Czyli poziom RTXa 4080 za dwukrotność ceny. Ma to sens i chwalenie się 2800Mhz przy 350watach z Vsync ON na jakimś niedźwiedziu w FHD ? :D 

Edytowane przez Minciu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jaki rtx 4080. Przelicz to jeszcze. A cena nie problem. Kradną po kontach już 2 lata ,nie warto kitrac 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

How many Watts we need for RTX4xxx ?

Yes!

Caption Contest: NVIDIA CEO flaunts tattoo on stage, still serving cans of  whoop-ass | Engadget

😂

 

  • Haha 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, jurekk napisał:

4070 też będzie dotykać power limit bo to są dane z refa natomiast 450wat z 4090 mnie nie interesuje i tak ja skrece na 350wat co będę w stanie pograć z godzine

 

 

1 godzinę temu, jurekk napisał:

Jaki rtx 4080. Przelicz to jeszcze. A cena nie problem. Kradną po kontach już 2 lata ,nie warto kitrac 

To montuj klimę jak i tak nie masz co robić z kasą. Przyda się do rtx4090 żebyś mógł grać dłużej niż godzinę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Podsumowanie plotek i ploteczek ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 godzin temu, Minciu napisał:

To montuj klimę jak i tak nie masz co robić z kasą. Przyda się do rtx4090 żebyś mógł grać dłużej niż godzinę.

Klima to raczej dobra inwestycja przy poborze gpu 300+. Sam zauważyłeś Minciu że przy karcie 220-250W robi się w pokoju piekarnik to przy +100W będzie znacznie gorzej. 450W to już dla wielu absurd.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jaki w końcu wygląd będą miały te chłodzenia FE nowych 4xxx, jak w Ampere czy  nowy projekt?

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A skad to niby mamy wiedzieć? :E 

  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Były już jakieś fotki, że niby design się znacząco nie zmienił.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niby tak, ale na razie nic potwierdzonego 

NVIDIA-RTX-40-heatsink-1.jpg

NVIDIA-RTX4090Ti-frame.jpg



NVIDIA-RTX-40-heatsink-2.jpg (2500×1200)

  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 godzin temu, hopes napisał:

Klima to raczej dobra inwestycja przy poborze gpu 300+. Sam zauważyłeś Minciu że przy karcie 220-250W robi się w pokoju piekarnik to przy +100W będzie znacznie gorzej. 450W to już dla wielu absurd.

To zależy jaki ma się pokój i w jakim budownictwie. U mnie pokój 25m2 w zerowej klasie energetycznej (ściana z cegły strop z desek i trzciny, stare budownictwo), komp wciąga tak 475W podczas grania, do tego monitory, to razem na mierniku ok 600W. Latem wystarczy uchylić okno i temperatura otoczenia się nie zmienia, zimą przy zamkniętym oknie podnosi ledwo o 2 stopnie temperaturę wewnątrz. W takiej opcji karta z poborem nawet 800W nie robi na mnie wrażenia. 

Z drugiej strony, moja dziewczyna mieszka w ocieplonym bloku z wielkiej płyty i pokój ok 12m2 może stać się piekarnikiem już przy HD5850 i ryzenie 1600x i ledwo godzinie zabawy, a ten zestaw malutko bierze. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, T0TEK napisał:

..Latem wystarczy uchylić okno i temperatura otoczenia się nie zmienia, ..

szczególnie jak za oknem masz nawet +30*C :) 

  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Piszę o poborze samej karty to raz.

Dwa to że masz 2 duże monitory zamiast jednego i CPU który pobiera dobrą połowę więcej energii to nie moja wina. Standardowy gracz ma o dobrą połowę mniejszy pobór. Są jeszcze tacy co mają koparkę obok siebie i ich po prostu nie biorę pod uwagę.

Po trzecie zaraz ktoś napiszę że ma PC w małym pokoiku obok więc może mieć pobór nawet ponad 1000W i tego nie odczuje. Takie porównania są bez sensu.

Dla zwykłego gracza każde 100W robi różnicę. Według mnie to wszystko idzie w złą stronę. 4070 blisko 300W serio :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na rynku są RTX 3070 +/- 300W.

Póki co plotka, goni plotkę, a ten co głosi plotki, ma problemy z kryształowa kulą. :szczerbaty:

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, Doamdor napisał:

Na rynku są RTX 3070 +/- 300W.

Póki co plotka, goni plotkę, a ten co głosi plotki, ma problemy z kryształowa kulą. :szczerbaty:

 

Albo z fusami.

Dajcie mu więcej kawy!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
14 godzin temu, Doamdor napisał:

Na rynku są RTX 3070 +/- 300W.

Niech sobie będzie. Wolałbym kupić rtx 3080 i zrobić UV aniżeli brać rtx 3070 z 300w  czy rtx 3070 ti. Ale co kto lubi.

  • Like 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Akurat 3070/Ti jest strasznie ujowo wycenione, albo brać 3060Ti , albo brać 3080  12 gb... W ogóle NV poleciała, z serią 3080 w wersji 10gb vs 12gb. Jako kupujący byłbym bardzo wuriowny, jakbym za kilka miesięcy się dowiedział że karta będzie mieć 12 gb i kosztować to samo🤔 A teraz jak 12 gb chodzi w promocji za lekko z hakiem 4k, a ludzie kupowali za ponad 6 czy nawet 7 tyś 😂 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 2.08.2022 o 16:52, SebastianFM napisał:

Przez okno się nie opłaca. Ja chętnie od ciebie odkupię do wyświetlania pulpitu. 😁

I jeszcze pewnie za dwójkę z dowozem + fryty! ;)

4 minuty temu, AndrzejTrg napisał:

Akurat 3070/Ti jest strasznie ujowo wycenione, albo brać 3060Ti , albo brać 3080  12 gb... W ogóle NV poleciała, z serią 3080 w wersji 10gb vs 12gb. Jako kupujący byłbym bardzo wuriowny, jakbym za kilka miesięcy się dowiedział że karta będzie mieć 12 gb i kosztować to samo🤔 A teraz jak 12 gb chodzi w promocji za lekko z hakiem 4k, a ludzie kupowali za ponad 6 czy nawet 7 tyś 😂 

Wcale nie mam dyskomfortu z tego powodu.

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...