Skocz do zawartości

Rekomendowane odpowiedzi

I czerwony przycisk po wciśnięciu którego karta zostaje wykatapultowana przez okno w kierunku najbliższego zbiornika wodnego :E

  • Haha 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Teraz, kadajo napisał:

I czerwony przycisk po wciśnięciu którego karta zostaje wykatapultowana przez okno w kierunku najbliższego zbiornika wodnego :E

Tzw. Chłodzenie wodne

  • Haha 4

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Kyle_PL napisał:

Sugerowałbym producentom montować czujnik temperatury tego nowego złącza zasilania (oczywiście wiążąc odczyty z niego, z reakcją karty na podniesione temperatury złącza, np. auto-obniżanie limitu mocy, wraz ze wzrostem temperatury).

Pomijając błędy z niedociśnięcia to wystarczy, że będzie zachowana stała jakość konektorów i nic nie będzie się dziać. Skoro adapter po wyjęciu u mnie z pudełka miał już rozjechane konektory to o czym mowa.

  • Like 2
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 minut temu, SebastianFM napisał:

Jasne. Może jeszcze kamerę skierowaną na wtyczkę i oprogramowanie (koniecznie korzystające z AI) do analizy czy się nie zaczęła wysuwać. 🙂

Ciekawe, ciekawe, ale sądzę, że zwykły czujnik temperatury będzie "nieco" tańszy, a powinien idealnie rozwiązać wszelkie problemy z upalaniem tych wtyczek (nawet gdyby ktoś wsadził wtyczkę do połowy). Takie rozwiązanie producenci mogą sobie wprowadzić teraz we własnym zakresie, bez naruszania "normy" tych wtyczek i gniazd. W kartach za ponad 2000zł (bo takie wtyczki/gniazda są tylko w droższych modelach) dołożenie czujnika za jakieś centy, to nie problem.

14 minut temu, sideband napisał:

Pomijając błędy z niedociśnięcia to wystarczy,

... a rozwiązanie z czujnikiem temperatury, nawet przed efektami niedociśnięć ochroni.

  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nowy feature (czujnik czy cokolwiek) pojawi się w 50% droższej serii 5xxx :)

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
Godzinę temu, kadajo napisał:

I czerwony przycisk po wciśnięciu którego karta zostaje wykatapultowana przez okno w kierunku najbliższego zbiornika wodnego :E

A user z fotela w tym momencie katapultowany na... stryczek
(bo tylko się powiesić po tym, jak mi kartę za 10K wystrzeliło z mobo do basenu!) 😂

 


 

56 minut temu, Kyle_PL napisał:

Ciekawe, ciekawe, ale sądzę, że zwykły czujnik temperatury będzie "nieco" tańszy, a powinien idealnie rozwiązać wszelkie problemy z upalaniem tych wtyczek (nawet gdyby ktoś wsadził wtyczkę do połowy). Takie rozwiązanie producenci mogą sobie wprowadzić teraz we własnym zakresie, bez naruszania "normy" tych wtyczek i gniazd. W kartach za ponad 2000zł (bo takie wtyczki/gniazda są tylko w droższych modelach) dołożenie czujnika za jakieś centy, to nie problem.

... a rozwiązanie z czujnikiem temperatury, nawet przed efektami niedociśnięć ochroni.

Przecież to jakieś szaleństwo, co Wy tu wypisujecie. Partactwo wykonawstwa elementu /wtyczki/ za kilka centów albo i 2$ zaczynamy asekurować jakimiś wariactwami. To, jak kupować tira, żeby przewieźć lodówkę. Złącze należy zrobić porządne i koniec! Ten pomysł z czujnikami, itd. - przypomina mi trochę te tory przeszkód ustawiane... kulka popycha młotek, ten potrąca wiadro... 3 min operacji, żeby pacło typa w łeb = budzenie. Zamiast po prostu po 1 dzwonku fona ruszyć dupę i wstać. Tak samo tutaj, jakiś korowód dookolny w banalnym temacie, zamiast zrobić złącze ze skutecznością, tego znanego nam od 20 lat.

Edytowane przez *** ChOpLaCz ***
  • Like 1
  • Haha 1
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Jakby ktoś wiedział jak się od tego ubezpieczyć (może w PZU?) to dajcie znać, bo za kilka dni do tygodnia odpalamy kolegi kompa z 4090 i nie wiem czy przyklejać na gumę do życia czujkę temperatury,  i spiąć to wszystko  z systemem alarmowym podtrzymywanym bateryjnie, że jak skoczy o 5 stopni to automatycznie SMSowo zawiadamia 3 okoliczne jednostki straży pożarnej, uruchamia syrenę alarmową, i dzwoni do TVNu, żeby kręcić aferę od razu.

Edytowane przez Ronson
  • Haha 5

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Najlepsze ubezpieczenie to nie kupować RTX'a 4090 :E 

  • Upvote 5

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
38 minut temu, *** ChOpLaCz *** napisał:

. Złącze należy zrobić porządne i koniec! Ten pomysł z czujnikami, itd. - przypomina mi trochę te tory przeszkód ustawiane..

No niestety, przykro mi, ale cały projekt wtyczki jest skopany u podstaw, więc zrobienie jej "lepiej" 💩 da.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 minut temu, Kyle_PL napisał:

No niestety, przykro mi, ale cały projekt wtyczki jest skopany u podstaw, więc zrobienie jej "lepiej" 💩 da.

Dziwne. 20 lat działało i nagle przestało?
Czy się podstawy zmieniły?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

20 lat temu, to mocniejsze karty były zasilane wtyczką od FDD, a później MOLEX i pobierały z tych wtyczek nieporównywalnie mniej prądu.

Edytowane przez Kyle_PL
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja pamiętam, jak ludzie narzekali na AGP PRO, że to przesada z tym poborem prądu, że bez sensu, że niepotrzebne, że producenci kart mają się ogarnąć z tym wysokim poborem prądu, a nie wymyślać jakieś nowe rzeczy do zasilania.
Potem MOLEXy? No paaanie, to już przesada.

Potem PCI-Express! No w końcu koniec tego debilizmu z niedoborem prądu ze slotów, bo teraz to karta może nawet 75W brać ze slotu.

 

eee.. :szczerbaty:

  • Haha 6

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niektórzy pisali że nie opłaca się ładować kart z szyną 128BIT PCIE 4.0 X8 na starszych procesorach intela i płytach głównych z PCIE 3.0. Ale z tego co widzę w 1440P różnic praktycznie nie ma:

https://www.youtube.com/watch?v=UgiDpiOjZIg

Czy w rozdzielczości 1920x1080 różnica między pcie 3.0 i 4.0 też będzie taka mała czy już większa? 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, m0nika_ napisał:

Czy w rozdzielczości 1920x1080 różnica między pcie 3.0 i 4.0 też będzie taka mała czy już większa?

Jeżeli już, to różnica będzie mniejsza.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, wamak napisał:

Jeżeli już, to różnica będzie mniejsza.

Czyli wychodzi na to że to PCIE X8 wcale nie robi jakiejś zauważalnej różnicy nieważne czy używa się pcie 3.0 albo 4.0

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, wamak napisał:

Jeżeli już, to różnica będzie mniejsza.

Mylisz się. Ilość przesyłanych danych przez magistralę PCIe nie zależy od rozdzielczości tylko od ilości FPS, ponieważ renderowanie każdej klatki w danej grze wymaga przesłania podobnej ilości danych do GPU.

Oczywiście pomijam ekstremalną sytuację, kiedy brakuje pamięci VRAM na przechowywanie wszystkich tekstur używanych do renderowania i jakaś mała część z nich musi być przesyłana z pamięci RAM do VRAM podczas renderowania każdej klatki.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

W większości gier raczej tak, ale bywały takie przypadki (uwaga, tutaj karta to 3080, więc może się różnić w jakiś sposób) jak tu:
8d573f3f546feecc2391260a9ea2c535.png
 

154 vs 144
6.5% wydajności to już jednak spadek, którego bym nie chciał mieć.

Z tym, że:

- to była jedna gra, która się tak zachowywała. Od tamtego czasu mogło wyjść kilka lub zero.

- był chyba potem jakiś patch, który to poprawiał i zmniejszał różnice, ale słabo pamiętam, nie jestem pewien. 

Może kto inny znajdzie więcej info, a wnioski i decyzje każdy sobie sam niech wyciąga. Czy na pewno to będzie widoczne w 1080p, czy nie

 będzie  w  żadnej z gier, które wyjdą w tym i następnym roku? Nie wiem.


 

Edytowane przez Ronson
  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
27 minut temu, Ronson napisał:

154 vs 144
6.5% wydajności to już jednak spadek, którego bym nie chciał mieć.

W 1440p jest już 11% wg tego wykresu, mowa o 1% low fps. Z drugiej strony patrząc na średni fps to w 1080p jest większa różnica. Tak więc być może myliłem się.

Edytowane przez wamak

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

4% spadku w średnim i to się liczy. Na percentyle się nie patrzy, i tak programowo są źle mierzone ;)

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Z czystej ciekawości w sierpniu będę sprawdzał 4090 sprawowane z GPD Win MAX 2 (Ryzen 7 7840u) poprzez Oculink, czyli PCI-E 4.0 4x. Ciekawy jestem, jak to będzie się sprawować w porównaniu do PC'ta z 5800x.

Edytowane przez RENMEi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

4090 na pcie 4x 4.0? To chyba szkoda siana na te GPU

Obraz będzie wracał tym samym kablem co będzie podłączone GPU? Jak tak to trochę gigabitów ucieknie na powrót obrazu.

 

 

 

Edytowane przez Minciu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To będzie test z czystej ciekawości, kompa i tak z grafą mam, a jak przyjdzie do mnie GPD, który ma interfejs oculinka wbudowany, to jedyny koszt to będzie adapter pci-e, czyli jakieś 200zł na ali, tyle kasy dodatkowej mogę poświęcić na "zabawę", i to będzie raczej na zasadzie stacji dokującej gdzie grafa będzie podpięta pod monitor a oculinkiem grafa z GPD.

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
16 godzin temu, *** ChOpLaCz *** napisał:

Dziwne. 20 lat działało i nagle przestało?
Czy się podstawy zmieniły?

Oszczędności panie, oszczędności ! Z :kupa: materiałów robione, potem cyrki wychodzą :(

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dobra Panowie, mam 4070 Palit Jetstream, jest cicha i wszystko działa dobrze ale mam dwa pytania:

1. Chcę sobie śledzić na ekranie LCD temperatury tej karty, mam 2 miejsca do ustawienia a wartości są 3, które dwie z trzech wybrać ?

- Procesor graficzny

- GPU Hotspot

- Pamięć procesora graficznego

2. Wentylatory włączają się dopiero gdzieś przy 60 stopniach a chciałbym żeby przy 50... Msi Afterburner użyć do tego i jest najlepszy ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

×
×
  • Dodaj nową pozycję...