Skocz do zawartości

Rekomendowane odpowiedzi

31 minut temu, Stjepan666 napisał:

A takie VR z bodźcami, jak bym chciał poczuć w grze prawdziwy ból, smród itd, to co potrzeba, (...)

Już możesz poczuć ból (a w pewnych okolicznościach, w zależności od tego, jaki masz próg bólu) może nawet i smród, po... wizycie na www z cenami 4090 w PL. ;)

 

 

28 minut temu, AvengerGT napisał:

Ból, smród, jasne, jasne :E Pamiętam, że w którymś cd-action z okolic 2000 roku czytałem o urządzonku które ma wydzielać odpowiednie zapachy w zależności od sytuacji/lokacji w grze. Do dzisiaj nie powstało takie które trafiło do seryjnej produkcji, a prototypy na pewno jakieś były. 

Dokładnie tak. To miało być coś ala drukarka podpinana pod kompa - z nabojami zapachowymi. Tylko sterowniki do tego i poszli. Ale zdechło.
Może i dobrze. Nie wiem, czy dałbym radę długo w takim np. RDR2. Koniem po chałupie wali, baba się drze. Słabe. ;)

Edytowane przez *** ChOpLaCz ***
  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
25 minut temu, AvengerGT napisał:

...czytałem o urządzonku które ma wydzielać odpowiednie zapachy w zależności od sytuacji/lokacji w grze...

Jak horror, albo postapo, to nawet nie potrzeba tego ustrojstwa, bo mieszkając na polskim osiedlu domków jednorodzinnych, wystarczy w zimę otworzyć okno :/

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Był Smell Blaster wcześniej w Secret Service na prima aprilis chyba. 

A sam pomysł kiedyś wróci. Tylko trzeba poczekać, aż się połączenia brain-computer zrobią. W końcu odczuwanie zapachu to ostatecznie tylko kwestia impulsów w mózgu. Te można zrobić sztucznie. Bez trucia pokoju, bez marudzenia baby na smród zgniłych zwłok jak zwiedzasz lochy w Oblivionie. ;)

Na szczęście my tego nie doczekamy. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To nowe złącze to jest jakiś dramat...

6087174e7e438a32457e32d652a38d8e.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@lukadd jest jeszcze Thermaltake Gold Plus Toughpower GF3. Natywne 16pin na pokładzie. Nawet nie musiałbyś chyba dokładać :D Powinien być dostępny na dniach bo jest anonsowany jako dostępny od października. Jest jeszcze wersja z podwójnym złączem 12VHPWR - to już pewnie pod 5090 lol. 

https://www.notebooksbilliger.de/thermaltake+toughpower+gf3+1200w+pc+netzteil+779002?nbbct=4004_idealo

  • Like 1
  • Thanks 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, Karister napisał:

Fajne te nowe kable... Kiedy premiera kart AMD?

 

3 listopada premiera 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość

Dlatego trzeba bedzie kupic zasilacz nowy ATX 3.0, bo te przejsciowki to pic na wode. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, ŁowcaPisowców napisał:

Dlatego trzeba bedzie kupic zasilacz nowy ATX 3.0, bo te przejsciowki to pic na wode.

Wczoraj też z bardzo dużym oporem przyjmowałem to do wiadomości, ale to dotyczy standardu nowego złącza, nie przejściówek. To gówno po prostu się topi. Oby AMD tego nie użyło i żeby zdechło do następnej generacji GPU.

Edytowane przez Karister

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, Ronson napisał:

Nie widziałeś dziwnego zachowania w kartach serii 3000 po OC?
O.. a taki fachowiec, co tu nie ma co zaglądać, bo ten wątek jest niegodny goszczenia takiego mędrca.
I nie wiedział..
ac14531f17d3a3e0ee1fe498b2c27318.png

Co do pamięci to zerknij tutaj, dlaczego w nowych kartach nie jest już jak dawniej, że kręcisz kręcisz aż masz spadki.
https://itigic.com/gddr6x-memory-why-it-achieves-more-speed-and-overclock/
Dodaj do tego fakt, że na niektórych kartach pamięci już są blisko swoich możliwości pracy w danych warunkach i masz to co w uproszczeniu napisałem wyżej. 

Co do L2, to nie jest ono dokładnie tak samo zaprojektowane jak u AMD. 

AMD: 
RDNA_2_2.png

4090:
NVIDIA-Ada-Lovelace-GPU-GeForce-RTX-4090

Nawet nazwa typu cache jest inna. L2 u Nvidii vs. L3 u AMD. 
No ale pan mędrzec wie lepiej i do tego jest wróżbitą, bo nikt jeszcze nie wie jaka będzie wydajność w rasteryzacji ale mędrcy już wiedzą.

Po raz kolejny powtórzę: skończcie zaśmiecać wątek komentarzami na temat osób i opinii, bo guzik ludzi obchodzi wasze ego i wasze próby dowodzenia swojego geniuszu. Masz argument to odpisuj argumentem, a nie walisz śmieć-posta bez sensu. 
 

Nie ma nic dziwnego w zachowaniu 6X jak przekręcisz to zaczyna walić błędami wchodzi korekcja błędów i wydajność leci w dół.

Po co porównujesz L3 z AMD do L2 NV? Już Ci od razu mogę napisać, że L2 NV jest wielokrotnie szybsze od L3 z AMD ;) 

Ilość ROP AD102 vs GA102 wzrosła 1.7x to jest klucz wzrostu wydajności w rasteryzacji. Do tego nie ma white paper, a więc nie ma informacji o poprawie kompresji koloru, która dotyczy ROP ;) Do dużego L2 może być wplątana nowa lub poprawiona kompresja danych, która obecnie może działa znacznie lepiej. Tak duże powiększenie L2 wpływu niezwykle pozytywnie na poprawę podsystemu pamięci.

Także polecam poczekać na white paper widać głowy pękają skąd ta niska przepustowość na papierze ;)

  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość
8 minut temu, Karister napisał:

Wczoraj też z bardzo dużym oporem przyjmowałem to do wiadomości, ale to dotyczy standardu nowego złącza, nie przejściówek. To gówno po prostu się topi. Oby AMD tego nie użyło i żeby zdechło do następnej generacji GPU.

Topi sie bo to jest tak zaprojektowane ze przejsciowka poprostu tutaj nic nie daje. To jest pomyslane z mysla o tym, ze masz jeden specjalistyczny kabel z karty do zasilacza i dzieki temu ze plynie nim tez sygnal, to zasilacz moze sie komunikowac i na biezaca regulowac przeplyw tego pradu. Przeciez takim sposobem nawet temperature mozna regulowac, wystarczy ze jest jakis czujnik i zasilacz wysle sygnal "HOLA NIE WYRABIAM, COS SIE CHYBA TOPI", po czym GPU robi throttling energetyczny i git. Tymczasem taka zwykla przejsciowka ze starego zasilacza nie robi w tym temacie nic, tylko spaja kilka pinow w jeden zeby zwiekszyc moc, nie ma w niej w ogole pinów sygnałowych.

Ale tak, masz racje, to jest generalnie tez słabe i nie zdziwil bym sie jakby w nastepnej generacji juz byl jakis inny rodzaj kabelka, jakies 2.0 tego co teraz pokazali.

Edytowane przez Gość

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przewiń sobie ten wątek o jakieś 24h albo wygoogluj "12VHPWR specification". Wytrzymałość wtyczki to 30 podłączeń. Powpinasz kilka razy, wygniesz kable i się rozpuszcza. Przejściówka to kompletny szajs, a nowe złącze to zwykły szajs.

Edytowane przez Karister
  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość
8 minut temu, Karister napisał:

Przewiń sobie ten wątek o jakieś 24h albo wygoogluj "12VHPWR specification". Wytrzymałość wtyczki to 30 podłączeń. Powpinasz kilka razy, wygniesz kable i się rozpuszcza. Przejściówka to kompletny szajs, a nowe złącze to zwykły szajs.

Ja wiem, ale sama wtyczka to jest MINIMALNY problem w porownaniu do tego jak niebezpieczne sa te przejsciowki. Popatrz na to:

W skrócie, korzystajac z przejsciowki nie ma czegos takiego jak rownomierne rozlozenie pradu miedzy kabelki, rownie dobrze moze byc ciagniete 500w z jednego kabelka i 100w z reszty. To jest tez przyczyna czemu Corsair poleca tak mocne zasilacze do tych przejsciowek, bo musza sie liczyc z tym, ze nie wiedza ile z jednego socketu w zasilaczu zostanie pociagniete pradu. Kabel o odpowiedniej grubosci wytrzyma, bo te 150w na jeden kabel to jest fotomontaz, nie ma fizycznie limity. Ale zasilacz juz moze nie wytrzymac, dlatego polecaja zasilacze 2x silniejsze.

ttt.jpg.a64f0570a0a421c6d595fd06d43de69b.jpg

Edytowane przez Gość

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przecież to problem 3090ti nie przejściówki. Tak samo źle rozłożone było obciążenie jak wepniesz 16pin do 3090ti ?

W skrócie nic nie zmienili tylko wsadzili nowe gniazdo ?

 

Edytowane przez sideband

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość

Szczerze nie rozumiem co napisales. W 3090ti jest ten sam problem co bedzie w calej serii 4000.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Do tego te problemy występują przy 3090Ti, która ciągnie, jakby nie patrzeć, zdecydowanie mniej od 4090, nie wspominając o 4090Ti. Czyli zaprojektowali standard dla 600W, który się topi przy 400W, ale dodali cztery piny sterujące, które zadbają o to, aby standard nie pracował w warunkach, pod które był projektowany. :D To ma sens.

Edytowane przez Karister

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość
1 minutę temu, Karister napisał:

Do tego te problemy występują przy 3090Ti, która ciągnie, jakby nie patrzeć, zdecydowanie mniej od 4090

Dlatego dopiero teraz sie zaczna jaja. 450W to jest jeszcze nic w porownaniu do 600W i wiecej.

A co do wtyczki, to skonsolidowali wlasciwie 4 wtyczki do jednej. W takiej sytuacji powinni byli popracowac nad tym, zeby ta nowa wtyczka byla 4x bardziej wytrzymala. Ale tego nie zrobili, jest ten sam szajs co zawsze, tylko teraz wielokrotnie bardziej podatny na uszkodzenia. Ich rozwiazaniem jest stworzenie limitu podlaczania, a juz najlepiej to pewnie raz podlaczyc i zapomniec :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, ŁowcaPisowców napisał:

Szczerze nie rozumiem co napisales. W 3090ti jest ten sam problem co bedzie w calej serii 4000.

Karta musi być odpowiednia zaprojektowana łącznie z biosem byś miał równomierny przepływ prądy na całym złączu.

3090ti niczego nie zmienili zachowuje się jak większość karta opartych GA102 z 3x8pin czyli z największym obciążeniem na pierwszym gnieździe. Wsadzili tylko nowego gniazdo, ale nie przeprojektowali karty od strony równomiernego przepływu prądu.

Na razie nie było żadnych testów 4090 odnośnie rozłożenia obciążenia jeżeli tego nie poprawili to są turbo debilami niech się przygotują na masowe problemy. U góry co widziałem wtyk to ewidentnie na jednym kontakcie był problem ze stykiem i stąd powstał problem.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość
7 minut temu, sideband napisał:

3090ti niczego nie zmienili zachowuje się jak większość karta opartych GA102 z 3x8pin czyli z największym obciążeniem na pierwszym gnieździe. Wsadzili tylko nowego gniazdo, ale nie przeprojektowali karty od strony równomiernego przepływu prądu.

Ale w jaki sposob ty chcesz w przejsciowce sterowac obciazeniem. W 3090ti masz jeden socket z pinami sygnałowymi (nie wiem czy dzialaja bo nie mam ani 3090ti, ani zasilacza zasilacza ATX 3.0). Przeciez ta karta nie wie nawet czy masz przejsciowke podlaczona czy nie, z jej punktu widzenia to masz tylko jeden kabelek do PSU poprowadzony. Chyba ze byly jakies inne modele 3090ti z innym socketem to nie wiem.

Tutaj fota 3090ti Suprim, jeden socket i piny sygnalowe dokladnie wedlug standardu ATX 3.0

pxl-20220329-185754660-portrait-16494676

Edytowane przez Gość

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ty nie rozumiesz podstawowego prawa elektrotechniki to nie ma sensu ciągnąć dyskusji.

Przejściówka w żaden sposób nie wpływa na rozpływ prądu w tym nowym złączu. To karta decyduje jak się rozpływa prąd, nie typ gniazda czy zasilacz ;)

  • Upvote 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To trzymamy kciuki, że 4090 będzie równo ciągnąć. XD A jak, nie to PSU powie, że mu gorąco i GPU zbije wydajność o generację niżej. XD Przeczuwam Déjà vu z 2020. Będę czekał na testy wydajności, kompatybilności i awaryjności. W tym czasie wszystko wykupią i zostaną mi te za 200% MSRP.

Edytowane przez Karister

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość
12 minut temu, sideband napisał:

Ty nie rozumiesz podstawowego prawa elektrotechniki to nie ma sensu ciągnąć dyskusji.

Mowisz jakby kazdy byl po technikum elektrotechnicznym. No nie kazdy jest. To w jaki sposob karta jest w stanie rozpoznac cz przyjsciowka ma 2 kabelki czy 5 kabelkow? Tak ma w biosie wpisane ze wiekszosc pradu pobiera z jakiegos pierwszego lepszego power pinu w tym nowym sockecie?

Edit: Swoja droga to ten 3090ti suprim wyglada przekozacko, 4090 pewnie bedzie jeszcze ladniejsza

fegeg.jpg.a3d5ba6a5ac1dc49713d9ac8e5974cd7.jpg

Edytowane przez Gość

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie obraź się nie chce mi takich rzeczy tłumaczyć jeszcze o tej porze.

By doprowadzić do znacznie równiejszego rozpływu trzeba odpowiednio pogrupować zasilania faz do zasilania Core i Uncore, pamięci można olać niewielki wpływ na całkowity pobór mocy karty. Do tego odpowiedni zaprojektowany układy do pomiary mocy(sposób techniczny jak teraz na rezystorach pomiarowych) i prawidłowe limity wprowadzone w biosie dla każdej "grupy".

PS.

SER must be enabled specifically by the developer. These changes are usually quite modest, sometimes just a few lines of code. We expect this feature to be easily adopted.

Także przyszłe gry z SER dostaną kopa w RT ;) Zobaczymy ile realnie nowa generacja odjedzie po włączeniu SER.

Edytowane przez sideband

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • To jest 120mm wentylator Dla pewności zmierz jeden bok i napisz. Jeżeli jest to jak pisałem 120mm to masz wybór, tylko napisz jakie jest napięcie na obecnym wentylatorze, gdy zasilacz jest w idle - wystarczy go uruchomić na stole z zwartymi zielonym i obojętnie jakimś czarnym. Ta zworka uruchomi zasilanie.
    • kupujesz najtańszy Arctic Cooling F12 bez PWM, rozcinasz wtyczkę, lutujesz i gotowe.
    • No i już widać że kompletnie nie zrozumiałeś co napisałem. Napisałem, że te wykresy zostały później skorygowane. Oba które przytoczyłeś są i były niekompletne i niedokładne już w dniu ich publikacji. Pierwszy wykres w zasadzie jest drugim wykresem ale ze zmienionym liczeniem dokładności i wywaloną częścią danych, które ktoś uznał za mało szczegółowe (bo w zasadzie nie pasowały do wyliczeń by osiągnąć 95% dokładność w ujęciu statystyczno-metrologicznym modelu, nie myl tego z dokładnością danych bo to nie to samo).   Jak chcesz patrzeć w szerszej perspektywie to zainteresuj się czym było MWP (średniowieczny okres cieplny) i co było jego przyczyną. Trwał od około 1000 do 1300 roku. Napisałem, zestaw to sobie z danymi aktywności wulkanicznej (podpowiedź - była znacznie niższa niż wcześniej) oraz z promieniowaniem słonecznym, które było wyższe. Natomiast do małej epoki lodowcowej która zaczęła się około 1600 roku a skończyła około 1900 roku spowodował bardzo duży wzrost aktywności wulkanicznej w konsekwencji zmniejszone promieniowanie słoneczne. Co ciekawe nie zawsze duża aktywność wulkaniczna działa globalnie czego dowodzi wybuch Pektu-San (góra Paektu) w okolicy 946 roku którego erupcja była większa niż inne powodujące zmiany globalne, a jednak wpłynęła tylko lokalnie na Półwyspie Koreańskim.  Co na to wpłynęło? Mógł to być choćby korzystny w tej sytuacji układ prądów powietrza w okresie erupcji. To co piszesz ogólnie świadczy o tym, że nie ogarniasz jak to wszystko jest połączone i jak zmiana kilku elementów może wpłynąć na pozostałe. Stąd właśnie teksty typu:     Gdzie widać jak na dłoni, że nie ogarniasz dlaczego analizuje się tempo zmian głównie w okresie po 1900 roku.  Odpowiedz sobie sam na pytanie jaki przemysł miał człowiek w latach 800-1300 który mógłby globalnie wpłynąć na temperatury, żeby nie mówić o tym, że wtedy było to zjawisko naturalne. Zestaw to sobie teraz właśnie z tempem wzrostu temperatury i zmian w układzie klimatycznym na Ziemi w ostatnich 100 latach. Może znajdziesz odpowiedź, a nie wysiądziesz z racji tego że Cię to przerosło.  
    • Co to za gówniany monitor ten Aorus 😄 3 strony rozprawek o tym jak włączyć tryb, a co powinno być w instrukcji na wierzchu
    • Albo USA postawiło warunek w zamian za zabawki i pieniądze  
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...