Szanowny Użytkowniku,
Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.
Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.
Administrator Serwisu Forum PC LAB informuje, że:
- Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
- Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
- Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
- Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
- Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności
Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.
-
Liczba zawartości
2508 -
Rejestracja
-
Ostatnia wizyta
-
Wygrane w rankingu
2
Odpowiedzi dodane przez zachy
-
-
Godzinę temu, PiPoLiNiO napisał:Ale wiesz, że Asus bez dp 2.1 kosztuje 6800?
A co do MSI, tam oprócz diody, ekran się wyłączał po czyszczeniu pikseli
A wiesz ze w Asusie, w każdym ich produkcie, doplacasz extra za ich logo?
Cos mi swita, ze moj G8 po refreshu tez sam sie nie wlacza... Normalnie dramat... Z tym ze ja pixel refresh robie jak odchodze na dluzej od monitora i tez nie chce zeby sie wzbudzal sam, tylko wlaczam go pilotem sam jak wracam do kompa.
Takie szukanie wad troche na sile, aby sie przy...p...czepic do czegos.
Ludzie kupuja i sa zadowoleni z MSI
Ja tez pewnie bym byl, ale g8 mi w zupelnosci wystarcza, choc czekam na swojego swietego gralla - oled 38" wide. To bedzie spelnienie moich oczekiwan moze w nastepnej, albo za dwie generacje....
-
Lece kupic popcorn w oczekiwaniu na opis co tym razem w Gigabyte jest nie tak
Szukanie świętego gralla to czasochlonne zajecie
a zostawilby MSI i poza ta nieszczesna dioda mial cos co spelnia w 99% jego oczekiwania i ominalby caly cyrk ze zwrotami i smieszkami ze strony innyh forumowiczow w swoim kierunku.
to teraz jeszcze kreuje sie jaki to on dokladny i zaradny, a inni daja sobie wciskac guano...
a sprzedawanie dp 2.1 700 zl drozej niz monitora z dp 1.4 brzmi jak kiepski zart i drenowanie portfeli
tak jak jeden z kolegow zauwazyl - za rok to bedzie w o wiele tanszych konstrukcjach gratis
-
3
-
5
-
-
8 minut temu, fakeman napisał:Jakbyś przeczytał moje zdanie ze zrozumieniem to wiedziałbyś, że nie stwierdziałem żadnego faktu, że NADAL źle działa.
Czlowieku wpadasz,generujesz nikomu nie potrzebna burze, i czekasz na odpowiedzi.
Poczytaj sobie watek albo uzyj opcji search.
Myslenie i czytanie nie boli.
Jeszcze raz napisze - geneujesz problemy, ktorych nie ma juz od dawna.
Temat bootowania zostal ogarniety juz sporo czasu trmu u większości jak nie wszystkich producentow.
-
Godzinę temu, fakeman napisał:Opcja która przez miesiące poprawnie działała tylko na Asrocku i chyba Gigabyte a która i tak nadal nie dawała/nie daje takiej stabilności jak jej brak i długi czas bootowania.
I wcale bym się nie zdziwił gdyby ASUS nadal jej nie miał ogarniętej i były ciągle kwiatki z PC
Jakbys czytal wątek aktywnie wiedziałbyś, ze na Asusach też to dziala dobrze.
Ale lepiej wymyslac jakies wyimaginowane problemy... Bo to przeciez AMD to nie moze dzialac dobrze, nie?
-
1
-
-
Nie twierdzę gdziekolwiek, ze 250W to malo, powiem wiecej dla mnie to zawsze byla taka bariera 250-260W jako cos kosmicznego juz.
No ale taki mamy klimat,ze 450-500w teraz wielu nie przeraza
-
Przycinając 4090 do 250w i tak samo 4080 do 250w na tej pierwszej nadal masz lepsza wydajność sporo
Jak ktos tak chce uzywac 4090 jego kasa i jego sprawa.
No i wydajnosci/wat nikt mu nie odbierze.
-
5 minut temu, kadajo napisał:tak wiem na RTX 4090 grę przejdę szybciej 🤣 @cichy45 już o tym pisał wczoraj
Ja dlatego sprzedalem 4090... Gry przechodzily sie za szybko - ledwo jedna odpalilem a juz mialem napisy koncowe i outro
Na 7900xtx tez jest szybko, ale fabułę zdaze wychwycic 😛
-
1
-
2
-
-
19 minut temu, wamak napisał:Dla jednego energooszczędna będzie RTX4060, a dla innego dopiero integra. Dla kogoś innego energooszczędna będzie RTX4090 z obniżonym limitem mocy.
Dlatego napisalem, ze dla mnie energooszczednosc to taki pulap.
Kiedys to tez wygladalo inaczej i sie ksztaltowalo w granicy 60-75w, ale przy tym jak wygląda teraz rynek kart graficznych ciężko mowic o wydajności jak karta ma taki pobór.
-
@SebastianFM nie chce mi sie szukac, alw często ludzi obrazasz - ten typ ludzi tak ma... I nie widzi co robi czesto.
Nazi? Mam propozycje - idz sie leczyc lepiej.
Najdluzej ciągniesz ten watek to sie do ciebie odniosłem. (Celowo pisze z malej litery, bo mojego szacunku nie zdobywasz).
Ty nawet jak jestes w bledzie to sie do tego nie przyznasz, tylko brniesz w swoje teorie i porownania.
A zeby nie odbiegac od tematu - dla mnie energooszczedna grafika to taka co bierze 100-150W maks
zachowujac przy tym wydajnosc sredniej polki cenowej. Ale to moje podejscie do tematu i nie kazdy musi sie z tym zgodzic.
-
10 minut temu, SebastianFM napisał:Jedyne farmazony to te napisane przez ciebie o mnie, że niby mnie nie nauczyli czegoś w szkole, sugerowanie, że nie znam jednostek.
Umknęło ci? To powinieneś przeprosić, że niesłusznie na mnie naskoczyłeś.
Nie bede za nic przepraszał, bo znowu mnie obrazasz.
Potrafisz wyzywac (nie tylko mnie), pisac blednie o roznych kwestiach i krecic i zmieniac zdanie w dyskusji i generalnie uwazac sie za wszystko wiedzacego, a tak nie jest.
To ze jedno stwierdzenie podales poorawnie nie oznacza,ze nie jestes w bledzie.
Naucz sie zyc w grupie zwanej spoleczenstwem forum i nie zachowuj jak 'nieogar i buc' to moze kiedys w podobnym przypadku Cie przeproszę.
Ale najpierw musisz przeprosić tez wszystkich, krorych wyzywales.
Wymagasz od innych? wymagaj najpierw od siebie.
A gwoli scislosci, nie naskoczylem, tylko zwrocilem uwage.
No ale widac takie masz podejscie,ze naskakujesz na innych i tak samo wszystko odbierasz...
A co do kart graficznych.
Dla mnie, karta ktora pobiera 250-350-450W nigdy nie bedzie energooszczedna.
Dawniej topka miala maks 250W a teraz produkowane sa jeszcze gorsze grzalki
Uzywac? moge uzywac, ale ni choroby nie nazwe tego energooszczednym produktem.
-
1
-
1
-
1
-
-
4 minuty temu, tomcug napisał:Przecież napisał pobór prądu (Wat), a nie sam prąd (Amper).
A faktycznie, przy pisaniu calych farmazonow jedno prawidlowo sformuowane slowo mi umknelo.
Chociaz wykres technicznie powinien byc nazwany jako mowiacy o Mocy, bo do tego sie jednostka odnosi na wykresie
-
2
-
-
22 minuty temu, SebastianFM napisał:Poza tym zrobiłeś błąd, pokazałeś wykres poboru prądu a nie energooszczędności.
Tu mnie zagiales
Prad na wykresie podany z jednostką Wat?
takie podstawy to byly na fizyce w dziale elektrotrchniki w klasie 7 czy 8 podstawowki
Chyba ze pozniej, niz w moich czasach, juz tego nie uczyli
(tzn gimnazja i inne fanaberie).
Mowi Ci cos V, A, W z fizyki?
-
1
-
-
Godzinę temu, tgolik napisał:Ale to był chyba największy przyrost mocy sprzętu, jaki kiedykolwiek osiągnąłem dzięki OC.
Ominęły Cie czasy krecenia Celerona 300A@450mhz i wiecej (to było takie pewne minimum) i np Durona 600@1000mhz, gdzie moj chodzil na 1200mhz.
Piekne czasy oc. Wszystko na powietrznym chlodzeniu
A w temacie energooszczędności i efektywności elektrycznej - jak sie niektorych czyta, to nie wiadomo, czy sie smiac czy plakac. Nie bede nickami sypał, zeby nie burzyc wody w szklance
-
1
-
-
Moj ojciec mial kilka lat temu OLED LG B czy C nie pamietam dokladnie.
Wlaczany nonstop na discovery,viasat,tvn 24
W ciagu 3 lat serwis lg przyjezdzal do domu wymieniac matryce dwukrotnie.
Za drugim razem, jak tylko zaczely pojawiac sie wypalenia - sprzedal tv i kupil Samsunga mini led i jest bardziej niz zadowolony
-
21 godzin temu, Broly napisał:Ktoś was używa ruchomego ramienia?
Ja uzywam ramienia HX firmy Ergotron, mam juz je z 7 lat. Wagowo jest ono do 20kg i przekatnych 25-49"
Mialem na nim kiedys monitor 4k 40" a potem 43" 4k.
Sprawuje się swietnie i jest o wiele lepszym rozwiazaniem niz standardowa podstawka.
-
1
-
-
8 godzin temu, RTX4090 napisał:Będę dobry kolegom - i podpowiem abyś kupił DOBRY monitor nie Szajsunga. LG zaraz wypuszcza nową linię. Kup porządny sprzęt w końcu
Najpierw krucjata jedynej slusznej drogi i 4090
Teraz krucjata monitorow lg
Wychodzi na to ze masz albo jakies kompleksy i 'najlepszy komputer na dzielnicy'...
Albo 15 lat i lubisz takie dziecinne przepychanki
Twoje posty nic ciekawego do tematu nie wnosza i siejesz tylko ferment cieszac sie z czyjegos nieszczescia
@kadajo mozesz zrobic porzadek z tym delikwentem?
Będzie teraz 2-3 tygodnie to przezywal....
-
3
-
2
-
-
4 godziny temu, kadajo napisał:Sumarycznie RTX 3080 osiąga 66% tego co RTX 4080... czyli RTX 4080 jest szybszy o 34%
Za baze musisz przyjac 3080 jako 100% i od tego liczysz o ile 4080 jest szybszy.
-
2
-
-
Patrzac z perspektywy czasu 8 letnie gpu moze da 20-40fps na ustawieniach low w 720-1080p, moze trochę lepiej z dlss czy fsre, jesli wylaczymy RT
Nie wiadomo tez jaka przyszla technologie wymysla producenci kart graficznych zeby wymagania szybszych grafik byly uzasadnione
Moze po prostu bardziej dopakowany PT, albo cos jeszcze mocniejszego w odniesieniu do RT.
8Lat to za dlugi szmat czasu zeby jakakolwiek grafika ten czas przetrwala i byla odpowiednio wydajna.
-
1
-
-
Dla rownowagi powinienes tez podac wykresy jakichs gier bez RT.
Rt nie jest i nie bedzie dodawane jako domyslna opcja jeszcze przez jakis czas.
Nie kazdy ma karty pokoroju rtx 3000 a ich wydajnosc w rt tez bywa dyskusyjna
No chyba ze doliczyć dlss i np fsr to dlss mod dla generatora klatek
Ale co zrobić, ze taka moda sprzedawać rozmydlacz jako najlepsze i sensowne rozwiazanie
Wspomagane jeszcze fake klatkami
-
35 minut temu, SebastianFM napisał:RTX 40x0 to już czwarta generacja gdzie 80 jest wydajniejsza o co najmniej 50% od 80 z poprzedniej generacji. Czy ktoś ma jakieś podstawy do tego, żeby wątpić, że ten trend się utrzyma?
Rzeczywiscie niesamowite osiagniecie.
Chyba nie pamietasz jakie kiedys byly skoki wydajnosci przy braku srubowania cen i obnizania/cięć specyfikacji polek nizszych niz premium/topka.
Z takim zacieciem to pewnie z checia dopłacisz kolejne 200usd do ceny.
No bo jest wydajniej przeciez i nv sie należy:s
I dostaniesz ramu akurat na teraz na styk, zebys przypadkiem nie zapomnial kupic za 2lata nowej generacji kart
-
Teraz, tomcug napisał:Nie chodzi o testowanie, tylko o analizę wyników
Ok to robi roznice.
Ale to sa ich testy wedlug ich metod testowania.
Mozna sie z nimi nie zgadzac, mozna je negowac czy ignorowac, albo brac jako jeden z punktow odniesienia (co sam staram sie robic)
-
Godzinę temu, tomcug napisał:W testach HU to nawet średnia wydajność jest źle liczona, bo nie po relacjach procentowych, tylko po "średniej średniego FPS"
Więc o czym Ty tu chcesz dyskutować
Rozumiem, ze jak ktows testuje inaczej wedlug wlasnej metodologi i odbiega to od Twojego swiatopogladu to jest to juz zle.
Ja lubie przegladac wyniki testow z roznych portali, nawet jak od siebie odbiegaja.
I tak jak widze, ze tu ludzie mowia ze PurePC zle testuje gry, tak mi ich testy, z innym spojrzeniem na miejsca testowe podoba sie w jakis sposob.
bo wiem, ze gry testowane sa w ekstremalnych miejscach, a nie miejscach oklepanych przez innych testerow.
HU tez troche inaczej testuje gry i dzieki temu moga miec inne wyniki od pozostalych portali.
Generalnie dobrze jest poznac punkt widzenia roznych testerow bo i gry testowane moga byc rozne.
Ja np przegladlem testy na ithardware.pl bo moglem porownac wydajnosdc w WoT roznych ukladow.
a ostatnio zaniechali oni testowania tej gry i juz ich testy nie sa dla mnie tak interesujace jak byly.
Pomijam fakt, ze na takim HU mamy od testow usrednionych, przez porownanie sredniej w roznych rozdzielczosciach i skali roznic miedzy podobnymi gpu w kazdym tutule
czy tez wyliczenia wydajnosci per dolar.
Nie kazda redakcja takie testy tworzy.
Maja inna, wlasna, metodologie? Ich sprawa i ich podejscie i nie powiem ze to jest zle, czy niewlasciwe.
To sa icha testy sprzetu i maja prawo to robic wedlug wlasnych wytycznych.
Nie ma zlotego srodka w testach i mozliwosci zeby wszystkim wychodzily takie same wyniki ze wzgledu na roznice preferencji testowych recenzentow tez.
5 minut temu, lukadd napisał:Ogólnie większość gier i tak lepiej działa na nvidii. Mocne odchyły dla AMD to są raczej wyjątki. Od premiery RTX 4090 minął ładnie ponad rok i zmieniło się coś znacznie? No nie, nic się nie zmieniło znacznie, dalej średnia przewaga 4090 nad 7900XTX jest na podobnym poziomie mimo, że dochodzą cały czas nowe gry.
Jesli chodzi o 7900 xtx to wydaje mi sie, ze zyskal on wzgledem 4080 patrzac przekrojowo na wydajnosc od czasu premiery.
I nie wiem czemu 7900 xtx porownujesz do 4090, skoro jego konkurencja jest 4080, a teraz 4080 Super.
5 minut temu, lukadd napisał:A nawet w współpracy AMD powstają takie gry jak Avatar gdzie AMD samo siebie się orze przez to, że gra ma na stałe włączone elementy RT
Tak, ale wez pod uwage ze na AMD RT w Avatarze dziala na przyzwoitym pozoimie i zostalo tak dobrane, zeby nie zadlawic wydajnosci RT kart AMD.
I o to im pewnie glownie chodzilo.
Karty AMD w tutylach jedynie z lekkim RT sa w stanie powalczyc z kartami NV i to jest niepodwazalne.
Strzalem w stope byloby wydanie gry sygnowanej logiem AMD z wymuszona obsluga Path Tracingu
i zabijaniem wydajnosci na 7900 / 7800 itd.
-
Srednia nie pomaga w tym, bo np jak bedziesz mial na 12 tytulow 10 na UE4, i celujesz w gry na tym engine to jak najbardziej
ale jak Twoj tytul bedzie na zupelnie innym, autorskim engine to nijak sie to ma do usrednionych wynikow.
Moze byc podobnie, ale nie musi przeciez.
Bo np okaze sie ze gra jest zoptymalizowana dla AMD, a nie NV.i na tych drugich kartach cos nie bangla.
Takze srednia moze, ale nie musi wcale pomagac, a przeklamywac w jakis sposob wynikow.
Dlatego osobiscie srednia dla mnie nie jest jakims wyznacznikiem.
Juz wolal bym sie opierac na FPS/$ czy czymkolwiek przy wyborze karty
Choc to tez moze byc krzywdzace, ale dla kogos dla kogo finanse maja pierwszorzedne znaczenie moze byc wlasnie OK.
Inna sprawa, ze wyniki odbiegajace od wiekszosci potrafia zmienic diametralnie wydajnosc usredniona.
Niech bedzie ze karta x ma w 3 na 10 tytulow wydajnosc o 30% wyzsza od konkurencji
w reszcie wyniki sa podobne. Bedzie to troche przejaskrawione wzgledem ogolnej wydajnosci tych ukladow.
No ale nadal jest to jakas srednia...
I tak jak mowie - ja opieram sie na wynikach szczatkowych, ktore akurat mnie interesuja.
Bo jestem swiadomy czego szukam i czego oczekuje.
Inna sprawa, ze teraz duzo gier wyjdzie na UE5 i dopiero najblizsze miesiace pokaza jakie konfigi sa dla gier na tym engine optymalne.
I to bedzie jakims wyznacznikiem dla masy nowych tytulow na lata.
-
Tylko i wyolacznie patrzac na srednia - tak by wynikalo.
I zakladam ze to byl komentarz do tego aspektu testow?
Bo juz w podsumowaniu pisze troche inaczej.
A co do czerwonych okularow.
Czlowieku tyle kart ile ja mialem w zyciu i podzespolow od roznych producentow, to zakladam ze Ty do tej pory nie miales.
Nie jestem zwolennikiem jednej czy drugeij marki, tylko tego co akurat bardziej odpowiada moim preferencjom.
Takze z tymi czerwonymi okularami trafiles jak kula w plot.
Dlaczego nie odniosles sie do 'wygranej NV' w W3 i CP2077?
Bo te spostrzezenia byly Ci wygodne, nie miales do nich zadnych zastrzezen i pasowaly w Twoj swiatopoglad (cichego zwolennika kart NV
)?
Teraz wez ten sam wykres, ktory pokazales, i zamiast 100% przy 2060 umiesc 100% przy 570 nitro, albo 1060.
Roznica bedzie wieksza, a czasami te pare % decyduje juz o grywalnosci lub niegrywalnosci tytulu na danym sprzecie.
1 minutę temu, kadajo napisał:HU pokazuje też średnią.
Wiem, ze pokazuja srednia, ale ja do wynkow 'srednich' podchodze jak do jeza
NO ale ja to ja, wiem w co gram, albo mam zamiar ogrywac i pod tym katem planuje zakupy.
Tylko nie jestem w stanie przewidziec przyszlosci i tego jak dana karta wypadnie w produktach, ktore wyjda w 2024 czy 2025

Monitory OLED - temat zbiorczy
w Monitory i projektory
Napisano · Edytowane przez zachy
To teraz powiedz co Ci w nim nie pasuje
dp 2.1 z za mala przepustowoscia?
Moze jakies plastikowe wykonanie?