Skocz do zawartości
VSS

Intel 10th cala seria

Rekomendowane odpowiedzi

Kiedy premiera 10gen?

 

Plotki głoszą, że kwiecień.

 

 

 

Kwestia jak intel wyceni swoje przestarzałe procesory, a producenci płyty główne.

Jeżeli cenowo i wydajnościowo będzie podobnie jak u AMD, to może kupię jeszcze raz 14nm CPU od Intela.

 

Chciałbym na Asusa wrócić, ale oni na pewno z cenami Z490 odpłyną. :lol2:

Edytowane przez Doamdor

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

mysle ze bedzie bardzo ostra rywalizacja miedzy ryzenem 3600 a i5 10400 a calkiem mozliwe ze taki 10400 6/12 bedzie za 600 zl tak jak 9400F

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Biedny ryzen, znowu cena -30% :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

mysle ze bedzie bardzo ostra rywalizacja miedzy ryzenem 3600 a i5 10400 a calkiem mozliwe ze taki 10400 6/12 bedzie za 600 zl tak jak 9400F

Pamietasz ile kosztowal Intel 8400 na premiere?? i jaka byla dostepnosc tych procesorw?? 9400F po jakim czasie jest w obecnej cenie?? oraz nie posiada igpu. Juz widze te twoje 600zl i super dostepnosc ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ee tam zablokowane będą pewnie w cenie 800-1000 , a k około 1100zl , oby ceny dobrych płyt głównych nie były tylko zabójcze , bo do ogromnego fps może się nadać taka i5 z k na końcu. Tylko kwestia opłacalności jeszcze zostaje , mam nadzieję, że jakaś ciekawa płytę da radę dorwać do 600zl .

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czy wiadomo już coś o wersjach CPU z dopiskiem "F"? W przeciekach nie widziałem na liście procesorów bez iGPU. Czy to oznacza, że takich nie będzie? Co z cenami? Obawiam się, że CPU z iGPU będą drogie :(

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czy wiadomo już coś o wersjach CPU z dopiskiem "F"? W przeciekach nie widziałem na liście procesorów bez iGPU. Czy to oznacza, że takich nie będzie? Co z cenami? Obawiam się, że CPU z iGPU będą drogie :(

 

Będą pewnie później jak nazbierają układów z wadliwym gpu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tylko co na to wszystko AMD...jesli dadza do ryznena 4000 2 rdzenie wiecej to znow intel moze miec klopoty w tym segmencie ok 1 tys zl wsrod procesorow do grania dla Kowalskiego

 

Intel faktycznie ma dość twardy orzech do zgryzienia, jeżeli nadal w najbardziej dochodowych segmentach rynku, chce utrzymać pozycje monopolisty, to musi dobrze przemyśleć strategie na najbliższe lata, łacznie z kwestią swoich fabów Intel Upgraded by Jefferies Amid Changes in its Management Team and the Prospects of a Restructuring That Includes the Possibility of Going ‘Fabless’, a jeszcze kilka lat temu Intel exec says fabless model “collapsing” :

 

"It’s the beginning of the end for the fabless model according to Mark Bohr, the man I think of as Mr. Process Technology at Intel.

 

Bohr claims TSMC’s recent announcement it will serve just one flavor of 20 nm process technology is an admission of failure. The Taiwan fab giant apparently cannot make at its next major node the kind of 3-D transistors needed mitigate leakage current, Bohr said."

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Od 2017, nowe CPU mają coraz więcej rdzeni, a gry i inne programy rzadko kiedy potrafią wykorzystać więcej niż 4.

 

Jak widać po 9900KS i 10900K, podnoszenie na siłę częstotliwości taktowania strasznie zwiększa pobór energii i utrudnia chłodzenie, a ilość klatek/s rośnie nieznacznie. Potrzebne jest oprogramowanie zdolne skalować się liniowo do przynajmniej 16 rdzeni. Tak, by te najnowsze proce jak R9 3950X były przydatne. Myślę np. o Photoshopie.

 

Przyszłość to wielordzeniowość ... ale póki co software nie daje sobie z tym rady.

 

Najlepiej byłoby podnosić IPC, herce jak i ilość rdzeni ale przed przejściem na inne materiały typu grafen czy dwusiarczek molibdenu, częstotliwość nie wzrośnie znacznie, szczególnie przy stałym TDP.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chodzi o to zeby soft gonil za hardware a wielokrotnie w przypadku np gier zdarza sie ze nie ma sprzetu ktory jest wstanie sobie poradzic z danym tytulem lub jest to sprzet bardzo drogi i wybiegajacy technologicznie mocno naprzod

 

W momencie premiery AC Origins czy wczesniej Watch Dogs 2 tylko podkrecone i7 (wtedy topowe procki taki high end w komputerach zwyklych ludzi) byl wstanie sobie poradzic z tymi grami w60 fps w fhd i to na styk

 

Podkrecony i5 7600K np klekal i plakal zaliczajac w lokacjach procesorowych wyniki ok 45 fps

 

W przypadku tych gier nie chodzi o zle korzystanie ze sprzetu przez soft tylko o kosmiczne wymagania tego softu wobec sprzetu ktory nie byl wstanie tego ogarnac

Edytowane przez Eltik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Od 2017, nowe CPU mają coraz więcej rdzeni, a gry i inne programy rzadko kiedy potrafią wykorzystać więcej niż 4.

 

Jak widać po 9900KS i 10900K, podnoszenie na siłę częstotliwości taktowania strasznie zwiększa pobór energii i utrudnia chłodzenie, a ilość klatek/s rośnie nieznacznie. Potrzebne jest oprogramowanie zdolne skalować się liniowo do przynajmniej 16 rdzeni. Tak, by te najnowsze proce jak R9 3950X były przydatne. Myślę np. o Photoshopie.

 

Przyszłość to wielordzeniowość ... ale póki co software nie daje sobie z tym rady.

 

Najlepiej byłoby podnosić IPC, herce jak i ilość rdzeni ale przed przejściem na inne materiały typu grafen czy dwusiarczek molibdenu, częstotliwość nie wzrośnie znacznie, szczególnie przy stałym TDP.

Z tym wykorzystaniem rdzeni zatrzymales sie chyba 10lat temu :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chyba 10500. 9400f i tak wciągnie nosem choćby z racji HT, natomiast co do R5 3600 raczej nie sponiewiera. Ale wisienką na torcie będzie taki i3 10350k 4/8, który zapewne złoi cztery litery kebabowi 7700k :E Teraz powinna wyjść aktualizacja CPU Z, gdzie wszystkie nazwy starych i7 4/8 byłyby wyświetlane jako i3.

i3 4790k

i3 6700k

i3 7700k :lol2:

Bez sensu takie porównywanie.

Jak ktoś kupił i7-6700K na premierę, czy nawet i7-4790K z szybką pamięcią (2400MHz) to dostał 5-6 lat komfortowego grania.

A że procesory się starzeją i wychodzą coraz lepsze- to całkiem normalne.

Obecne topy też wieczne nie będą.

 

Z tym wykorzystaniem rdzeni zatrzymales sie chyba 10lat temu :E

W grach?

To wymień tytuły w których i9-9900K 5GHz jest przynajmniej 50% szybszy od i7-7700K 5GHz (przewaga rdzeni/wątków +100%)?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Crysis 3 w trawkowym levelu skaluje się idealnie dlatego różnica między 4/8 vs 6/12 już masz 50% wink.gif

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bez sensu takie porównywanie.

Jak ktoś kupił i7-6700K na premierę, czy nawet i7-4790K z szybką pamięcią (2400MHz) to dostał 5-6 lat komfortowego grania.

A że procesory się starzeją i wychodzą coraz lepsze- to całkiem normalne.

Obecne topy też wieczne nie będą.

 

 

W grach?

To wymień tytuły w których i9-9900K 5GHz jest przynajmniej 50% szybszy od i7-7700K 5GHz (przewaga rdzeni/wątków +100%)?

Przeciez wszystko zalezy jakie gpu sparujemy i ile chcemy uzyskac fps. Podlacz sobie 7700k do 2080ti oraz do 9900k bo piszesz brednie. Nie wspominjaac juz o frametime, stuterze itp. Gry procesorowe korzystaja bardzo dobrze juz z 6/12 bo w takim bfie przy wysokim fps pocek potrafi leciec na 80-90% uzycia. Jak wygladaja dzis 4 rdzeniowe procesory z obecnymi gpu to wie wiekszosc a Ty piszesz ze gry sie zatrzymaly na 4rdzeniach :lol2: No i nie zapominajmy o fanach 144Hz.

Edytowane przez Phoenixsuple

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Między Wami jestem "biedny" wiedzą i zasobami złota XD, ale...

Zawsze kupuję coś ze średniej półki, jeżeli chodzi o mobo.

775 - DFI P45 + średni Q9450

1150 - Asrock Z77 + biurowy I3 3220 z myślą o I7 3770K - nie wyszło, brak finansów i moje uszkodzenia kart graficznych :P

1151v2 - Asus Z370 A-prime + I7 8700 non K - z myślą o np. I9 który wchodzi bez zająknięcia, ale nie będzie go, bo po co, skoro 8700 non K jest całkiem żwawy - lepszy od AMD 3600 po OC.

 

Myślę, że zawsze warto zainwestować w mobo z dobrym chipem oraz mocną sekcją zasilania i mieć możliwość rozwoju - przynajmniej RAM, gdy CPU jest słaby, jak w moim obecnym konfigu.

 

Dobre mobo + dobry RAM = całkiem dobry konfig.

Edytowane przez leven

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W teście strony Overclock 3D (OC3D), gra Assassin's Creed: Odyssey w Ultra 720p, używając Ryzena 1700X 4GHz, działa z 4R4W 46.8 kl/s, z 4R8W 60 kl/s, z 6R12W 65.3 kl/s, a z 8R16W 66.1 kl/s. Przy liniowym skalowaniu, 6R12W powinno działać w 90 kl/s, a 8R16W w 120 kl/s.

 

Pytanie: po co wyłącznie dla gier wydanych do 2020 kupować cokolwiek powyżej 4 rdzeni 8 wątków, jeśli się nie nagrywa i nie streamuje? 6 rdzeni wnosi tylko 8.74% więcej fps, a 8 rdzeni praktycznie nic nie wnosi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W teście strony Overclock 3D (OC3D), gra Assassin's Creed: Odyssey w Ultra 720p, używając Ryzena 1700X 4GHz, działa z 4R4W 46.8 kl/s, z 4R8W 60 kl/s, z 6R12W 65.3 kl/s, a z 8R16W 66.1 kl/s. Przy liniowym skalowaniu, 6R12W powinno działać w 90 kl/s, a 8R16W w 120 kl/s.

 

Pytanie: po co wyłącznie dla gier wydanych do 2020 kupować cokolwiek powyżej 4 rdzeni 8 wątków, jeśli się nie nagrywa i nie streamuje? 6 rdzeni wnosi tylko 8.74% więcej fps, a 8 rdzeni praktycznie nic nie wnosi.

Ty tak serio masz klapki na oczach?? Procesor sie dobiera pod opdowiednie gpu oraz ilosc klatek w jaka celujemy a ty wrzucasz jakies testy w 720p, ktore nikogo nie obchodza bo rzeczywistosc jest troszke inna i nikt nie gra w takiej rozdzielczosci. Nie idz w zaparte jak osiol gdy nie rozumiesz tematu. Jak widac liniowe skalowanie nie dziala ale pisanie na co nam procesory wiecej jak 4/8 dzis to naprawde absurd :E Po to sie kupuje mocniejsze procesory zeby nie miec botelnecka wydajnymi gpu, do gtx 1060 to 4/8 wystarczy :cool:

Edytowane przez Phoenixsuple

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Te testy zostały wykonane z użyciem 1080 FE. 720p wybiera się aby nie było szansy na bottleneck ze strony karty graf.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W teście strony Overclock 3D (OC3D), gra Assassin's Creed: Odyssey w Ultra 720p, używając Ryzena 1700X 4GHz, działa z 4R4W 46.8 kl/s, z 4R8W 60 kl/s, z 6R12W 65.3 kl/s, a z 8R16W 66.1 kl/s. Przy liniowym skalowaniu, 6R12W powinno działać w 90 kl/s, a 8R16W w 120 kl/s.

 

Pytanie: po co wyłącznie dla gier wydanych do 2020 kupować cokolwiek powyżej 4 rdzeni 8 wątków, jeśli się nie nagrywa i nie streamuje? 6 rdzeni wnosi tylko 8.74% więcej fps, a 8 rdzeni praktycznie nic nie wnosi.

nie siej zamętu!!!

 

każdy rdzeń to 100% a każde SMT to około 60-70% każdego rdzenia, zależnie od instrukcji ale mniej więcej w WD2 tak to się skalowało po przesiadce z 7700k@5G na 8700K@5g, czyli tam gdzie sprzęgnięte będzie 2080Ti z 6core lub 4/8 to będzie maltretowanie cepa, dzisiaj jeszcze podtrzymuje ze wysoko wykręcony 8700k to naprawdę solidny zawodnik do wyciągania FPS,

 

do stremowania i jednoczesnego grania to nie wiem ale 6/12 będzie kodować kasze a i gry tez ucierpią,

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pytanie: po co wyłącznie dla gier wydanych do 2020 kupować cokolwiek powyżej 4 rdzeni 8 wątków, jeśli się nie nagrywa i nie streamuje? 6 rdzeni wnosi tylko 8.74% więcej fps, a 8 rdzeni praktycznie nic nie wnosi.

4/8 to nie jest optymalny wybór tylko min do grania wink.gif

 

Chyba, że wyłączysz z listy gry, które mają wysokie wymagania od strony CPU wink.gif

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jest jakaś gra, która nie wyciąga średnio przynajmniej 60 kl/s używając podkręconego na 5 GHz 7700K?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

8 wątków ciągle dzielnie się trzyma. Raczej nie ma takich gier, w które nie dałoby się zagrać na tym CPU. Ale nie średni FPS jest problemem braku wątków, a dropy, ścinki i minimalny FPS, którego nawet Gsync nie da rady przypudrować.

 

Więc jeżeli chcesz szukać gier gdzie 7700K nie daje rady, to szukaj tytuły gdzie się coś przycina. Ale okres kryzysowy takich procesorów to raczej w tym roku albo następnym dopiero nastąpi. Na dzień dzisiejszy 4c/8w jest po prostu znacznie wolniejsze od 8c/8w przykładowo.

 

Co ciekawe koniec 7700K może zbiec się w czasie z końcem 9700K. Chyba każdy jest ciekawe co z tego wyjdzie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale nie średni FPS jest problemem braku wątków, a dropy, ścinki i minimalny FPS, którego nawet Gsync nie da rady przypudrować.

Te dropy i ścinki to nie jest przypadkiem to słynne "1% LOW"?

Edytowane przez blubaju

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie zawsze. Na pewno jako ścinkę odczujesz chwilowy frametime 2x dłuższy od przeciętnego przy włączonej synchronizacji VRR. Czyli efekt jakby 30FPS zamiast średnich 60FPS. Raz na kilka minut można zaakceptować. Ale notoryczne przycinki co kilka-kilkanaście sekund zepsują całą grę mimo średniego FPSa 60+

 

Co ważniejsze średni chwilowy FPS z wyświetlacza zawsze jest średnim FPSem. Czyli przycinka jednej klatki do 30FPS po uśrednieniu z czterema kolejnymi klatkami (~60FPS) da Ci wynik na wyświetlaczu 54FPS. Ale to nie będzie to samo co 5 kolejnych klatek z równym frametime.

 

Albo inaczej, 4 klatki normalne (70FPS) i jedna "zdublowana" (35FPS) da średnio z licznika 63FPSy. Średnio jest super, ale ogólne wrażenie jest beznadziejne. Nawet jeśli 35 nie pojawi się na 1% LOW.

 

*RTSS uśrednia FPS z 5 kolejnych klatek jak się nie mylę.

 

 

I tak mniej więcej co jakiś czas pojawia się temat: "Mam spadki do 100FPS ze 144FPS i czuję szarpanie jakby było 30FPS. Gsync NIE DZIAŁA! Ratujcie!"

Średnio powinno być OK, a w praktyce może się okazać, że było 3*144FPSy i 2*30FPS ( bo zabrakło wątków ) co daje nam około 100FPS śrenio z 5 kolejnych klatek. Ponownie średnio jest super, ale dropy są tak pokaźne, że gsync tego nie naprawi nawet jeżeli zmieścimy się w zakresie jego pracy. Jak się nie mylę to 1% LOW wyjdzie nam 100FPS. Nawet programowy 0,1% LOW pewnie też wpadnie jako 100FPS w takiej sytuacji. Nie sądzę aby wyłapało prawdziwe 30FPS jako ten największy drop.

Edytowane przez Minciu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

  • Tematy

  • Odpowiedzi

    • Profil ICC jest pod konkretna sztuke monitora, a nie dla kazdego
    • Nie było chyba tematu o nim, po filmie Stilgara postanowiłem kupić i potestować, na razie dopiero godzinę popracowałem ale jakieś pierwsze wrażenia mam.  Po przesiadce z LG 27GP850 od razu rzuca się w oczy lepsza czerń, dużo, dużo lepsza... Nawet na domyślnych ustawieniach bez Local Dimming różnica jest spora. Forum pclola mam w ciemnym motywie i różnica jest kolosalna, dużo lepiej to wygląda. Nie miałem wcześniej porównania dobrego i myślałem że kontrast z LG jest ok, ale nie jest. Nawet w ciągu dnia nie domaga.  Odnośnie Local Dimming - w trybie SDR nie widzę większego sensu bawić się tą opcją. Do pracy czy przeglądania neta koniecznie trzeba wyłączyć, bo monitor nie wie że czytamy forum i cały ekran ma być równomiernie podświetlony, w efekcie tam gdzie jasno mamy jasny tekst/ikony, a gdzie ciemno to ciemne. Irytujące mocno. Za to w grach czy filmach... Jasność spada więc trzeba by podkręcić, a nie ma skrótu szybkiego czy profilu by to zrobić. Może w aplikacji się da coś wykombinować, nie patrzyłem jeszcze. Ale i tak raczej sensu nie ma, w końcu to SDR więc dużej roboty nie zrobi. Za to w trybie HDR... Tu już jest bajka, jednym skrótem włączamy HDR i od razu mamy local dimming ustawiony na Strong (niby Medium lepszy, ale ja na razie różnic większych nie widzę). Wiadomo że nie będzie takiej czerni i kontrastu jak w OLED, ale porównując do poprzedniego monitora który HDR nie miał wcale to jest kosmos. W końcu płomienie czy wybuchy potrafią świecić, a tam gdzie ciemno to jest ciemno. Póki co próbowałem w Callisto Protocol bo różnica między ciemnym/jasnym jest spora i efekt od razu widoczny (ciemny korytarz i płomienie, mega).  Smużenie - jeszcze nie testowałem szybkich gier, w weekend pewnie usiądę dłużej i przelecę wszystkie gry jakie mam obecnie (w Squad smużenie było spore na poprzednim VA).  VRR - działa, według RTINGS monitor ma okropny flickering i nie da się go używać, ale póki co nie zanotowałem ani jednego mignięcia. Może jak FPS jest niestabilny i spada do mocno to by coś mignęło, ale jeszcze takiej sytuacji nie miałem. Tutaj chyba znowu Squad będzie dobrym testem, bo dzięki Unreal Engine dropy i stutter są na porządku dziennym Menu okropne i ciężko się po nim porusza, ale gdzieś musieli przyciąć koszty.... Monitor kosztował mnie 1600 zł, co jest trochę szokiem jak na taki HDR (rok temu za tyle kupiłem LG 850GP). Miniledy w najbliższych latach coś czuję że będą się upowszechniać i ładować coraz więcej stref, fajny wybór jak ktoś nie chce drogiego OLEDa z wadami  
    • 100% ladowanie z PV, to tylko teoria. praktycznie jest to trudne, ale mozliwe jak ktos sie uprze ;) mala instalacja 5kWp, i mozna sie ladowac na te 2-3kW . no, ale to i tak nie wyjdzie 100%  - musimy miec te 2-3kW stalej produkcji na starych zasadach PV,  majac wallboxa 11kW nie zastanawiam sie nad tym - laduje kiedy mam taka potrzebe. przy >8MWh/rok produkcji, 33% to u mnie autokonsumpcja, reszte zuzywam zima. 70kkm, to zuzycie energii 14 000 kWh przy 20kWh/100km. czyli przy 2,5zl/kWh wychodzi 35tys pln. jednym te 70kkm zajmie 10 lat, a innym 2.
    • A czego dowodzi płacz ukraińców że nie mają czym walczyć? A czego dowodzi płacz wysoko postawionych urzędników, że UA może upaść w tym roku? Pewnie nic, to tylko jeden czołg, wszystko OK.😆
  • Aktywni użytkownicy

×
×
  • Dodaj nową pozycję...