-
Liczba zawartości
540 -
Rejestracja
-
Ostatnia wizyta
Odpowiedzi dodane przez Dravic
-
-
Mocy procesor ma wystarczająco niech się producenci oprogramowania wezmą za wsparcie HSA, żaden procesor Intela nie podskoczy do tego co robi Kaveri w aplikacjach wspierających HSA
W Carizzo zostanie rozbudowana część FPU. Tak więc procesor zacznie lepiej sprawować się w tych aplikacjach gdzie obecnie jest znacząco słabszy od procesorów Intela. Dojdą też nowe instrukcje.
Co do FX-a, AMD nic narazie nie ujawnia ale sam procesor powróci. Jak widać rdzenie SR nie dają takiego kopa wydajnościowego by coś zmienić w tej materii. Zresztą AMD musi razem z FX-em dać nowy proces technologiczny, który będzie sprawdzony właśnie w nowym APU Carizzo 5-generacji.
Tymczasem Intel przygotowuje 512-bitowe instrukcje AVX już w 2015 (architektura Skylake w 14nm). Pozdro.
Kibicuję AMD ale to jest przegrana walka z ich obecnym zarządem i polityką.
-
Co ty gadasz ja mam 60+ non stop w BF3 na ultra i to na 64/64 gdzie w jednym miejscu jest czasem kilkanaście osób i armagedon. Co ty tego FX trzymasz@stock a 660ti to referent ?
Mapka norshal canal
Ps. Nie zauważyłem, że burze wywołałem
FX jest ogólnie mniej więcej tyle wolniejszy od i5 o ile jest tańszy :
: a w niektórych grach jest bardzo zbliżony. Dlatego łączenie go z mocnymi kartami jak najbardziej ma sens. Wyjątkiem będzie jeśli mamy monitor 120hz wtedy przyda się każda klatka. I pisałem bardziej o i5 SB nie o hsw i i5 z turbo do 3.8
stare i5 tez są jeszcze dobrymi CPU chyba że nagle zaczniecie jeździć na użytkownikach i5 sb bez k że takie wolne i 650ti max
Żeby FX 83xx mógł sobie pomacać wydajność single-thread i5 Sandy Bridge na 3,6GHz to by sie przydało go podkręcić na 5,2GHz+ jakieś.
http://pclab.pl/zdjecia/artykuly/focus/cpu2013/oc/sc2_1920.png
także powodzenia z tym twoim "wolniejszy o tyle o ile tańszy" bo niestety FX 83xx jest tańszy tylko o 100zł od i5.
my caly czas mowimy o graniu i radeonach ktore wymagaja potężnego single threada. i nie ma zbytnio gier w ktorych FX by sie w ogole nie wykladal, w Crysis 3 niby fajnie ale jak FPU zaczynamy zaginac to przegrywa z i5 znowu.
-
Jeśli za te 100zł masz sporo lepszy sprzęt to imho lepiej doplacic te 100zł, bo 100zł to nie jest majatek.
W dodatku zmieniajac 1155 na fm1 tracimy mozliwosc upgrejdu procka w przyszlosci, a nasza plyta glowna jest niemal nic nie warta (1155 nadal jest na czasie).
-
No ale ja przecież mówiłem o tym że mogl zostawic sobie Pentiuma (procesor) a dokupic tylko karte graficzną za 100zł i już by mial duuuuzo lepszy efekt niz wymiana procesora na STARSZA generacje (?!?!?!) aby moc uzyc integry ktora i tak jest slaba.
Do tego oddał bardzo dobrą płytę główną lga 1155 (B75-g43) za jakies stare fm1. xD
-
http://pclab.pl/zdjecia/artykuly/majkel/AMDLlano/3650/wykresy/witcher_1680.png
Faktycznie, bardzo wydajna ta integra, w sam raz do pogrania na low we wszystko w 10-40FPS.
-
to zakup z grafiką zewnętrza tak żeby zmieścić się w 320zł.
yy ale Przemi06 powiedział że MIAŁ G2020 i bardzo dobrą płytę główną na socket 1155 po czym wymienil to na Fm1 athlona x4 z integrą.
Co mnie obchodza najnowsze gierki, skoro gram tylko w te dwie?
Poza tym daj mi 300zl na grafike do g2020, bo jak na razie za darmo podnioslem sobie fps w tym co gram
jak to "daj mi 300zł", przecież:
mam na to środki, więc po co się spinać.
To w czym problem?
We wszystkich, również w starszych grach, miałbyś dużo lepsze FPSy gdybyś zainwestował ze 100zł w jakieś używane GPU dedykowane które dołożyłbyś do g2020 zamiast zmieniać pentiuma na jakiś stary procesor z integrą która przegrywa w walce z 9600gt.
Szczególnie ze starsze gry wymagają mocnego pojedynczego watka a Athlony z fm1 są duuuuuużo wolniejsze od Ivy bridge'a.
-
smiem twierdzi ze g2020 dwurdzeniowy byl lepszym prockiem do grania niz athlon x4 z fm1.
kupilbys za 300zł karte i bys mial duzo lepsze fpsy oraz gral na dużo wyzszych ustawieniach graficznych niz teraz.. i nie tylko w jakies CS 1.6 czy lineage ktore są starymi grami i nie sa zadnymi wyznacznikami wydajnosci PC, ale we wszystkie najnowsze gierki.
-
Na razie wziąlem FM1, bo do CSa i Lineage2 na bank styknie, jak po nowym roku dobrze pójdzie z kasą to będzie FM2+ i kolejna zmiana platformy
miejmy nadzieje ostatnia.
hahaha no i gratuluje, ile cie to bedzie sumarycznie kosztowac? (Fm1 teraz, Fm2+ potem)?
-
nowe APU zostanie zjedzone na sniadanie przez Radeona 7750 zapewne.
-
Jak mogli DDR4 "wsadzić" do Kaveri, skoro takich modułów nie ma na rynku? Nawet jak zaczną się pojawiać, na początku będą cholernie drogie i nie zaoferują niczego więcej niż szybkie DDR3. myślisz, że bez powodu startują w platformach dla entuzjastów? To samo pytanie z GDDR5, przecież jedyna opcja to lutowanie ich w płytę i to w ilości przynajmniej 4 GB (od Kaveri będzie wspólna pamięć CPU/GPU), wyobrażasz sobie jaki to koszt? Quad-Channel? Może pomyśl najpierw dlaczego takiego rozwiązania nie ma na rynku konsumenckim, a później zastanów się dlaczego budżetowa platforma nie dostanie go nigdy? Pieprzysz byle post naskrobać, bez żadnego pokrycia w rzeczywistości. Mogli walnąć od razu 8-kanałowy kontroler DDR5 lub GDDR6. Bo czemu nie? Przecież ogranicza ich tylko fantazja, a nie koszty, technologia, sens koncepcji... Zastanawiam się po co Intel dla Iris Pro montuje ten eDRAM, skoro tak proste rozwiązania ma tuż pod ręką
No właśnie eDRAM pozwala słabszym integrom Intela uzyskac lepsze FPSy kontra AMD APU A10-6800... (iris pro)... wiec akurat to byl swietny ruch.
-
Jeśli już nie mogli tego GDDR5 albo chociaż DDR4 wsadzić do Fm2+/Fm3 to chociaz by wzieli i dali 4 kanały pamięci, to by skutecznie PODWOIŁO transfery w porównaniu z dual channel i wtedy 4x4GB byłoby możliwe i byłob fajnie nawet przy 1333mhz/1600mhz a kazdy takt w pamieciach znaczylby duzo więcej i dawalby więcej.
Ale widac ze amd w ogole nie zalezy na tym aby wszystko 'dzialalo'. po prostu ma fajnie wygladac na slajdach a to czy jest oplacalne dla klienta - przemilczymy.
DDR3 w quad channel jest np. w LGA 2011 i mysle ze gdyby dali Quad channel w tak budzetowej platformie jak FM3 mieliby HIT. Dlaczego? Np. mogliby jeszcze bardziej rozpowszechnic FM3 jako platforme "dla ludzi". Wyobrazam sobie plyty za 500zł z Quad channel a do tego darmowe oprogramowanie AMD "RAMDISK", na pewno byliby ludzie ktorzy zrobiliby sobie z tego 8x8GB i wkladaliby tam cuda nie wida na ten RAMDisk - a wiec platforma bylaby tez ciekawa dla entuzjastów. Do tego jakies APU chociaz 3-modułowe, iGPU z HSA które dawaloby tez jakąś moc do pewnych rodzajow obliczen i nagle cala platforma wyglada ciekawie a iGPU pozwala tez pograc (4channel + 4 sloty na RAM w tych tańszych płytach) w niewielkich pieniądzach... ach marzenia. ale wiemy juz ze to sie nie zisci bo amd nie ma w ogole fantazji.
-
Co to za pan, ten Greg?
-
Ale ja nie bede sprzedawac Phenoma mojego, predzej zloze z niego jakis komputer domowy jak juz przestane go uzywac osobiscie.
Nastepny przystanek to bedzie i5 albo i7, tudzież jakiś FX 4-modułowy zaleznie od tego jak sie potoczą losy konsolowych portów i ogolnie jakie procki wyjda w ciagu nastepnego roku, dwóch. Poki sie bedzie dalo pograc na Phenomie to nie zmieniam bo nie widze potrzeby.
-
PII X6 można teraz sprzedać za niezłe pieniądze, więc zmiana może nie być takia zła.
Ja tam dalem za PII x6 400zł w wakacje (nówka) bo nie chcialem zmieniac plyty, a wczesniej mialem PII x2. oczywiscie moglbym np. dać 300zł na nowe mobo + 600zł na FX 83xx albo jakies i5+mobo (nawet drozej by mnie to wynioslo), ale... czy stosunek wydanej forsy do uzyskanej wydajnosci bylby oplacalny?
I5 nie jest dwa razy lepszy niz Phenom II x6...
a tak sie sklada ze zaplacilbym za i5 (300zł plyta glowna + 650zł procesor) = 950zł, a za samego Phenoma dalem 400zł.
to samo z FXami, czy zestaw FX 83xx + plyta Gigabyte 970A-UD3 ma sens w cenie (300zl mobo + 600zl procesor) = 900zł w kontekscie Phenoma II x6 za 400zł? WĄTPIE.
Tak więc ja sobie siedze na Phenomie dopoki nie wyjdzie cos na co będę MUSIAŁ się przesiąść, albo po prostu jak wyjdzie na jaw ktore procki są najlepsze do grania w konsolowe porty.
Czekam tez na emulatory PS4/Xbox One o ile komuś uda sie takie sporzadzic i wymagania sprzetowe takich emulatorów.
-
Ty lepiej podkręć tego PIIX6 co masz na 4ghz i pociągnij CPU-Nb najwyżej jak się da i spróbuj pociągnąć ram na 1600. Bo ta 660-tka może się dławić
a to wszystko na niechłodzonej sekcji zasilania (na szczescie 8 faz) + zasilacz chieftec 500w (3 linie 12v po 16, 18 i 18 amper, łączna moc to 350w), tak?
u mnie PC nie wstaje jak ustawie voltage 1,4v na cpu. Wykrecilem stabilne 3,7GHz na 1,35v i sie ciesze.
-
@Dravic
przecież na wykresie widać że FX 8320 (i na nim się skupie) jest szybszy od pII x6 o 14%,
http://pclab.pl/zdjecia/artykuly/focus/cpu2013/oc/x264_2.png
przy konwersji filmów masz 36% przewagi FX
http://pclab.pl/zdjecia/artykuly/focus/cpu2013/oc/energia_spoczynek.png
Natomiast po maksymalnym OC oba procki biorą tyle samo energii
Ogólnie dziwnie te testy do porównania dobierasz bo lepiej się opierać na średnich zastosowaniach jak celujemy w ogół, no chyba że mamy na myśli konkretne operacje
http://pclab.pl/art50000-110.html
FX po OC w grach jest średnio o 6% szybszy, a w aplikacjach zaawansowanych aż o 27,8%, natomiast przy FX6300 który stwierdziłeś że jest niedobry i gorsyz od poprzednika to w grach uzyskuje przewagę 2% a w programach 4%, co jest niezłym wynikiem biorąc pod uwagę że posiada 2 razy mniej dekoderów rozkazów niż phenom( pomijam szczegóły) i teoretycznie posiada 2 razy mniej FPU.
Porównanie zegar w zegar straciło na znaczeniu w momencie kiedy obydwie strony wprowadziły turbo która różnie może rozkładać wydajność. A trzymanie się tego na siłę wprowadzić może do błędnych wniosków.
Ogólnie twój komentarz troszkę mija się z tematem, bo autor przesiada się z pIIx4 na FX, dodatkowo nawet jak ktoś ma pIIx6 to może mu się opłacić przesiąść na FX8320 bo będzie wydajniej w aplikacjach zaawansowanych, w kwestii płyty to zarówno żeby kręcić pIIx6 jak i FX trzeba solidną płytę. A operacja zmiany jest nie opłacalna jeśli nasza płyta nie obsługuje FX ponieważ nie posiada odpowiedniego gniazda.
Natomiast najlepiej się odnieść do wyniku domyślnego, bo OC jest sprawą loterii
http://pclab.pl/art50000-108.html
A same ceny używanych phenomów raczej nie zachęcają do ich dalszego wyboru w dzisiejszych czasach.
Nie no oczywiscie ze ja nikomu nie polecam uzywanych Phenomow, to sa procesory martwe, ja kupilem Phenoma II x6 w tym roku bo mialem plyte GA-MA770T-UD3P i daje glowe ze za 400zł nie dalo sie lepszego upgrejdu zrobic w moim przypadku tak, aby GTX 660 nie byl ograniczany. (wczesniej mialem Phenom II x2).
Oczywiscie, FX 6300 jest super procesorem w swojej cenie, FX 83xx tez jest niezle wyceniony szczegolnie teraz (550zł + 300zł plyta glowna).
-
Zresztą kolega dopłaci niecałe 300zł a kompa będzie miał raczej lepszego niż wcześniej, szczególnie mu się to przyda jak będzie potrafił zagonić do pracy więcej niż 4 wątki
No właśnie cały problem z architekturą modułową polega na tym, że jak zagonisz te "więcej niż 4 wątki" do pracy to spada wydajność pojedyńczego wątku i perspektywa dodatkowych wątków względem Phenoma oczywiscie nadal jest bardzo fajna ale FXy są dużo szybsze od Phenomów właśnie kiedy NIE wszystkie ich wątki są wykorzystywane. A kiedy wszystkie wątki są wykorzystywane, zyski z dodatkowych rdzeni aż takie genialne nie są. Przesiadka z Phenoma II x4 -> FX 83xx jest jak najbardziej opłacalna, oczywiście za odpowiednią cenę.
Z powodu architektury modułowej systemy Windows dostawały patche do optymalnego rozkładania wątków, a sprawa tego tak zwanego "core parkingu" natywnie rozwiązana została dopiero w Windows 8, bo w Windows 7 trzeba było ściągać patche i system nie był od początku pod to zbudowany. (najpierw wątki 0, 2, 4 i 6 są obciążane, czyli po jednym wątku na moduł, tak jakby to był czterordzeniowiec, a obciążanie wątków 1, 3, 5 i 7 jest dokonywane tylko w ostateczności aby nie tracić wydajności pojedyńczego wątku dopóki nie jest to konieczne).
Na dowód mam slajd:
http://pclab.pl/zdjecia/artykuly/focus/cpu2013/oc/cinebench_render.png
popatrzcie gdzie jest Phenom II x6 1045t (podkręcony, a jakże, do 4GHz) względem różnie taktowanych FX 83xx i FX 63xx). Phenom II x6 wygrywa z FX 63xx bez problemu i jest niewiele wolniejszy od FX 83xx, w obu przypadkach FXy są taktowane 700MHz wyżej (!) od Phenoma.
architektura modułowa według mnie jest dobrym upgrejdem dla Phenomów II x4 (bo wymieniamy 4 rdzenie na 4 moduły) ale na pewno nie jest zbyt dobrym pomysłem w kontekście Phenom II x6, bo po prostu nieopłacalnym.
Ja osobiście kupiłem Phenoma II x6 za 400zł na przełomie sierpnia/września tego roku i póki co nie zmieniam go, czekam na kolejne generacje procesorów i APU od AMD i intela. Nie przewiduję zmian procesora w 2014 bo tak naprawdę czekam aż sytuacja na rynku "konsolowych portów na PC" się rozjaśni i okaze sie jaki sprzet jest najlepszy do tego typu zadań.
-
nie rozumiem tej całej mani zegar w zegar. Jak to robi tyle samo przy identycznym poborze prądu to jest identyczne. I mnie nie obchodzi czy ma 1 czy 10 GHz - to ma działać. A PII wcale taki wspaniały nie jest - wystaczy, że aplikacja korzysta z nowych instrukcji i FX/APU odjeżdzają i to mocno.
Chyba, że aplikacja nie korzysta z nowych instrukcji ale opiera się o FPU i nagle FX 6300 dostaje po dupie od Phenom II x6 chyba, nie?
-
Chyba na odwrót - rzadko kiedy w jakiejkowiek grze użycie GPU nie sięga 100%, wystarczy zobaczyć testy na pclab gdzie poteżne karty w niesamowicie wysokich rozdzielczościach i ustwieniach na max ze wszystkimi "AA" na max osiągają 30fps.
Więc to co tworzone jest w głowach ludzi - że tylko gra na totalnego maxa wygląda dobrze teraz się zemściło. Niech ludzie kupują przesadzone konfiguracje które "zabijają" dodatkami i opcjami graficznymi które realnie nie są widoczne w czasie rozgrywki bo pomijamy takie szczegóły jak przyglądanie się godzinami jakiemuś detalowi czy dobrze jest "wygładzony".
Czemu mówisz że to się mści?
po prostu jak ktos ma kase to sie moze bawic w SLI z gtx 780 a jak ktos nie ma to kupuje gtx 770 i tez gra na ustawieniach wysokich w dobrej plynnosci.
-
Jak ma się podkręcony do 4 GHz FX-8320 do stockowego FX-8350 jeśli chodzi o pobór energii? Może ktoś z posiadaczy 8320 ma watomierz i mógłby to sprawdzić.
Zależy od napięcia. Jeśli takie samo napięcie to tyle samo prądu pobierze (w granicy błędu).
-
Markiz88 DDR4 to tylko półśrodek... jeszcze pół biedy jakby to był 4-channel DDR4 ale na pewno ani Intel ani AMD nie dadzą 4-channel do desktopów.
GDDR5 dla wszystkich kart graficznych jest konieczny aby nie opóźniać układu. APU jest głupie bo nie pozwala zastosować GDDR5, z kolei zastosowanie GDDR5 skutkowałoby pogorszeniem wydajności procesora.
A jeśli chodzi o nową podstawkę z DDR4... nie do 2016 roku bo według tych najnowszych przecieków to do 2015 roku ciśniemy na FM2+ które ma jedynie 1x16 PCie 3.0 (2x 8 pcie 3.0) i DDR3 w dual channel.
-
A jak się ma richland do gt630, bo kaweri był 2,5x szybszy niz ten gt630 z mocnym intelem, to chyba będzie trochę lepiej niż 20% może kontroler poprawili...
Jeśli ktoś kupuje GT 630 do gier to powinien spłonąć a AMD się pokpiło porównując Kavieri do i7 (300$) + GT 630 który nawet nie jest wart swej ceny.
Mogliby pokazać nawet coś ze swojej stajni, powiedzmy... bo ja wiem... Kavieri (zapewne około 120$) vs Phenom II x4 (80$) + Radeon 7750 1GB GDDR5 (100$). Czy ta ogromna "oszczędność" 60$ jest warta zachodu?
FAQ: APU - wątek zbiorczy
w AMD
Napisano
Co ty nie powiesz? AMD oficjalną cenę podało już dawno: 170$. Przelicz na złotówki i dodaj VAT...