Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

Temat został przeniesiony do archiwum

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

cyriak

pamiętacie oszustwa ati?

Rekomendowane odpowiedzi

ati wypuściła swego czasu sterowniki które wykrywały że uruchamiamu quake3 i zmieniały ustawieniakarty tak aby sztucznie podwyższyć wyniki kosztem jakości obrazu - wystarczało zmienić quake.exe na quack.exe aby wyniki były prawdziwe

 

 

wszystko wskazuje teraz ten sam pomysł wykożystała nvidia przy farcry - przy zmianie nazwy na fartcry wydajność 6800 u spada śrwdnio o 20% :exclam::exclam::exclam:

 

 

artykuł po niemiecku (z wynikami testu w obrazku )

http://www.chip.de/news/c_news_11844422.html

 

 

źródło: theinquirer

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

wcześniej były pogłoski teraz w miarę wiarygodne źródła ( imho oczywiście)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To że tacy normalni ludzie, nie informatycy hardwerowi jak ja czy nawet tacy fanatycy :lol2: jak kolega Opson tak mocno interesują się kartami graficznymi (co jest bez sensu i nienormalne, aby tak interesować sie narzędziem) wypływa właśnie z takich problemów jakie Cyriak przedstawiasz. Jak juz człowiek wywala nienormalnie duza kasę na kawałek laminatu i krzemu to chciałby, aby było warto. :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
wcześniej były pogłoski teraz w miarę wiarygodne źródła  ( imho oczywiście)

Tak sie sklada ze od tygodnia walkuja i sprawdzaja to na wielu serwisach. Chodzi o to ze po zmianie nazwy gry i wpisach w rejestrze(jesli dobrze pamietam) gra przestaje korzystac z funkcjil NV40 wiec niczego to nieudawadnia. Bylo podobnie z wymuszeniem trybu ATI dla NV40 i tez sie wszyscy jarali tym ze wydajnosc spadla. Gdy ktos w koncu poprosil o puszczenie kart ATI na funkcjach NV40 okazalo sie ze jakosc i predkosc jest tak paskudna ze nie ma wogole porownani. Takie szukanie dziury w calym jest dla mnie bez sensu. Musialbym miec chyba monitor pozwalajacy grac 1600x1200 i wiecej zeby zobaczyc jakies roznice w jakosc generowanego obrazu. Poza tym zerknij sobie na date tej wiadomosci "04.05.2004" . Przewijala sie ona przez wiele serwisow.

 

[Edytowane: 10/5/2004 przez koven]

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
grac 1600x1200 i wiecej zeby zobaczyc jakies roznice w jakosc generowanego obrazu.

 

przejżyj test x800 vs 6800 na hardocp - tam są pokazane różnice w jakości grafiki

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

prosiłem o opinie o temacie a nie wokół tematu

 

- poza tym wymuszanie trybu zgodności a wykrywanie gry po nazwie i dostosowywanie do nazwy poziomu iq to są różne żeczy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
grac 1600x1200 i wiecej zeby zobaczyc jakies roznice w jakosc generowanego obrazu.

 

przejżyj test x800 vs 6800 na hardocp - tam są pokazane różnice w jakości grafiki

 

To ze mi powieksza kawalek klatki i pokaza roznice nic nie daje bo golym okiem tego nie zaobserwuje. Oczywiscie fajnie jest miec takiego potwora i dodatkowo wiedziec ze obraz jest w 100% oki, ale gdyby nie robili tego rodzaju porownan to malo kto by sie kapna ze jakosc obrazu jest delikatnie gorsza (jesli wogole ktos).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ojej,... no nie od dzisiaj wiadomo, ze kupujac karte zgadzamy sie na to co jej tworca dla nas dziala we wszystkich kwestiach.

 

Przed zakupem to jasne... glupio to wyglada. Ale jak juz ktos kupi to oleje drobna roznice, ktorej podczas gry nie widac tak czy siak i bedzie wolal miec kilka klatek wiecej niz jeden pixel o nieco innej barwie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Powtarzam: zgadzam sie na wszystkie optymalizacje nie wplywajace widocznie na jakosc obrazu (porownanie pod powiekszeniem 10x sie nie liczy :-)).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

akurat w tym teście nie ma powiększeń ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
akurat w tym teście nie ma powiększeń ;) 

 

mam dziwne wrazenie ze mowisz o tescie SM 3.0 na hardocp... nie wiem gdzie tam sie doszukales jakichkolwiek optymalizacji

 

to jest tylko uduwodnienie ze sie niczym nie rozni SM 2 od 3 poza dlugoscia programu i jak bardzo roznia sie od siebie SM 1.1 i 2.0.

 

Ten test udowadnia tylko to ze gdy ostatnim razem nvidia nie wprowadzila obslugi SM 2.0 to byl wyrazny blad a gdy teraz ATi nie wprowadzila obslugi 3.0 to w sumie niewielka roznica.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
akurat w tym teście nie ma powiększeń ;) 

 

W takim razie zabieram sie do lektury :-).

 

P.S. Pamietajmy, ze obraz "inny" nie znaczy gorszy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
akurat w tym teście nie ma powiększeń ;) 

 

W takim razie zabieram sie do lektury :-).

 

P.S. Pamietajmy, ze obraz "inny" nie znaczy gorszy.

 

My to rozumiemy, tylko i Ty zrozum to, ze stosujac optymalizacje, nvidia chwali sie, ze ma najmocniejszy uklad graficzny i jest wogole de-best kiedy tak nie jest bo musi stosowac sztuczki zeby to osiagnac.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
My to rozumiemy, tylko i Ty zrozum to, ze stosujac optymalizacje, nvidia chwali sie, ze ma najmocniejszy uklad graficzny i jest wogole de-best kiedy tak nie jest bo musi stosowac sztuczki zeby to osiagnac.

 

Alez ja jestem tego swiadom :-). Nienormalne przeciez byloby, gdyby NVIDIa przyznala sie, ze jej GF jest gorszy niz konkurencja, prawda? :-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Biorac pod uwage, ze wiekszosc kupujacych bedzie sie kierowala wydajnoscia (i logosami roznych nagrod "POWER" na opakowaniach i reklamach), to jest to absolutnie niedopuszczalne.

 

Od tego sa opcje w sterach (albo i nie ma), zeby mozna bylo swiadomie zwiekszyc wydajnosc przy minimalnej utracie jakosci. Dla lamerow mozna wlozyc w pudelko tekturke informacyja, wystarczy.

 

Poza tym, jesli usprawiedliwic jakakolwiek manipulacje, to gdzie bedzie granica, ponad ktora degradacja jakosci obrazu stanie sie istotna? Konkurujacy producenci zaczna sie licytowac optymalizacjami i tego nie zatrzymamy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Biorac pod uwage, ze wiekszosc kupujacych bedzie sie kierowala wydajnoscia (i logosami roznych nagrod "POWER" na opakowaniach i reklamach), to jest to absolutnie niedopuszczalne.

 

...i nazywa sie marketing.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
akurat w tym teście nie ma powiększeń ;) 

 

W takim razie zabieram sie do lektury :-).

 

P.S. Pamietajmy, ze obraz "inny" nie znaczy gorszy.

 

My to rozumiemy, tylko i Ty zrozum to, ze stosujac optymalizacje, nvidia chwali sie, ze ma najmocniejszy uklad graficzny i jest wogole de-best kiedy tak nie jest bo musi stosowac sztuczki zeby to osiagnac.

 

Co prawda to prawda. :)

Zreszta kto by uwierzyl w optymalizacje nvidii ktore mialyby polegac na wzroscie jakosci grafiki kosztem spadku wydajnosci :> Oczywiscie ze moga wyposcik takie stery, ale napewno nie bylyby one brane pod uwage w przypadku testow i rywalizacji z Ati na tle wydajnosci...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kolesie od Nv czy beda oszukiwac dalej czy niet to i tak(niestety) nie robi na 'ich fanach' wiekszego wrazenia.

Czlowiek jest jakos dziwnie zbudowany...ma bardzo krotka pamiec.

Nv potrafila przez conajmniej 1,5 roku ukrywac ze prawdziwa architektora Fx'ow to 4x2 a nie 8x1 , ale ludzie juz o tym szybko zapomnieli(bo przeciez teraz wyszly nowe chipy i juz nie bedzie takich cyrkow :>).I tak ludzie to kupuja i tak znajda sie fani ktorzy znajda argumenty popierajace nowe dziecko Nv.

Sami zobacznie jak Nv szybko uporala sie z tymi nie prawdziwymi potokami, po zrobieniu juz nowych chipow oficjalnie sie przyznali do tego(bo i tak karty te beda po malu schodzic do lamusa, wiec nikt nie bedzie pamietal o jakis 'glupich potokach').

Nvidia brnie dalej w swoich oszustwach (i nic nie wskazuje na to zeby jakos z tego wyszla), nie potrafi sie obronic przed mocnymi atakami Ati wiec wszelkimi mozliwymi sposobami probuje dociagnac te pare klatek w grach tylko po to zeby byc za wszelka cene na pierwszym miejscu.Teraz pewnie tez sie jakos wykreca , a ludzie uwierza(zapomna o dawnych niescislosciach) i bedzie wszystko tak jak dawniej...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie wiem czy dobrze zrozumiałem ale chodzi tu o to ze jak zmienie nazwe pliku który uruchamia gre to wydajnosc spada (w przypadku 6800u) ? :wow:

 

Jesli tak to jak to sie dzieje ? :o

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

panowie ktory artykul macie na mysli? ten:http://www.hardocp.com/article.html?art=NjA5 ?? czy inny bo nie widze tam X800 vx 6800

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

heh no wlasnie,zaraz zmienie sobie nazwe pliku pk, odpale, i zobacze ile jest klatek :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...