Skocz do zawartości
Zamknięcie Forum PC LAB

Szanowny Użytkowniku,

Informujemy, że za 30 dni tj. 30 listopada 2024 r. serwis internetowy Forum PC LAB zostanie zamknięty.

Administrator Serwisu Forum PC LAB - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie: wypowiada całość usług Serwisu Forum PC LAB z zachowaniem miesięcznego okresu wypowiedzenia.

Administrator Serwisu Forum PC LAB informuje, że:

  1. Z dniem 29 listopada 2024 r. zakończy się świadczenie wszystkich usług Serwisu Forum PC LAB. Ważną przyczyną uzasadniającą wypowiedzenie jest zamknięcie Serwisu Forum PC LAB
  2. Dotychczas zamowione przez Użytkownika usługi Serwisu Forum PC LAB będą świadczone w okresie wypowiedzenia tj. do dnia 29 listopada 2024 r.
  3. Po ogłoszeniu zamknięcia Serwisu Forum od dnia 30 października 2024 r. zakładanie nowych kont w serwisie Forum PC LAB nie będzie możliwe
  4. Wraz z zamknięciem Serwisu Forum PC LAB, tj. dnia 29 listopada 2024 r. nie będzie już dostępny katalog treści Forum PC LAB. Do tego czasu Użytkownicy Forum PC LAB mają dostęp do swoich treści w zakładce "Profil", gdzie mają możliwość ich skopiowania lub archiwizowania w formie screenshotów.
  5. Administrator danych osobowych Użytkowników - Ringier Axel Springer Polska sp. z o.o. z siedzibą w Warszawie zapewnia realizację praw podmiotów danych osobowych przez cały okres świadczenia usług Serwisu Forum PC LAB. Szczegółowe informacje znajdziesz w Polityce Prywatności

Administrator informuje, iż wraz z zamknięciem Serwisu Forum PC LAB, dane osobowe Użytkowników Serwisu Forum PC LAB zostaną trwale usunięte ze względu na brak podstawy ich dalszego przetwarzania. Proces trwałego usuwania danych z kopii zapasowych może przekroczyć termin zamknięcia Forum PC LAB o kilka miesięcy. Wyjątek może stanowić przetwarzanie danych użytkownika do czasu zakończenia toczących się postepowań.

Temat został przeniesiony do archiwum

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

Stork

Grafika 3D + ~500zł

Rekomendowane odpowiedzi

Niestety moje potrzeby przerosły możliwości mojej obecnej karty graficznej. Jak w podałem w temacie zamierzam przeznaczyć na sprzęt ok 500zł. Jednak w tym przypadku nie będzie od grafiki wymagana wydajność w grach lecz programach do modelowania w 3D. Głównie Blenderze. Stąd pytanie, co wybrać?. Po wstępnym rozeznaniu stać mnie albo na

GTX260 550zł albo HD4870 ok 450 zł, w ostateczności mógłbym dołożyć do 4890, nie jestem jednak pewny czy jest mi taka karta potrzebna.

Ponadto chciałbym się dowiedzieć czy ktoś z forum próbował zmodować Radeona do FireGL, i czy w przypadku Blendera czyli OS ma to jakikolwiek sens.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Niestety moje potrzeby przerosły możliwości mojej obecnej karty graficznej. Jak w podałem w temacie zamierzam przeznaczyć na sprzęt ok 500zł. Jednak w tym przypadku nie będzie od grafiki wymagana wydajność w grach lecz programach do modelowania w 3D. Głównie Blenderze. Stąd pytanie, co wybrać?. Po wstępnym rozeznaniu stać mnie albo na

GTX260 550zł albo HD4870 ok 450 zł, w ostateczności mógłbym dołożyć do 4890, nie jestem jednak pewny czy jest mi taka karta potrzebna.

Ponadto chciałbym się dowiedzieć czy ktoś z forum próbował zmodować Radeona do FireGL, i czy w przypadku Blendera czyli OS ma to jakikolwiek sens.

Czy te programy wykorzystują GPU do obliczeń przy renderowaniu (tak jak chyba zakończony projekt zielonych pt. Gelato) czy tylko chodzi ci żeby płynnie pokazywały skomplikowane modele w widokach?

Zakładam ze chodzi ci tylko to drugie to wystarczy ci "potwór" klasy 9400GT/HD4650 i jeszcze zostanie spory zapas;)

Nawet zintegrowany Radeon HD3200/HD4200 da sobie radę :D Za zaoszczędzoną kase kup mocniejszy proc i więcej ramu.

 

IMO nie ma sensu modowanie Radeona do fireGL ani GF do Quadro.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

9400GT/HD4650?

 

Chybabym umarł przy tym, niestety w grafika 3D to nie to samo co 2D, tu potrzeba mocy obliczeniowej. Na uczelni mam Quadro, to widzę jak chodzi, tyle że 6000 nie mam, to sobie nie kupie.

Co do proca Q6600 i 4GB starczają, żeby cokolwiek poprawić musiałbym co najmniej do 920 doskoczyć, a całej platformy nie będę zmieniał.

 

Nawet zintegrowany Radeon HD3200/HD4200 da sobie radę
No comment

A CUDE i inne cuda, możemy sobie odpuścić.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9400GT/HD4650?

 

Chybabym umarł przy tym, niestety w grafika 3D to nie to samo co 2D, tu potrzeba mocy obliczeniowej. Na uczelni mam Quadro, to widzę jak chodzi, tyle że 6000 nie mam, to sobie nie kupie.

Co do proca Q6600 i 4GB starczają, żeby cokolwiek poprawić musiałbym co najmniej do 920 doskoczyć, a całej platformy nie będę zmieniał.

Człowieku, moc obliczeniowa jest potrzebna do renderingu w którym GPU nie jest wykorzystywane. GPU tylko wyświetla viewporty w OpenGL-u. Żeby karty które podałem wyżej się zakałapuckały to musiałbyś miec scenę jak w mocnej grze i to przy założeniu że tekstury będa miały max jakość..

 

No comment
Jak się nie ma nic mądrego do napisania to faktycznie lepiej nic nei pisac :D
A CUDE i inne cuda, możemy sobie odpuścić.
Akurat jesliby oprogramowanie potrafiło to wykorzystać i zaprzęgło GPU do roboty przy renderowaniu - dopiero wtedy miałby sens zakup mocnej karty graficznej. Moc obliczeniowa dzisiejszych GPU (nawet tych teoretycznie słbych) jest ogromna.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Człowieku, moc obliczeniowa jest potrzebna do renderingu w którym GPU nie jest wykorzystywane. GPU tylko wyświetla viewporty w OpenGL-u. Żeby karty które podałem wyżej się zakałapuckały to musiałbyś miec scenę jak w mocnej grze i to przy założeniu że tekstury będa miały max jakość..

 

Dzięki że mnie oświeciłeś, nie wiem nad jakimi scenami ty siedzisz że Ci integra wystarcza, ale cóż każdy robi to co lubi albo potrafi. Pokaż jakąś siatkę to będę Cię słuchał, a na razie proszę nie wciskaj mi 9400 albo 4650, bo nie wiesz o czym piszesz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Dzięki że mnie oświeciłeś, nie wiem nad jakimi scenami ty siedzisz że Ci integra wystarcza, ale cóż każdy robi to co lubi albo potrafi. Pokaż jakąś siatkę to będę Cię słuchał, a na razie proszę nie wciskaj mi 9400 albo 4650, bo nie wiesz o czym piszesz.
Zakładając że niektórzy na HD3200 przechodzili Wiedźmina na med 800x600 i zaklinali się że było w miarę płynnie twierdzę że sam nie wiesz co piszesz :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Posłuchaj....Wiedźmin o ile się dobrze orientuję to gra, a nie widziałem gry z modelami high poly.

Po drugie "zaklinali się" pozostaw sobie , jeśli próbujesz się bronić pokaż potwierdzone dane, a nie .... głupot.

Mam u siebie 4 kompy, dwa to laptopy z integrami, akurat różnią się jedynie grafiką więc trudno będzie Ci mnie przekonać, jak widzę ile FPSów mam przy tej samej scenie na różnych konfiguracjach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Posłuchaj....Wiedźmin o ile się dobrze orientuję to gra, a nie widziałem gry z modelami high poly.

Po drugie "zaklinali się" pozostaw sobie , jeśli próbujesz się bronić pokaż potwierdzone dane, a nie .... głupot.

Mam u siebie 4 kompy, dwa to laptopy z integrami, akurat różnią się jedynie grafiką więc trudno będzie Ci mnie przekonać, jak widzę ile FPSów mam przy tej samej scenie na różnych konfiguracjach.

A skad mam wiedzieć jakie masz te integry? Skad mam wiedzieć że umiałes zainstalować i skonfigurować sterowniki skoro jak twierdzisz CUDA można sobie odpuścic a Q6600 zupełnie wystarcza do renderingu?

Dzisiaj mamy procki i7 które biją Q6600 na głowę. Ale jesli tobie Q6600 starcza to znaczy że twoje renderingi wcale nie są takie ogromniaste żeby koenicznie kupować do nich GTXy ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie broń się już, lepiej sobie poczytaj, tu masz jakiś pierwszy lepszy test procesorów, http://www.tomshardware.com/charts/2009-de...-2009,1380.html

Tej "kudy" też się uczepiłeś, nie zauważyłeś że w pierwszym poście wystąpiło słowo "Blender"?

 

A rendering zapuszczam na noc, bo dłużej nie trzeba żeby dostać zaliczenie, farmy na razie nie mam zamiaru tworzyć w domu.

 

Poza tym co to w ogóle za dyskusja...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Tej "kudy" też się uczepiłeś, nie zauważyłeś że w pierwszym poście wystąpiło słowo "Blender"?
Bo skoro Blender jest za free i typu open-source to jakiś oblatany programista może zrobić support pod CUDA, właszcza że jest już SDK i za skorzystanie z CUDA nV nie chce kasy.

A przy okazji - Gelato Pro nie da się użyć z blenderem? O ile wiem to też jest za friko.

 

A rendering zapuszczam na noc, bo dłużej nie trzeba żeby dostać zaliczenie, farmy na razie nie mam zamiaru tworzyć w domu.
A, student. Jakbyś to robił profesjonalnie to inaczej patrzyłbyś na tę różnicę 30-40%

 

Poza tym co to w ogóle za dyskusja...
Po raz pierwszy się zgadzam. Walisz ogólnikami, zero konkretów, szkoda czasu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
A, student. Jakbyś to robił profesjonalnie to inaczej patrzyłbyś na tę różnicę 30-40%

 

Ma się rozumieć mam przyjemność z profesjonalistą? To zmienia obraz rzeczy. Będę słuchać rad i to z chęcią.

 

Tylko jest kilka drobnych szczegółów, 1. Gelato jest martwe 2. na początku odradzałeś podmiankę sterów, a jak dobrze pamiętam Gelato wymaga Quadro.

 

Oblatany programista....a św Mikołaj w tym roku zrobi z Blendera 3dmaxa, zbrusha, xsi, maye, muda i wszystko w jednym, tyle że ja wole realia.

A co do ogólników.. pytałem jaką kartę należy w tym przedziale wybrać i to nie ja mam walić konkretami, chyba tak wynika z kontekstu, nieprawdaż?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Ma się rozumieć mam przyjemność z profesjonalistą? To zmienia obraz rzeczy. Będę słuchać rad i to z chęcią.

 

Tylko jest kilka drobnych szczegółów, 1. Gelato jest martwe 2. na początku odradzałeś podmiankę sterów, a jak dobrze pamiętam Gelato wymaga Quadro.

 

Oblatany programista....a św Mikołaj w tym roku zrobi z Blendera 3dmaxa, zbrusha, xsi, maye, muda i wszystko w jednym, tyle że ja wole realia.

A co do ogólników.. pytałem jaką kartę należy w tym przedziale wybrać i to nie ja mam walić konkretami, chyba tak wynika z kontekstu, nieprawdaż?

Nie jestem profesjonalistą ale staram się mniej więcej być na czasie.

 

Gelato Pro może działać z kartami GF 8800GT na pewno:

"Zamiast na kartach NVIDIA Quadro FX, Gelato może być uruchomione na następujących kartach, przy czym Gelato Pro uruchamiane na tych kartach nie jest certyfikowane i nie jest objęte pomocą techniczną:

 

* GeForce 8800 "

cytat z www nV. Czyli 8800GT i 8800GTS a jesli tak to czemu nie np. GTS250?

 

Może wystarczy poszukac lub pokombinowac (np. w sterach) a nie podniecac się Quadro za 6 tysiecy.

 

Idę o zakład że ktoś zaimplementuje CUDA do Blendera w ciągu kilku miesięcy, o ile pierwsze testy wykażą że praca jest tego warta.

 

Ja waliłem konkretami od początku a ty tylko że masz dwa laptopy z integrami i słabe fpsy. Nawet nie podałeś jakie to integry.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Konkrety są takie, używam Blendera więc Gelato odpada choćbym i zakupił GeForce`a.

 

CUDA, jak coś zrobią to nieprędko, poza tym AMD CTS też jest, wystarczy poczytać na forum Blendera.

 

Laptopy... co za różnica jakie grafy mają? jedna to GMA950 druga X3100 ale co to zmienia? nic, bo to że na intergrze będę komfortowo pracował, to się niestety mylisz, dlatego niema sensu tego rozwijać. Poza tym wspomniałem o nich tylko by Ci uświadomić że wiem czy karta graficzna ma wpływ na ilość klatek czy też nie, więc czemu do tego tak przylgnąłeś nie wiem, bezsensu.

 

Wydajność kart graficznych ogólnie znam jednak pod 3ds`em. Jak jest w Blenderze ?, gdybym wiedział nie pytałbym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Siemka też zajmuję się grafiką 3D za 500zł wyrwiesz GTX 260. Karta w zupełności ci wystarczy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Właśnie wciąż się zastanawiam czy 260 czy 4870. ATI dostawało w dupę w 3dmaxie 9 pod D3D i OpenGL, jednak w 10 w OpenGL już wyprzedza znacznie. Jest to dla mnie ważne gdyż głównie pracuję w Linuksie, a jak ma się D3D do pingwina każdy wie. W sieci można znaleźć sporo wyników z Blendera, jednak głównie jest to czas renderingu.

Także jeśli ktoś miał styczność z Blenderem pod nV i ATI z chęcią usłyszę opinie.

 

O zasilator niema się co zbytnio martwić, Corsair HX520.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Konkrety są takie, używam Blendera więc Gelato odpada choćbym i zakupił GeForce`a. CUDA, jak coś zrobią to nieprędko, poza tym AMD CTS też jest, wystarczy poczytać na forum Blendera. Laptopy... co za różnica jakie grafy mają? jedna to GMA950 druga X3100 ale co to zmienia? nic, bo to że na intergrze będę komfortowo pracował, to się niestety mylisz, dlatego niema sensu tego rozwijać. Wydajność kart graficznych ogólnie znam jednak pod 3ds`em. Jak jest w Blenderze ?, gdybym wiedział nie pytałbym.
Dlaczego Gelato odpada pod Blenderem. Na pewno coś się da zrobic, może jest jakiś skrypt/plugin. Trzeba tylko trochę chcieć poszukać i coś umiec.

 

AMD CTS jest płatne, CUDA jest za friko, nV udostepnia pełne SDK. Taka różnica. Dlatego w Blenderze jesli coś się pojawi to support pod CUDA.

 

GMA950 i X3100 to sa totalnie syfiaste integry, w zasadzie obie nadają się do pulpitu, Worda i Excela. Wydajnosc w 3D masakrycznie kiepska, nie ma co porównywac z HD3200 które po OC w biosie jest na poziomie GF 6600GT.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...