Skocz do zawartości
serwkomp

Freenas.

Rekomendowane odpowiedzi

Witam.

 

I tak jak w temacie, czy korzystacie z Freenas ?

A i owszem.

NFSa serwuje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak ale musi mieć bezpośrednio dostęp do dysków i sporo ramu (8GB+) bo inaczej dzieją się dziwne rzeczy, nawet jak jest bardzo prosty konfig. Szkoda, że autorzy nigdy nie wyjaśnili dlaczego, po prostu 8GB to wymagane minimalne i poniżej tego nawet pomocy na forum nie uzyskasz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wydaje mi się, że te 8GB+ to wymóg w przypadku ZFS. Są ludzie którzy używają 4GB a użycie dobija do 2GB. W sumie kiedyś chciałem spróbować ale poszedłem po taniości i korzystam z OMV.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wymogi skądś się biorą, ale są i takie które ktoś kiedyś powiedział i reszta powtórzyła - byłoby fajnie, gdyby ktoś opisał, co w mechanizmie działania ZFS wymaga tyle ramu, zwłaszcza, że konfiguracje ZFS są najróżniejsze (l2arc, arc, raidz1, raidz2...) i pojemność dysków też ma znaczenie. Samo ZFS też ewoluuje, i ma coraz wyższe wersje, które działają jednak trochę inaczej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wymogi skądś się biorą, ale są i takie które ktoś kiedyś powiedział i reszta powtórzyła - byłoby fajnie, gdyby ktoś opisał, co w mechanizmie działania ZFS wymaga tyle ramu, zwłaszcza, że konfiguracje ZFS są najróżniejsze (l2arc, arc, raidz1, raidz2...) i pojemność dysków też ma znaczenie. Samo ZFS też ewoluuje, i ma coraz wyższe wersje, które działają jednak trochę inaczej.

mechanizm cacheowania danych na dysku i rozkładu danych po dyskach. To żre najwięcej ramu. Ogólnie zfs na unixoopartych (freenas na bsd, na linuxach podobnie) żre ram jak chrome na windows. Tak już jest i co tu więcej wyjaśniać?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

IBM - z/OS Distributed File Service

 

ZFS używa każdą ilość dostępnego RAMu do Cachowania najczęściej używanych danych oraz do przyspieszania jednoczesnego zapisu/odczytu z różnych dysków.

Sprawdzanie checksum także odbywa się w RAMie.

Kompresja danych np. przy użyciu LZJB, który akurat ma mały narzut na RAM i CPU.

 

Następnie jest rsync, czyli synchronizacja danych pomiędzy urządzeniami. ZFS nie ma problemu z synchronizacją danych do nawet 150GB pomiędzy 7-9 urządzeniami, więcej nie testowałem.

 

I wiele więcej.

 

RAM jest po to żeby go używać. ZFS to robi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie no spoko, ale to nie wyjaśnia w żaden sposób, czemu jest to akurat 8GB. Żadnego odniesienia do ilości dysków, ich pojemności, obciążenia, usług. Nic.

Zwykle jak kończy się RAM, to jest używany SWAP - wszystko działa wolniej, ale działa. Która część ZFS sprawia, że wolniejszy SWAP się nie nadaje? Cacheowanie? Sprawdzanie sum kontrolnych? Pierwsze i tak będzie działać szybciej, jeśli SWAP jest na SSD, który nie jest częścią ZFS pool. Sprawdzanie sum? To jasno określona funkcja, która powinna dać się przeliczyć na wymagania w kontekście użytej konfiguracji.

 

Żeby nie było - używałem FreeNAS z 4,8,16GB ram i na moje zastosowania nie widziałem różnicy w prędkości - ale nie używałem go z nie wiadomo jak dużymi dyskami i nie produkcyjnie.

 

Mi nie przeszkadza, że ZFS używa RAM. Ja chciałbym wiedzieć, dlaczego akurat 8GB jest podawane jako minimalne.

 

edit: przeglądam dokument zalinkowany powyżej, tam jest fragment:

Vnode cache
Every object in the zFS file system is represented by a data structure called a
vnode in memory. zFS keeps a cache of these vnodes and recycles them in a least
recently used (LRU) manner. Every operation in zFS requires a vnode and z/OS
UNIX keeps pointers to zFS vnodes. Because z/OS UNIX keeps references to zFS
vnodes, zFS might be forced to dynamically increase the size of this cache to meet
the demands of z/OS UNIX. To create a zFS vnode for a newly referenced file or a
newly created file for a user requires the pathlength to initialize the structure and
obtain its status information from the metadata cache. If the status of the file is not
in the metadata cache, then a disk I/O might also be required.
The vnode cache is stored in the zFS primary address space and the default
number of vnodes is 32,768

Teraz, pointer to jakieś 8 bajtów przy 64bitowym adresowaniu.

8*32768 = 256 MB.

To już jest jakiś trop, ale jeśli prawidłowy, to jest to wartość konfigurowalna(zresztą nawet tu opisana, że jest to dynamiczna wartość, a stare obiekty są wyrzucane)

Edytowane przez 1minuser

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...