Skocz do zawartości

LeacH

Forumowicze
  • Liczba zawartości

    448
  • Rejestracja

  • Ostatnia wizyta

Reputacja

0 Neutral

O LeacH

  • Tytuł
    Gaduła
  • Urodziny 16.05.1983
  1. zarządzanie pocztą to największa udręka, znam masę amdinów, którzy nie są w stanie ogarnać serwera pocztowego. Najczęściej to jak się ustawi to nikt nie chce tego ruszać. Zobacz Nie wiem co trzymasz na poczcie, że tyle to żzera miejsca - nie lepiej jest po prostu posprzątać pocztę - bo jak znam świat to 90% danych nie jest potrzebnych. Serwer może i ogarnie - pytanie czy jesteś w stanie przeżyć brak poczty przez powiedzmy 2 dni? W sensie chcesz trzymać ważne dane beż żadnej redundancji? (raid to nie backup btw) - odważny jesteś. Jasne, że lepiej jest mieć 4 dyskowy - tam de facto zyskujesz na powierzchni - bo użytecznie masz w 2 dyskowym 1 dysk, w 4 dyskowym są to 3 dyski (mówie o raid5 lub ekwiwalencie). A od WD to lepiej się trzymać z daleka - to syf, niedziałający nieresponsywny itd. Kupić porządny NAS i nie użerać się z tym. Lepiej nie ruszaj tematu - zresztą zobacz ile potrzebujesz danych i sprawdź sobie realnie co potrzebujesz. A 350 PLN rocznie to nie jest dużo - znam ludzi co dla własnej działalności płacą po 2 tys / msc za hostingi. Pamiętaj, że można zmniejszyć pakiet lub przemigrować do innego. Tam gdzie jest lepiej i/lub taniej.
  2. Myślisz, że w większości przypadków HEDT kupuje się tylko dla rdzeni? Nie, to cała platforma (kanały pamięci, linie PCI-ex). 16C będą bardzo drogie - w cenie obecnych niskich TR będą. Ciekawi mnie ile może kosztować pełny TR - to będzie już cena z kosmosu, ale 32C na wejście a pewno docelowo 64C - to robi wrażenie. Ogólnie AM4 w Zen2 będzie miało większą rozpiętość cenową niż obecnie - na 100% pojawią się procki za ~600$. Czy zjadaczowi chleba potrzeba więcej niż 8-12C? Im to nawet 6 bez problemu da radę. Skoro produkcja chipletów idzie pełną parą to na 100% będa w stanie zabezpieczyć na tyle sprawnych w 100% sprawnych chipletów, że technicznie nie ma z tym problemu. Intel olewa rynek - więc siła rzeczy albo AMD albo proszę się zapisać do kolejki - za miesiąc dostanie pan procka . Plus 50 rocznica firmy - więc trzeba coś pokazać mocnego. Wg szacunków z 1 wafla jest około 750 chipletów i przy ogromnej możliwości "odzyskiwania" - można załozyć że realny uzysk jest na poziomie 90%. Tak się okaże, ze AMD bez problemów będzie w stanie dostarczyć. A dlaczego 16C? Bo mogą zajechać intela - nie chodzi o rynek desktop ani mobile - oni wjeżdzają na chama w serwery, a teraz strasznie ilości zamówień idą. Intel bez 10 nano (a co najmniej rok im pozostał) nie może odpowiedzieć i bye bye marże. Chyba, że ktoś ma klapki i woli płacić więcej za 40% wydajności konkurencji (bo realnie tyle wyjdzie uwzględniając 2S vs 2S). Plus PCI-ex 4.0 to ogromny skok w przyszłość. Ile teraz serwerów musi mieć 2 procki bo brakuje linii? A tak to masz realnie 2x więcej. Jedyne co martwi to brak chipletowego APU - to będzie ostatni monolityk w historii AMD albo połączą CPU i iGPU i dadzą do tego kontroler (tj taki 2 chipowy MCM zamiast 3). @MaxForces - nie mówiąc, ze $ wtedy a $ teraz ma inną wartość. Procki były droższe (realnie) niż obecnie, a cena 8400 to jest jakaś kpina - o 60-70% za dużo.
  3. LeacH

    Instalacja DNS 320L

    do czego potrzebna Tobie ta apka? A jeśli chcesz coś działającego i stabilnego to ALT-F - tj nieoficjalny firmware, który działa, ma nawet smb2 (wg producenta nie da się tego zaimplementować) - bo jednak nie działałbym na SMB1, która jest równie dziurawa co ser. A apki na telefon w 99% to szajs, który ma wyglądać a nie działać.
  4. ale co jest w tym trudnego? Po 1-sze nie stawia się GUI tylko robi się tylko CLI (headless) i linux żre ok 200 MB ramu na start. Max goły system bez klientów (z włączonymi usługami) żre max 0,5 giga ramu. Nie mów mi, że prosty instalator debiana/ubuntu przerasta Ciebie. Przecież w 99% przypadków jest next, i agree, next Chyba, ze jakakolwiek forma tekstowa Ciebie przeraża. A to co było zaproponowane to gotowiec - więc tylko ustawiasz hasło i ip na statyczne (jest to w instalatorze). Potem przechodzisz na przeglądarkę z kompa i bawisz się ustawieniami serwera (w przypadku gotowca / webadmina) A w ogóle nie trzeba używać ubuntu - ja polecam bardziej debiana w wydaniu headless - chyba to się nazywa instalacja , do tego putty by logować się ssh i jak się nauczysz składni podstawowych komend (apt-get, dpkg -i, wget) to nie ma trudnego. Biorąc pod uwagę, że 99% takich rzeczy jest w gotowych paczkach do zainstalowania. Pisz dokładnie w czym jest problem to przeprowadzi się Ciebie za "rączkę". tak się każdym zarządza - zdalnie - nie obchodzi Ciebie czy jest przy Tobie czy na drugim końcu świata. Ja widziałem kogoś kto w putty ma zapisane ponad 900 serwerów (z czego wiele loguje się tylko za pomocą kluczy - ma ich chyba z 80 sztuk)
  5. LeacH

    Dual Xeon czy i9

    do czego będziesz używać tego? I soft jaki (rodzaj licencji - per core czy per socket?) Pewno wirtualizacja - tylko jaki i jaka licencja i jakie maszyny (linux, windows, coś innego?) Jak chcesz robić ten raid na NVME ? Bo na tej płycie to masz tylko 1 M.2 i musisz się posiłkować kartami PCI-ex na M.2 A nie myślałeś o rozwiązaniach AMD? Threadripper w pewnych przypadkach bije na głowę i9 (jeśli soft preferuje rdzenie nad taktami), zawsze zostają tańsze EPYC - tam to PCI-ex jest aż za dużo.
  6. LeacH

    Synology DS1517+

    komfortowa praca dla 20 grafików? Minimum 10 Gbit sieć - i to każdy komputer podpięty, NAS nawet można pomyśleć o podpięciu 2 nitkami (load balancing). Tj porządny switch - komputery na RJ45 a NAS na SPF+. Chyba, że na początek 4xGbit zagregowane a potem przejście na 10 giga. Ale jak dla mnie to może się okazać, że NAS jest za słaby na to by katować takimi odczytami. Tutaj raczej wchodziłbym o półkę, dwie wydajnościowe wyżej. Bo jednak CFIS (samba) wymaga od procesora wiele, a tam w środku jest celeron. Plus tez przy takiej ilości danych to Raid6 to minimum - choć dla mnie to Raid7 (Raid-Z3) to minimum. Ja bym celował w zwykły serwer - konfiguracja tego nie jest czarną wiedzą, ale jak się chce to można. Jeżeli ma być budżetowo to graficy muszą pobierać pliki i pracować na nich na komputerach i potem nagrywać na NAS - co traci sens.
  7. jeżeli bawisz się w ZFS to musisz mieć pełna "przeźroczystość" dysków - tj pełne posyłanie SMART do systemu. Tylko z tym jesteś w stanie zbadać stan dysku i działać proaktywnie - bo wnioskuje, że dane na tym będą coś warte. O takich rzeczach jak ECC to nie muszę mówić. W sieci są fajne gotowe skrypty do okresowego sprawdzania stanu dysków i informowania o ostrzeżeniach / błędach dysków (na poziomie sprzętowym) cache - wszystko zależy od obciążenia maszyny (ilu userów, jaki spodziewany ruch, jaka sieć) logi - de facto to zależy od góry. Oczywiście najlepiej robić backupy logów na zewnętrzny serwer (skrypt w cron) - jak to mawiają, strzeżonego Pan Bóg strzeże. Jeżeli się bawisz w cache typu L2ARC to 2 dyski (raid1) to minimum - jak się to położy to jest niewesoło.
  8. - Zwróć uwagę na wsparcie (zarówno techniczne - obsługa sprzętu jak i programowe (czy nie porzucili urządzenia) ) - Z reguły to stoją na linuxie z nakładką GUI przez www. Konfiguracja jest na zasadzie plug and play - jeżeli masz podstawowe umiejętności dotyczące sieci (ustawić sobie stałe ip w sieci) i umiejętności czytania to poradzisz sobie. Przy bardziej zaawansowanych rzeczach google służy pomocą. 99% rzeczy robi się obrazkowo, więc wiadomo o co chodzi. - jak najbardziej - wchodzisz do sklepu z apkami i działa a jak nie ma to w 99% ściągasz pakiet z programem i instalujesz. - jeżeli możesz się "przebić" przez router to jak najbardziej - albo jest ZFS, ostatnio używają BFS, dawniej ext3 lub ext4. Jak widoczne są - zależy jak udostępnisz to w pudełku - da się to zarówno jak udział sieciowy albo dysk iSCSI - tak, są takie możliwości - równie dobrze można sobie samemu to ustawić i wysłać na własne konto - to prosty skrypt do napisania. - dedykowane do tego celu - WD Red lub inne podobne - skierowane do NAS - zależy od dysku i konfiguracji - z reguły karta sieciowa ograniczy do 1 Gbit / prędkość Wi-Fi - wifi i NAS to złe połączenie - tylko i wyłącznie kabel. Wifi może być do klienta końcowego - usb tylko do obsługi dysków - nas nie jest widoczny jako dysk usb. - istnieje, ale trzeba to zainstalować na komputerze klienckim - nas będzie tylko przyjmować dane - więc nawet dysk na usb może spełnić tą funkcje - nie ma takiej potrzeby - te które mają hdmi to są uczciwie mówiąc gorsze. Lepiej jest transkodować multimedia i oglądać po sieci na smart tv - np PLEX tutaj świetnie gra (tylko trzeba kupić odpowiedni procek w NAS). - nie jest standardem dla niekrytycznych biznesowo operacji. Jeśli Stać Ciebie na takie coś i chcesz mieć pewność to możesz kupić prostego UPS - da radę utrzymać to z godzinę (jeśli masz częste przerwy na chwilę).
  9. zasadniczo SHR to raid programowy, R5 zwyczajowo jest raidem sprzętowym. Jedyną różnicą jest to, że można łączyć dyski o różnej pojemności i ta różnica pojemności jest wykorzystywana (w SHR). A co do drugiego pytania - w sensie czy jeśli odbudowujesz macierz i padnie Tobie 2-gi dysk. Jeśli masz SHR-1 i padnie podczas odbudowy dysk - dane lecą w kosmos, jeśli masz SHR-2 to macierz to przeżywa. Oczywiście w 2-giej opcji odbudowa trwa dłużej, bo musi "wyliczyć" dane dla 2 dysków i zapisuje na 1. Nie wiem czy oni odbudowują 2 dyski równocześnie czy pojedynczo (co jest z punktu bezpieczeństwa danych rozsądniejsze). Problemy mogą się pojawić w momencie gdy jakieś dane są uszkodzone (macierz nie była regularnie sprzątana i sprawdzana) - wtedy mogą pojedyncze pliki wypaść (chyba, bo nigdy nie miałem z tym styczności). SHR-1 zabezpiecza przed padem 1 dysku a SHR-2 przed 2. Jeśli wypadnie więcej dane są nie do odzyskania.
  10. nie stosuje się R5 nie tylko z tego powodu. Problemem są nienaprawialne błędy odczytu. One w przypadku wiszenia na 1 parzystości mogą uwalić całą macierz. Czas odbudowy to nie jest tak ważna rzecz jak niefizyczna możliwość wylotu danych w kosmos. Plus takie dyski mogą walić 100 MB/s w odbudowie (przy odpowiednio szybkim kontrolerze) więc 3h to nie jest długo jak na odbudowę. Gorzej jest z dyskami 10 TB które odbudowują się ponad dobę (w idealnych warunkach) - realnie ponad dwie. Wtedy to mając R6 jest niepewnie. Dlatego jeśli jest się świadomym zagrożenia z URE można używać R5 - bo używanie R6 w 4 dyskowej macierzy to nie jest opłacalne - to już lepiej dać R10. Z reguły ludzie polecają macierze 8-12 dysków, w dużych półkach ma się hot-spare gdzie jak się dysk wyłoży to automatycznie wchodzi na jego miesjce i odbudowa jest automatyczna.
  11. SHR bliżej jest do RAID5. Jedyna różnica, to możliwość użycia różnych pojemności. Dokładając 2 dyski 10TB to de facto zwiększysz powierzchnie do 26 TB. A najlepiej to dać 4x4 TB i w razie potrzeb wymienić dyski na większe i przebudować macierz w locie. a 918+ to produkt kierowany do średnich firm - ma możliwość dorzucenia dysków M.2 jako cache do SSD. Ma też zdecydowanie mocniejszy procesor i możliwość rozbudowy pamięci do 8 a nie 6 giga.
  12. LeacH

    2 x Synology DS1817+

    przynajmniej człowiek się czegoś nowego nauczył (że fibre, nie fibre - połączenie bezpośrednie działa zawsze, niezależnie od nośnika danych). A co do tych backupów - pakowanie jest po prostu łatwiejsze do przenoszenia i zarządzania (lepiej operować na jednym pliku a nie na masie - bo nie wiem ile będzie "koncówek" do backupów). A co do synchronizacji to najłatwiej to będzie rsync zrobić po wcześniejszym przeniesieniu/skasowaniu na urządzeniu docelowym. Zresztą o ile się nie myle to możesz skrypt mieć na docelowym urządzeniu i stamtąd się lognąć po ssh do "dawcy danych" i zapuścić rsync'a. Nie wiem na czym bazuje synology - na debianie czy na centosie, ale w obu to prosty skrypt w bash'u. I to wrzucić w cron'a i wiesz wszystko co jak działa. a nawet można przy odrobinie kombinacji mieć loga wysyłanego na maila.
  13. LeacH

    2 x Synology DS1817+

    wszystko co chcesz jest osiągane w ramach systemu - ew musisz doinstalować funkcję replikacji, ale takie coś jest u Synology. Nigdy nie spotkałem się połączeniem światłowodem - zawsze coś było po drodze (router, switch) ale powinno to działać identycznie jak kabel. A co do robienia kopi to robisz prosty skrypt by pakował plik i posyłał na dany adres ftp i nadawał mu odpowiednią nazwę (można użyć po prostu daty). A z drugiego urządzenia sprawdzenie ile jest kopii i skasowanie ich jeżeli jest więcej niż potrzebujesz. Puścić 2 skrypty w crona i sprawdzać okresowo czy działają albo nawet zrobić sobie plik z logiem i podglądać go wtedy gdy powinien skończyć (czy wsio jest ok).
  14. LeacH

    2 x Synology DS1817+

    szybkie pytanie - czy serwery się widzą (czy można traktować je jako działające w jednej sieci)? Mirroring bez problemowo się da robić wbudowanymi urządzeniami, kopie to wystarczy puścić skrypt - albo pakujesz i kopiujesz albo od razu kopiujesz. Musisz tylko zadbać o to by znajdowały się w tej samej podsieci adresowej - ale skoro jest światłowód i komputery/urządzenia się widzą to ew kwestia konfiguracji ruchu.
  15. LeacH

    Dyski do NASa

    Zasadniczo takie rzeczy nie powinno się gasić - to ma działać ciągle. Od restartów może się stać coś niedobrego. (ile to serwery mają uptime? widziałem takie po 2 lata - choć zastanawiam się dlaczego ktoś nie robił updatów bezpieczeństwa to ja nie wiem). Co do dysków - wiele też zależy od szczęścia - bo bywają padaczne partie i najlepiej mieć każdy dysk z innej serii produkcyjnej (ryzyko padu paru dysków naraz zmniejszone z punktu statystyki). A co do gaszenia - coś co pobiera ~15W podczas "jałowej" pracy to bardziej będzie irytować hałasem niż wkurzy na rachunku za prąd. Plus też możesz postawić sobie tam inne usługi - od multimedialnych do backupowych a nawet prywatny serwer ftp. Choć to ostatnie zależy od łącza.
×
×
  • Dodaj nową pozycję...