eXma » Diskutieren » Computer und Technik
Startseite - Veranstaltungen - Mitglieder - Suche
Vollständige Version anzeigen: Neuer Homeserver gesucht
mcnesium
Ich bin auf der Suche nach neuer Hardware für meinen Homeserver. Allerdings bin ich mit der Frage, was ich eigentlich will, etwas überfordert. Darum möchte ich euch mal dazu interviewen.

Bisher habe ich hier ein Mini-ITX Board mit VIA C7-D Prozessor mit Lüfter und einem Standard-Netzteil lose in den Flurschrank geschraubt. Zwei 1TB-Festplatten (RAID1) sind per SATA angeschlossen. Da ich kurz davor stehe, das System neu aufzusetzen, dacht ich mir dass man das inzwischen 6 Jahre alte Board mal ablösen könnte.

Das Ding soll wenig Strom verbrauchen und im Optimalfall ohne Lüfter auskommen. Da es unter anderem DVB-T dekodieren soll, braucht es wesentlich mehr Bums als ein Raspberry Pi. Außerdem brauch ich mindestens zwei SATA-Anschlüsse für die Daten-Platten, und ich hab mir überlegt, dass eine separate SSD für das Betriebssystem die Systempartition auf dem RAID ablösen soll.

Es gibt ja inzwischen auch ne ganze Menge dieser Mini-PCs, wobei sich hier die Frage stellt, wie ich die Festplatten daran anschließe. Sone NAS-Teile die man so kaufen kann, haben nach meiner Erfahrung wieder zu schwache Prozessoren und man kann nicht irgendein Linux drauf installieren weil die Hardware auf bestimmte proprietäre Kernel-Patches angewiesen ist. Gibt es da Wissens-Updates für mich?

Ansonsten wird es wohl doch wieder auf so ein einzelnes Board hinauslaufen. Was kauft man denn da heutzutage so? Wieder ein VIA? Irgendwas mit nem Atom? Celerons gibts auch wieder, keine Ahnung was die so taugen.

Budget für das Ding soll auch nicht unbedingt ins unermessliche steigen. Das alte Board hab ich damals für um die 70,- gekauft, keine Ahnung ob ich in der Preisregion heute was sinnvolles bekomme. Die System-SSD muss nicht groß sein, aber kriegt man heutzutage überhaupt noch 32G-SSDs? Fragen über Fragen. Was denkt ihr darüber? Schlagt mal was vor…
iggi
Ich hab hier drei kleine Intel-Boards rumliegen. Keine Ahnung, was da für CPUs drauf sind, aber sie haben jeweils 1 GB Ram und zwei SATA-Anschlüsse. Ich kann dir gerne eins zum Testen überlassen.
mmarx
TYAN GN70-BP010? :P
schimmi
Ich persönlich mag ja den etwas älteren HP G7-Microserver mit AMD neo Dualcore. Den gibt's recht günstig bei ebay, der Verbrauch ist auch ganz i.O. (roundabout 15w, 35 wenn alle platten drehen). Grundlegend hat er 4 Platteneinschübe, kombiniert mit einem HP-Raidcontroller (HP P410, ~EUR60) werden diese Einschübe hotplugfähig. Das gute daran: das Teil besitzt einen 5,25" Slot, mit einem miniSAS->4xSATA-Kabel bekommt man unter Verwendung eines 5,25" großen 4x 2,5" Platteneinschubs weitere Laufwerke angeschlossen. Einen Fernverwaltungsadapter für EUR80 gibt's auch noch oder man steckert stattdessen ne PCIe1x-Karte seiner Wahl da rein. Der Preis ist jetzt wahrscheinlich überzogen, aber dafür, dass bei dir eh grad alles rumflattert wärs ne prima Lösung, um da mal Ordnung reinzubringen. Die Leistung ist nicht umme, übersteigt aber locker alle ARM-basierten Geräte im bezahlbaren Rahmen.

32er SSDs gibt's nur noch gebraucht, die Speicherzellen sind wahrscheinlich schon durchgelutscht. Bei Preisen um EUR40-50 für 128er SSDs ist das aber ansich auch kein großes Manko.

Fertig-NAS sind wenig überzeugend, brillieren maximal mit Durchsatzraten aber hören bei DVB-Encoding schnell auf, Sinn zu ergeben. Synologys/Qnaps mit Intel Atom/Celeron sind dann wiederum viel zu teuer. Was da wiederum nervt sind die trägen AJAX-Webinterfaces und eine lebenslange Bindung an das vorinstallierte OS (mal einige wenige Linux-Hacks außen vor genommen).

Wenn du dich ein wenig gedulden kannst: ich mustere gerade meinen 2. Microserver aus, den kannst du dir ja mal reinziehen. Kostenpunkt etwa EUR50.
mcnesium
Tja ja das mit dem Preis ist schon sone Sache. Wie gesagt, ich wills nicht übertreiben. Irgendwelche Gehäuse-Lösungen sind eigentlich nicht wirklich wichtig, weil das sowieso wieder in den Flurschrank wandert. Dafür würd ich das Geld lieber sparen. Festplatten hab ich ja da, und es ist auch nicht geplant, da noch mehr ranzuhängen.

Nachdem ich das nochmal ein bißchen durchdacht sowie mit Leuten drüber geredet hab, die den Eindruck erweckt haben, Ahnung und auch ne Meinung zu haben, bin ich zu dem Entschluss gekommen, dass das mit der zusätzlichen SSD wohl doch nicht so der beste Weg ist. Stattdessen solls doch lieber wieder ein normales RAID1 werden, wegen der Redundanz.

Die Boards von Iggi sind technisch kaum neuer als mein altes Board, darum eher nicht das was ich suche. Was ist dein altes denn für eins, schimmi?

Der Intel J1900 scheint wohl das Gerät der Wahl zu sein, das den VIA C7 nach 6 Jahren ablösen kann. Gibt es Alternativen?

Nach einigem Suchen hab ich sogar ein Board gefunden, dass meinen Ansprüchen gerecht werden könnte: das ASRock Q1900M, die mATX- und nicht die mITX-Version weil ich eigentlich genug Platz im Flurschrank hab um auch da ein paar Euro sparen zu können. Es gibt auch von anderen Herstellern solche Boards, aber so wie ich das sehe nicht zu dem Preis. Kann das jemand eventuell widerlegen?
schimmi
http://www.amazon.de/MicroServer-1-5GHz-13...l/dp/B005LRCASM

System- von Nutzdaten zu trennen (SSD + RAIDx) ist meines Erachtens kein schlechter Weg. Du bist unabhängiger, eine mögliche Datenrettung konzentriert sich rein auf unersetzbare Daten und du brauchst die ersetzbaren Daten auch nicht redundant ausführen. Ein regelmäßiges Backup der paar MB von /etc reicht zum sanieren mittels Bootmedium.
mcnesium
Ich bin mir halt nicht sicher ob ich lieber was gebrauchtes nehmen soll, was entweder schon Verschleißerscheinungen hat (Lüfter laufen unrund oä) oder eben bis zum Ende aller Tage gut läuft, während bei neu gekaufter Hardware zwar die Garantie lockt, dafür aber drei Tage nach deren Ablauf die geplante Obsoleszenz greift und ich mir in zwei Jahren wieder was neues kaufen muss. Irgendwie vertrau ich der Industrie in der Hinsicht allgemein heutzutage nicht mehr so wie noch vor 5-6 Jahren #firstworldproblems
iggi
Die Propeller kann man doch gegen leisere austauschen.
mcnesium
Das wär sicher möglich, fraglich ist aber ob man da immer so einfach rankommt, vor allem bei Kisten wie der von schimmi.

Gut, nochmal zurück zum Problem System auf andere Platte auslagern: Was spricht dagegen, das Betriebssystem auf einem USB-Stick zu installieren? Dann könnte ich mir die teure Zusatzfestplatte sparen, zumal ich sowieso nicht soviel Platz fürs System brauche. Zu viele Schreibzugriffe und dadurch verkürzte Lebenszeit des Speichermediums kann ich zum Beispiel mit ramlog verringern, das Logfiles erstmal nur in den RAM speichert. Spricht noch was dagegen?
schimmi
Zitat(mcnesium @ 15 Apr 2015, 13:04)
Das wär sicher möglich, fraglich ist aber ob man da immer so einfach rankommt, vor allem bei Kisten wie der von schimmi.

Gut, nochmal zurück zum Problem System auf andere Platte auslagern: Was spricht dagegen, das Betriebssystem auf einem USB-Stick zu installieren? Dann könnte ich mir die teure Zusatzfestplatte sparen, zumal ich sowieso nicht soviel Platz fürs System brauche. Zu viele Schreibzugriffe und dadurch verkürzte Lebenszeit des Speichermediums kann ich zum Beispiel mit ramlog verringern, das Logfiles erstmal nur in den RAM speichert. Spricht noch was dagegen?
*


http://openquery.com.au/blog/hint-day-noatime-relatime-fstab

Lüfti kannste da leicht wechseln. Ist ein großer 120er auf der Rückseite. Maximal das Netzteildingens wird fummeliger, so wie das bei allen Netzteilen der Fall ist.
seb
Zitat(mcnesium @ 15 Apr 2015, 13:04)
Das wär sicher möglich, fraglich ist aber ob man da immer so einfach rankommt, vor allem bei Kisten wie der von schimmi.

Gut, nochmal zurück zum Problem System auf andere Platte auslagern: Was spricht dagegen, das Betriebssystem auf einem USB-Stick zu installieren? Dann könnte ich mir die teure Zusatzfestplatte sparen, zumal ich sowieso nicht soviel Platz fürs System brauche. Zu viele Schreibzugriffe und dadurch verkürzte Lebenszeit des Speichermediums kann ich zum Beispiel mit ramlog verringern, das Logfiles erstmal nur in den RAM speichert. Spricht noch was dagegen?
*



ein usb stick is wesentlich unsicherer in hinsicht lebenszeit und ausfallsicherheit als nen raid - wenn du ein sw-raid1 nimmst spricht meiner meinung nach nichts dafür das os nicht auch auf das raid zu packen

zausel
Hallo Herr Nesium,
ich biete dir einen AMD 6400+ mit Kühler, 4GB DDR2 und ein be!quiet ~400W für 45€ (verhandelbar) + 1 Jever (nicht verhandelbar) cool.gif
Du müsstest dir also nur noch ein Brett für ~30€ besorgen.


Padex
Das ASRock schaut doch gut aus. smile.gif Das wäre sicher für viele auch als Desktop-PC ausreichend... 4 x 2.41 GHz Peak... einzig SATA ist nur II und nicht schon III also 6 GB/s.
USB 3.0 geht auch... tdp der CPU bei 10 W. smile.gif
mcnesium
Zitat(schimmi @ 15 Apr 2015, 00:10)
System- von Nutzdaten zu trennen (SSD + RAIDx) ist meines Erachtens kein schlechter Weg.
*

Zitat(seb @ 15 Apr 2015, 17:32)
wenn du ein sw-raid1 nimmst spricht meiner meinung nach nichts dafür das os nicht auch auf das raid zu packen
*


Dieser Aspekt kann gern noch etwas näher ausdiskutiert werden. Sicher bin ich nämlich noch nicht, wie ichs nun machen will.

schimmi
Wenn du am Stick festhälst packs lieber aufs Raid :v
mcnesium
Das ASRock hat 6 USB2 Ports, da könnte ich mir doch fürs OS auch ein RAID aus zwei USB-Sticks bauen... g.gif
Polygon
Zitat(mcnesium @ 18 Apr 2015, 19:31)
Das ASRock hat 6 USB2 Ports, da könnte ich mir doch fürs OS auch ein RAID aus zwei USB-Sticks bauen... g.gif
*


Dafuq did I just read?

Da geht doch sicher auchn RAID6 mit 5 Sticks und einer Hot-Spare...
seb
Zitat(mcnesium @ 18 Apr 2015, 19:31)
Das ASRock hat 6 USB2 Ports, da könnte ich mir doch fürs OS auch ein RAID aus zwei USB-Sticks bauen... g.gif
*


wtf .. just dont .. wink.gif
mcnesium
Statt euch drüber lustig zu machen, könntet ihr ruhig mal schreiben, was daran so falsch sein soll. Schließlich ist der Thread hier nicht nur zu eurer Unterhaltung da…
schimmi
In der Regel sind in gängige Interfaces zur Datenübertragung (SATA, SAS, M2) auf beiden Seiten (Host + Laufwerk) jeweils Fehlerkorrekturmechanismen verankert, die man so bei USB nur rudimentär vorfindet. Außerdem ist da dieses Roothub-Konzept, sprich: wenn mal ein angeschlossenes Gerät quer schießt, wird der ganze Bus geresettet. Bei einer SATA Punkt-zu-Punktverbindung hast du das nicht. Und du bist doch auch nicht der erste Mensch, dem ein USB-Stick mir nichts dir nichts einfach mal breit war. Ich habe hier einen Berg von Sticks mit defekten Blöcken, gefakter Speichergröße oder einfach nur durchgebrannter Elektronik. Die Fehlerhäufigkeit ist aus meiner Sicht wesentlich stärker ausgeprägt als bei konventionellen Datenträgern wie Magnetplatten oder Solidstate Drives, die im Datenblatt immerhin eine MTBF stehen haben, mit der man arbeiten kann. SSDs haben meist auch einen guten Controller, der in Verbindung mit Caches Schreiboperationen abfängt, zusammenführt und erst dann optimiert auf den Datenträger überträgt. Bei USB wird sofort ne Speicherzelle angefasst, ob der Zugriff nun Sinn macht, doppelt erfolgt oder nicht. Zum Schluss bleibt noch die geringe Datentransferrate und hohe Latenz bei USB2.0 - wenn du dazu noch zwei Sticks an einem Hub betreibst, die ständig synchronisiert werden, steigt beides noch mal ne Ebene tiefer. Grundsätzlich kannst du dir aber ein Stick-Raid bauen. Du brauchst nur Blockdevices, und diese Voraussetzung erfüllen Sticks.

Es gibt durchaus auch gute Sticks, die sich für einen solchen Einsatz eignen und bspw. im Microserver auch intern Anschluss finden (wenngleich dann nur als einzelner Stick ohne RAID). In der ESX-Welt ist das bspw. Gang und Gäbe und dahingehend gibt es sogar BestPractises beim Einsatz von Sticks von den Herstellern selbst. Da haste dann auf einem Stick/einer SD-Card ein bissl Linux und einen Baremetal-HV drauf, der ganze Schmonz landet im RAM und das wars. Das ist dann aber auch so konstruiert, dass du eine zentrale Verwaltung mit der Config des Systems hast und nicht weinen musst, wenn dir mal ein Datenträger abraucht.

Generell sind gute Sticks teuer und viel steht dann nicht mehr zwischen einer kleinen und brauchbaren SSD.
Polygon
Zitat(mcnesium @ 19 Apr 2015, 12:22)
Statt euch drüber lustig zu machen, könntet ihr ruhig mal schreiben, was daran so falsch sein soll. Schließlich ist der Thread hier nicht nur zu eurer Unterhaltung da…
*


Wie Schimmi schon sagte, Sticks nimmt man üblicherweise nur dann, wenn die normalerweise nicht im laufenden Betrieb beschrieben werden. So läuft das bei FreeNAS, VMWare ESXi (jdf. kann man es da so machen, der Stick dient dann mehr oder weniger zum booten bis man sich per iSCSI o.Ä. das eigentliche System holt) und diversen anderen. Wenn bei FreeNAS der Stick abraucht, liegt die Config auf den Platten, man packtn neuen Stick rein und alles läuft (idealerweise) wieder.

Desweiteren seh ich jetzt eh nicht so das Problem, das Linux mit auf das Daten-RAID zu packen. Vielleicht kannst du ja mal deine Bedenken diesbezüglich schildern.
mcnesium
Na das sind doch mal paar hilfreiche Infos, vielen Dank! Das ganze hier soll doch nicht nur für mich sein. Vielleicht kommt der ein oder andere auch auf den Geschmack, sich von kommerziellen Cloudlösungen zu verabschieden und stattdessen sein eigener Hoster für dies und das zu werden. smile.gif



Zu dem USB-RAID: ich hatte mir das so ein bißchen wie mit den SD-Karten im Raspberry Pi vorgestellt, aber offensichtlich führt uns das doch nicht weiter. Wieder schlauer geworden.

Weitere Überlegungen: ich hab zwar noch keine Ahnung von „diesem Docker“, aber was ich bisher so von Leuten mitbekommen hab, scheint das ja ne ganz vernünftige Angelegenheit zu sein. Damit lassen sich wohl relativ einfach kleine oder große Systemkomponenten kapseln und auch Backups machen. Wenn ich /etc /var /home und /root noch separat spiegele (was ich übrigens ohnehin schon mache), dann sollte doch im Fall eines SSD-Ausfalls ein neues System relativ fix wieder aufgesetzt sein.

Andererseits habe ich dann definitiv erstmal Downtime, was mit dem System auf dem RAID nicht der Fall wär. Meine Bedenken dahingehend sind eigentlich eher aus Gründen des Ordnungsempfindens. Es fühlt sich irgendwie aufgeräumter an, wenn die Nutzdaten vom System auch physisch getrennt sind.

Aber ein zweites HDD-RAID fürs System ist auch irgendwie übertrieben, zumal ich jetzt keine 30G für die Systempartition brauch. Und da sind noch Mails, Chatlogs und paar andere Sachen dabei, die ich bei einem neu aufgesetzten System auf die Datenpartition packen würde. Darum auch der Gedanke an son 32G-Stick fürn 10er. Abgesehen davon bräuchte ich dann auch wieder noch einen Controller, wenns das ASRock wird, weil da nur zwei SATA-Ports drauf sind.
I.I
Zitat(mcnesium @ 12 Apr 2015, 16:58)
Ich bin auf der Suche nach neuer Hardware für meinen Homeserver. Allerdings bin ich mit der Frage, was ich eigentlich will, etwas überfordert. Darum möchte ich euch mal dazu interviewen.

Bisher habe ich hier ein Mini-ITX Board mit VIA C7-D Prozessor mit Lüfter und einem Standard-Netzteil lose in den Flurschrank geschraubt. Zwei 1TB-Festplatten (RAID1) sind per SATA angeschlossen. Da ich kurz davor stehe, das System neu aufzusetzen, dacht ich mir dass man das inzwischen 6 Jahre alte Board mal ablösen könnte.

Das Ding soll wenig Strom verbrauchen und im Optimalfall ohne Lüfter auskommen. Da es unter anderem DVB-T dekodieren soll, braucht es wesentlich mehr Bums als ein Raspberry Pi. Außerdem brauch ich mindestens zwei SATA-Anschlüsse für die Daten-Platten, und ich hab mir überlegt, dass eine separate SSD für das Betriebssystem die Systempartition auf dem RAID ablösen soll.

Es gibt ja inzwischen auch ne ganze Menge dieser Mini-PCs, wobei sich hier die Frage stellt, wie ich die Festplatten daran anschließe. Sone NAS-Teile die man so kaufen kann, haben nach meiner Erfahrung wieder zu schwache Prozessoren und man kann nicht irgendein Linux drauf installieren weil die Hardware auf bestimmte proprietäre Kernel-Patches angewiesen ist. Gibt es da Wissens-Updates für mich?

Ansonsten wird es wohl doch wieder auf so ein einzelnes Board hinauslaufen. Was kauft man denn da heutzutage so? Wieder ein VIA? Irgendwas mit nem Atom? Celerons gibts auch wieder, keine Ahnung was die so taugen. 

Budget für das Ding soll auch nicht unbedingt ins unermessliche steigen. Das alte Board hab ich damals für um die 70,- gekauft, keine Ahnung ob ich in der Preisregion heute was sinnvolles bekomme. Die System-SSD muss nicht groß sein, aber kriegt man heutzutage überhaupt noch 32G-SSDs? Fragen über Fragen. Was denkt ihr darüber? Schlagt mal was vor…
*


Never Touch a Running System. Wozu was ändern wenn es doch läuft. Ich habe auch schon überlegt ob ich meine System mal aufrüste, aber wenn ich es mir dann recht durchdenke, ist es eigentlich unnötig. Klar Plattenupgrades macht man mal so. Software klar, wieso nicht, aber board und Prozessor? Das Netzteil tauscht man auch nur wenns wegraucht.

Vor einer Weile hatte ich mich mal informiert was man denn jetzt so einbaut. Vor allem ging es mir um Strom sparen und trotzdem im richtigen Moment Power haben. Nach einigen Recherchen stand der i3 bei mir ziemlich weit oben. Eventuell guckst du dir den mal an. Die Boards fressen ja nicht ganz soviel, bzw. kommts da auf die eigenen Ansprüche an.

Meinen Homeserver hatte ich 2012 aufgesetzt, mit Komponenten die ich 2008 gekauft hatte. Seit dem läuft er im Prinzip heute noch genauso. Ab und zu ist natürlich mal etwas Software rausgeflogen bzw. wurden mal die Festplatten geupgradet, mehr aber auch nicht.

Ich habe ein Strommessgerät an meinen Homeserver angeschlossen. Er verbraucht durchschnittlich 61 Watt und läuft das ganze Jahr. Sind so 115 Euro im Jahr. Damit du vergleichen kannst hier mal die Hardware.
  • Mainboard: GA-MA78GM-S2H
  • CPU: Amd Athlon 64 x2 5200+ (weiß nicht genau ob die EE version)
  • Netzteil: Be Quite Dark Power Pro, 420 Watt
  • RAM: 6 GB DDR2 800mhz
  • Festplatten:
    • Intern: 2 * 2TB im RAID 1 ist schon wieder voll -> upgrade auf zweimal 4 TB geplant
    • Intern: 1 mal 500 GB mit Ubuntu 12.04.5
    • Extern: 1TB an USB für Backup
  • Netzwerkkarten:
    • Wifi: TP-LINK TL-WDN4800 (Da Server auch WLAN Router, spart etwas strom im Jahr)
    • 2 * Ethernet: gigabit LAN für intern und extern
[attachmentid=51486]

[attachmentid=51487]

Softwaremäßig läuft auf diesem Gerät einiges und es funktioniert tadellos ohne den Prozessor stark zu beanspruchen und damit den Stromverbrauch zu erhöhen. Ich bin sehr stolz auf meinen Server und was er leistet. Hier mal die Fertigkeiten bzw. Softwaredienste.
  • 5ghz Wifi mittels hostapd -> sehr schnell, sehr stabil, lohnt sich für Wohngebiete und kleinere bis mittlere Wohnungen
  • Aria2 Downloader -> sehr zu empfehlen, so kann man remote downloaden also im Firefox herunterladen läd nicht mehr über den Homeserver / NAS auf den Client im Netzwerk sondern direkt auf den Server selbst. Schont das Netzwerk und der client kann getrost ausgeschaltet werden.
  • Transmission daemon
  • Subsonic (Music Cloud auf eigenem Server von Sindre Mehus) -> sehr zu empfehlen
  • nginx
  • redmine
  • tomcat
  • SSH (Key Authentication + Port Knocking)
  • NFS (sehr unsicher -> unbedingt Firewall erforderlich)
  • Shorewall Firewall
  • wordpress (usv-tu-schach.de)
  • dyndns -> tt-server.de und usv-tu-schach.de landen auf meinem Homeserver
  • munin
  • Ubuntu Softraid 1
  • rsnapshot weekly backup
  • git repository hubs (gitorious, gitlab, etc)
  • piwik, open source google analytics pendant
  • postfix email
  • owncloud (nicht mehr aktuell -> war nicht überzeugt von dieser buggeschichte, aktuell schaue ich mir PowerFolder an, generell sollte man bei dateikritischen bzw. sicherheitskritischen Sachen eher in die Javawelt als in die PHP welt schauen.)


@ALLE anderen

Ich kann nur jedem empfehlen sich einen Homeserver einzurichten. Am Anfang kostet es viel Zeit aber es kommt ein Zeitpunkt ab dem einem das System nur noch perfekt dient und wirklich nützt. Gerade was Ordnung bei den Daten angeht. Cloud Dienste bzw. Erreichbarkeit von Daten übers Netz. Datensicherheit, Datenintegrität. Webpräsenzen jeglicher Art.
schimmi
I.I, das wird schon der EE sein, der normale hat bereits bei ein wenig Arbeit eine TDP von 89W (CPU only). Für deinen Einsatzzweck ist das natürlich nicht schlecht, da du den Einsatzzweck durch die vielen Anwendungen sehr breit gefächert hast. Dennoch: je mehr Anwendungen du auf dein NAS packst, desto mehr mögliche Fehlerquellen, Sicherheitslücken usw. entstehen an dieser für deine wichtigen Daten vorgesehenen Plattform.
I.I
Zitat(schimmi @ 22 Apr 2015, 22:59)
I.I, das wird schon der EE sein, der normale hat bereits bei ein wenig Arbeit eine TDP von 89W (CPU only). Für deinen Einsatzzweck ist das natürlich nicht schlecht, da du den Einsatzzweck durch die vielen Anwendungen sehr breit gefächert hast. Dennoch: je mehr Anwendungen du auf dein NAS packst, desto mehr mögliche Fehlerquellen, Sicherheitslücken usw. entstehen an dieser für deine wichtigen Daten vorgesehenen Plattform.
*


http://de.wikipedia.org/wiki/Thermal_Design_Power

Von der TDP kann mich nicht direkt auf den Stromverbrauch schließen. Steht unter Aussagekraft der TDP im Wikilink.

Ja ich habe viel raufgepackt aber bin auch relativ sicher aufgestellt. Man kann so ein System ordentlich härten. Die größte Schwachstelle (wenn nicht gerade sowas wie heartbleed kommt) ist meist eh der Webserver bzw. php Sicherheitslücken. Neben DNS und ssl ist auch auf dem Server nix groß nach außen hin offen. NFS ist extrem unsicher weswegen man unbedingt eine Firewall benötigt bzw. das ganze mit Kerberos aufzieht. Ldap ist zwar installiert aber an Kerberos habe ich mich noch nicht rangetraut.

Neben den abgeschotteten Diensten sollte man natürlich auch ein vernünftiges user management haben um nur bestimmte nutzer/gruppen auf bestimmte bereiche zu lassen. Aber das versteht sich natürlich von selbst.
schimmi
Das stimmt, ist aber ein guter Näherungswert. Ansonsten hast du dir durchaus einen Kopf gemacht, das sieht man schon an der Auswahl der Applikationen. Ein NAS sieht für mich trotzdem anders aus. Puristischer smile.gif
mcnesium
Nur um etwaigen Fehlinterpretationen vorzubeugen: auch bei mir macht das alte Gerät weit mehr als nur Network Attached Storage. Da läuft unter anderem Dovecot+Roundcube, Prosody, Weechat, MPD, Webhosting, Webprogrammierung, diverse git-Repos, selfoss, Owncloud incl. Caldav/Carddav, Cups, TVHeadend, MiniDLNA und ich hab sicher noch zwei drei Sachen vergessen. Und ja, wenn mal was mit der Bude nicht in Ordnung ist, geht das dann meist erstmal alles nicht mehr, und dann kuckste erstmal dumm.

I.I: da das Teil im Moment aus Gründen™ metaphorisch gesagt auf Notstrom fährt, ist never touch a running system nicht mehr gegeben. Es lief jetzt seit 6 Jahren durch, nur durch dist-upgrades aktualisiert. Durchschnittlich 42 Watt, mit nervigem 40er Lüfter oben drauf. Der soll jetzt mal verschwinden, wenn das System ohnehin neu aufgesetzt werden muss.



Hat eigentlich noch jemand ne Meinung zu System mit aufs RAID vs. System separat?

I.I
Zitat(mcnesium @ 23 Apr 2015, 09:59)
Nur um etwaigen Fehlinterpretationen vorzubeugen: auch bei mir macht das alte Gerät weit mehr als nur Network Attached Storage. Da läuft unter anderem Dovecot+Roundcube, Prosody, Weechat, MPD, Webhosting, Webprogrammierung, diverse git-Repos, selfoss, Owncloud incl. Caldav/Carddav, Cups, TVHeadend, MiniDLNA und ich hab sicher noch zwei drei Sachen vergessen. Und ja, wenn mal was mit der Bude nicht in Ordnung ist, geht das dann meist erstmal alles nicht mehr, und dann kuckste erstmal dumm.

I.I: da das Teil im Moment aus Gründen™ metaphorisch gesagt auf Notstrom fährt, ist never touch a running system nicht mehr gegeben. Es lief jetzt seit 6 Jahren durch, nur durch dist-upgrades aktualisiert. Durchschnittlich 42 Watt, mit nervigem 40er Lüfter oben drauf. Der soll jetzt mal verschwinden, wenn das System ohnehin neu aufgesetzt werden muss.
Hat eigentlich noch jemand ne Meinung zu System mit aufs RAID vs. System separat?
*


RAID und System trennen, versteht sich von selbst denke ich! Der gesunde Menschenverstand sagt einem das schon :-). Du schreibst ja oben auch schon selber, dass sich das irgendwie falsch anfühlt beides auf eins zu packen. Eine Availability von 100% ist bei dir sicherlich auch nicht von Nöten.

Ich denke wir reden über ein Softraid mittels mdadm.

Warum nicht System auf Raid?

1.) Systemdaten müssen selten dupliziert werden
2.) Die Konfigurationsdaten für das Raid liegen selber auf dem Raid, eventuelle komplikationen bei neuinstallation des Systems werden vermieden.
3.) Softraid 1 ist langsam beim schreiben, system schreibt zusätzlich
4.) Upgrade des Raids (wie bei mir demnächst von 2TB auf 4TB ist ohne Systemwechsel schnell und unkompliziert möglich) Wenn du jetzt die neuen zwei 4 TB platten an zwei neue SATA ports anschließt und sie dann als neues RAID konfigurierst und deine raid config liegt auf dem alten raid system, dass klingt ja schon merkwürdig. Da kannst du ja das alte System ohne Zusatzaufwand nie trennen, ohne das die dein neues Raid wegfliegt.

Wenn du jetzt sagst du lagerst /etc und so weiter auf ne andere Platte aus, nun gut dann kann dort auf der Platte eigentlich auch das gesamte System liegen und du legst dir halt partitionen für die bestimmten Bereiche an.

Also ganz einfach SYSTEM und RAID trennen.


Mein Raid ist unter /media/nfs/share/data gemountet, die nfs clients binden sich per autofs den mountpoint an die gleiche Stelle in Ihrem System ein, so funktionieren auch alle Links. Die Clients haben dann im Home den Download ordner auf /media/nfs/share/data/Download gelinkt. Naja und so ist alles ziemlich easy. Sobald ein Client auf Download schreiben will und im Netzwerk ist wird das NFS gemounted und aufs RAID geschrieben. Von einem anderen Client kann man da dann auch zugreifen. Es gibt natürlich auch andere Lösungen.
seb
Da möchte ich aber entschieden widersprechen.

Es ist zwar richtig das sich auf dem System ansich nicht viel ändern wird, jedoch ist es auch um längen wahrscheinlicher das ein Datenträger ausfällt als 2. Erst recht wenn wir hier von günstigen USB Sticks reden.

Zur Raidconfig: das ist bei einem Raid1 reichlich unerheblich. Die Einzelnen Teile des Raid1 kann er in dem Fall immer einzeln mounten und starten, und wenn man es richtig macht (ein raid1, lvm drüber) dann hat das auch nicht viel mit "raid-config" zu tun, zumal das Argument hier noch wäre: man kann diese Config noch lesen - wenn der USB Stick abraucht ist man aufs Backup angewiesen (sodenn man denn eins hat wink.gif.

Softraid 1 und langsam schreiben ist auch sehr vergleichsabhängig - das System schreibt hier sicher nicht viel und die Datenraten werden für seien Zweck hinreichend sein.

Auch ein Upgrade ist hier super einfach - wie gesagt - ein raid1 unter nem lvm - das ist sehr einfach migriert - auch mit dem System auf dem Raid.

Welche Vorteile hat das? .. _ALLE_ Daten sind gesichert, wenn der Flash-speicher (oder wo auch immer das System drauf ist) abraucht ist die Trauer groß - die Zeit die man benötigt um das System wiederherzustellen ist um ein vielfaches größer als einfach eine Platte auszutauschen.

Meines Erachtens nach gäbe es nur einen Anwendungsfall für ein System nicht auf dem Dateraid: wenn man die Platten zum Stromsparen runterfahren will, da handelt man sich für die Kosten des Stromsparens aber oben genannte Probleme ein.

Also ich rate sehr stark zum System auf dem Raid. Von der Performance her wird das kein Problem werden und es spart sehr viel Ärger im Nachhinein. Bei anderen Lösungen verliert man sich schnell auch mal in Spielereien wink.gif

grüße

Seb


Zitat(I.I @ 23 Apr 2015, 19:02)
RAID und System trennen, versteht sich von selbst denke ich! Der gesunde Menschenverstand sagt einem das schon :-). Du schreibst ja oben auch schon selber, dass sich das irgendwie falsch anfühlt beides auf eins zu packen. Eine Availability von 100% ist bei dir sicherlich auch nicht von Nöten.

Ich denke wir reden über ein Softraid mittels mdadm.

Warum nicht System auf Raid?

1.) Systemdaten müssen selten dupliziert werden
2.) Die Konfigurationsdaten für das Raid liegen selber auf dem Raid, eventuelle komplikationen bei neuinstallation des Systems werden vermieden.
3.) Softraid 1 ist langsam beim schreiben, system schreibt zusätzlich
4.) Upgrade des Raids (wie bei mir demnächst von 2TB auf 4TB ist ohne Systemwechsel schnell und unkompliziert möglich) Wenn du jetzt die neuen zwei 4 TB platten an zwei neue SATA ports anschließt und sie dann als neues RAID konfigurierst und deine raid config liegt auf dem alten raid system, dass klingt ja schon merkwürdig. Da kannst du ja das alte System ohne Zusatzaufwand nie trennen, ohne das die dein neues Raid wegfliegt.

Wenn du jetzt sagst du lagerst /etc und so weiter auf ne andere Platte aus, nun gut dann kann dort auf der Platte eigentlich auch das gesamte System liegen und du legst dir halt partitionen für die bestimmten Bereiche an.

Also ganz einfach SYSTEM und RAID trennen.
Mein Raid ist unter /media/nfs/share/data gemountet, die nfs clients binden sich per autofs den mountpoint an die gleiche Stelle in Ihrem System ein, so funktionieren auch alle Links. Die Clients haben dann im Home den Download ordner auf /media/nfs/share/data/Download gelinkt. Naja und so ist alles ziemlich easy. Sobald ein Client auf Download schreiben will und im  Netzwerk ist wird das NFS gemounted und aufs RAID geschrieben. Von einem anderen Client kann man da dann auch zugreifen. Es gibt natürlich auch andere Lösungen.
*

mmarx
Was seb sagt.
I.I
Du kannst natürlich auf Seb und mmarx hören oder auf deine Intuition und es richtig machen. :-)

Ein System ist eben nicht dateikritisch und auch sehr schnell wieder aufgesetzt. Streng genonmmen muss ich nur die programme wieder installieren und /etc mounten bzw. wieder herstellen (etckeeper, /etc gitten etc.). Wenn du natürlich mit kernels rumexperimentierst viel selbst installierst und dein ganzes system (alle programme etc) im prinzip selbst kompiliert hast, dann solltest du eventuell diese irgendwie zusätzlich schützen bzw. einfach nach neuinstallation wieder ein backup von diesen Systemdaten einspielen.

Privaten Daten sind immer wertvoller als Systemdaten. ...
seb
Zitat
Du kannst natürlich auf Seb und mmarx hören oder auf deine Intuition und es richtig machen. :-)


bla .. meinung .. bla .. wer recht hat .. bla .. keine argumente .. bla wink.gif

Zitat(I.I @ 23 Apr 2015, 19:57)

Ein System ist eben nicht dateikritisch und auch sehr schnell wieder aufgesetzt. Streng genonmmen muss ich nur die programme wieder installieren und /etc mounten bzw. wieder herstellen (etckeeper, /etc gitten etc.). Wenn du natürlich mit kernels rumexperimentierst viel selbst installierst und dein ganzes system (alle programme etc) im prinzip selbst kompiliert hast, dann solltest du eventuell diese irgendwie zusätzlich schützen bzw. einfach nach neuinstallation wieder ein backup von diesen Systemdaten einspielen.

Privaten Daten sind immer wertvoller als Systemdaten. ...
*


selbst der teil ist nen sehr gutes argument dein sys mit aufs raid zu packen wink.gif
jeder hier beschriebene aufwand das sys wiederherzustellen ist mehr als "neue platte rein - sync - go" ..
mmarx
Zitat(I.I @ 23 Apr 2015, 19:57)
Privaten Daten sind immer wertvoller als Systemdaten. ...
*


Bestreitet ja auch niemand. Die Systemdaten sind im Zweifelsfall aber auch schon wertvoll genug, dass es eben doch schmerzt, wenn sie abhanden kommen.

Was bisher noch nicht erwaehnt wurde, beim System auf dem RAID kannst du im Ernstfall die Platte im laufenden Betrieb tauschen. System neu aufsetzen, in welcher Form auch immer, zieht zwangsweise Downtime mit sich.
I.I
Zitat(mmarx @ 24 Apr 2015, 01:12)
Bestreitet ja auch niemand. Die Systemdaten sind im Zweifelsfall aber auch schon wertvoll genug, dass es eben doch schmerzt, wenn sie abhanden kommen.

Was bisher noch nicht erwaehnt wurde, beim System auf dem RAID kannst du im Ernstfall die Platte im laufenden Betrieb tauschen. System neu aufsetzen, in welcher Form auch immer, zieht zwangsweise Downtime mit sich.
*


Ja, das ist natürlich ein Punkt.

Was ist wenn ihr euer System neu aufsetzen wollt? Wie macht ihr das? Könnt ihr ja gleich mal für interessierte hier reinschreiben.


Noch ein Punkt gegen System auf Raid ist die Power on time der Platten bzw. der Start Stop Count. Meiner Meinung nach müssten die deutlich erhöht werden. Das wirkt sich sicherlich auf die Lebensdauer der Platten aus.
mmarx
Zitat(I.I @ 24 Apr 2015, 11:54)
Was ist wenn ihr euer System neu aufsetzen wollt?


Ich wuesste nicht, warum ich das tun sollte. Davon abgesehen ist auch das mit LVM kein Problem, laesst man halt die ganzen Daten bleiben und verteilt den Rest neu.

Zitat(I.I @ 24 Apr 2015, 11:54)
Noch ein Punkt gegen System auf Raid ist die Power on time der Platten bzw. der Start Stop Count. Meiner Meinung nach müssten die deutlich erhöht werden. Das wirkt sich sicherlich auf die Lebensdauer der Platten aus.
*


Platten benutzen, die fuer Dauerbetrieb ausgelegt sind? Bisher war bei mir eh immer irgendwann eher das Problem, dass die Platten voll waren, und weniger, dass sie Ausfallerscheinungen hatten.
Polygon
Zitat(I.I @ 24 Apr 2015, 11:54)
Was ist wenn ihr euer System neu aufsetzen wollt?
*


Idealerweise garnicht. Aufm Server laufen die Dienste alle schön isoliert in ihren LXC/OpenVZ/BSDJail Containern oder falls nötig auch KVM/VirtualBox/VMWare Maschinen. Dort werden sie regelmäßig gesichert (LVM Snapshot, packen und extern sichern) und falls ein Upgrade mal was kaputt macht lässt sich schnell die alte Version wieder herstellen. Falls es wirklich wichtig ist, kann man die Maschinen natürlich auch auf ne Testbox kopieren und erstmal probeweise das Upgrade machen.

Neue Hardware? Container rüber kopiert, läuft. Maschine zu schwach für alle Dienste? Neue Kiste daneben, paar Container umkopiert, läuft. Ok, statt auf einer Maschine dann auf 15 Containern "apt-get upgrade" machen müssen mag anfangs nerven aber dafür gibt es auch selten Probleme. Und mit Ansible ist das auch ruck-zuck in ein Kommando gepackt.

Ansible
Proxmox (Server OS auf Debian Basis mit Container und VM Verwaltung, wer das nicht von Hand machen mag)

Im Falle des Hardwaretod besteht das Neuaufsetzen dann aus Proxmox installieren, Netzwerk und Storage einrichten, Container und VMs aus dem Backup ziehen und starten.
I.I
Das System neu aufsetzen macht man doch spätestens dann wenn der Support für das System ausläuft, oder irre ich da?
mmarx
Warum nicht einfach ein Upgrade auf die neue Version?
Polygon
Zitat(I.I @ 26 Apr 2015, 19:29)
Das System neu aufsetzen macht man doch spätestens dann wenn der Support für das System ausläuft, oder irre ich da?
*


Ich dachte hier gehts um BSD/Linux-Systeme