neue Hardware für kleines Büro

Joined
May 15, 2022
Messages
4
Hi,

ich möchte gerne für ein kleines Ingenieur Büro neue Server-Hardware anschaffen. Alle Arbeitscomputer sind Windows-Client. Es handelt sich um ca. 10 Clients, die produktiv mit einer CAD Software arbeiten.

Aktuell wird ein Dell Server eingesetzt, auf dem Windows Server läuft mit einem Hardware-Raid5 und normalen SAS Platten. Ein Problem, welches jetzt in den letzten Jahren vorgekommen ist, dass wenn der Server aus irgendeinem Grund ausfällt, geht gar nichts mehr. Das hängt damit zusammen, dass auf dem Server sowohl der Fileserver und DC läuft.

Der Softwarehersteller schweigt sich leider aus, welche Anforderungen genau für den Datenserver empfohlen werden. Begründet wird das laut Support damit, dass es viele Kunden gibt, die nicht soviel Geld haben und man diese nicht verschrecken möchte mit teuren Hardware Anforderungen. Funktional läuft wohl alles über Windows shares und es findet ein permanenter Datentransfer der Software auf den Clients und dem Server statt. Trotz 5 SAS Platten können in der Regel nicht mehr als 3-4 Clients zufriedenstellend gleichzeitig arbeiten, da irgendwas lahmt. Es liegt wahrscheinlich an den permanten random reads/writes , welche die Festplatten wohl überlasten. Ich habe bereits mit anderen Büros darüber gesprochen, dort wird alles mögliche eingesetzt. Von einem Windows 10 PC der irgendwo in der Ecke steht bis hin zu sehr sehr teuren Lösungen.

Nach einem Gespräch mit dem Support wurde mir gesagt, dass sie generell "so schnell wie möglich" für einen Server empfehlen, sprich SSDs oder NVMEs. CPU/Ram Last der Software läuft auf den Clients, es geht lediglich um den Storage. NAS Systeme werden generell nicht empfohlen, jedoch gibt es keinerlei Ausführungen, warum das so ist. Es wird ausschließlich Windows (echt) als Fileserver empfohlen.
Angeblich gab es in den letzten Jahren extreme Probleme mit Kunden, die der Meinung waren Synology oder QNAP Systeme mit 3.5" Festplatten einzusetzen, welche einfach viel zu langsam waren.

Mir liegen bereits Angebote über einen Dell T350 und einen HP ML110 vor. Inklusive einrichten (DC Master umziehen) würde das ganze etwa bei um die 25.000€ liegen, wobei diese Preise insgesamt durch die zertifizierten RAM/Storage entstehen. Da generell ein Server-Austausch alle 3-4 Jahre empfohlen wird, sind das ehrlich gesagt zu hohe Kosten. Das muss auch erstmal verdient werden. Leider bin ich zusätzlich etwas Systemhaus geschädigt, da die letzten Systemhäuser mit denen zusammengearbeitet wurde gerne und schnell Geld kassiert haben, jedoch am Ende nicht unbedingt die tollsten Lösungen dabei rauskamen. Das Systemhaus welches den letzten Server umgezogen hat, hat leider komplett versagt und den kompletten Fileserver der Software derart zerschossen, dass wir heute darunter noch leiden.

Deshalb würde ich vielleicht jetzt einen anderen Weg gehen wollen. Insgesamt sollen die Daten von den Windows Server Instanzen getrennt werden. Natürlich bedeutet jedes zusätzliche Gerät weitere Wartung etc., jedoch sollte das noch im machbaren Rahmen liegen.

Mir schwebt ein Server als VM Host vor und einer als Storage Server. Auf dem einen soll EXSi mit 2 VMs (DC und Fileserver/eine SQL Datenbank) laufen, auf dem anderen Truenas. Verbunden werden sollen die beiden direkt per 10GBit. In dem Storage Server sollen sowohl SSDs rein, als auch 7200k Festplatten, welche als Datenablage/Archiv dienen. Der Zugriff der VMs auf den SSD-Speicher soll per iSCSI erfolgen, wobei dann der Windows Server alles übernimmt, das Archiv soll per SMB direkt von den Clients angesteuert werden. Die 10Gbit werden wohl theoretisch selten ausgereizt werden, jedoch sollten die SSDs zumindestens den Workflow verbessern.

Als Hardware sollen zumindestens für den Storage Server ein neuer Supermicro Server angeschafft werden. Für den EXSi Host entweder auch ein Supermicro oder eben ein Dell/HP Server, nur eben ohne größeren Speicher. Der alte Server soll als zweite Truenas Instanz dienen für Replikation und Backup. Ebenfalls soll auf dem einen der beiden nicht-exsi server noch eine schlanke VM als DC-Slave laufen, falls der Master ausfallen sollte.

Somit würden permanent 3 Server laufen, welche alle über redunante Netzteile und eine USV verfügen.


Meine Fragen:

- Ist der Aufbau in dieser Form überhaupt sinnvoll oder verkompliziert man sich damit nur alles? Gibt es vielleicht eine bessere Lösung, welche zumindestens nicht alle 3 Jahre einen Kleinwagen fressen?

- Könnten durch den Aufbau ggf. Probleme enstehen, die mir noch nicht in den Sinn gekommen sind?

- durch den ausgelagerten Storage, verbunden per Netzwerk und den Umweg über iSCSI/Windows Fileserver erzeugt man sich ggf. ein wenig Latenz, könnte das ein ernsthaftes Problem darstellen im Vergleich mit direkt eingebauten Storage?

- ist Truenas überhaupt (mit supporteter bzw. empfohlener Hardware) sinnvoll in einem produktiven Umfeld einsetzbar? In den USA scheint das ja eher der Fall zu sein als in Deutschland?


Ich würde mich über Antworten freuen. Falls irgendetwas unklar ist, einfach Fragen ;)

Mir ist klar, dass es auch diverse Storage Lösungen von HP/Dell etc. gibt... jedoch sind diese natürlich auch relativ teuer. Leider hat nicht jedes Unternehmen unendlich Geld für die "beste" Lösung... Natürlich ist jeder Tag Ausfall unschön und verursacht auch Kosten. Am Ende heißt es "ja hättest du gleich die 50.000 € investiert, dann wäre es nie dazu gekommen" ... Ich möchte auch keine Grundsatz-Diskussion starten.
 

bic

Contributor
Joined
Dec 7, 2021
Messages
184
Also, ich selbst betreibe/administriere das LAN meines eigenen Ing.-Büros seit Zeiten, als als Netzwerkabel noch RG58 verwendet wurde und Windows keinen eigenen Netzwerkstack besaß, NetWare für Windows von Novell war damals das Werkzeug der Wahl - aber das nur so an Rand.

An sonst gleichen sich wohl die Voraussetzungen, wobei bei mir nur 6 und keine 10 CAD-Arbeitsplätze zu "versorgen" sind, allerdings dürften die 4 St. mehr den Kohl nicht fett machen, jedenfalls unter dem Aspekt, dass niemals alle Arbeitsplätze gleichzeitig vom Fileserver lesen oder auf diesem schreiben - es sei denn, Eure CAD ist nicht lokal auf den Clients, sondern quasi auf einen Terminalserver installiert. Dann findet ein Traffic vom/zum Server nicht nur bein Öffnen, Speichern und Schließen von Dateien statt, sondern beständig, aber nur im vernachlässigbaren Umfang, da vom Terminalserver lediglich das "Bildschirmbild" und die Befehle von Tastatur und Maus von den Clients übertragen werden müssen.

Sei es, wie es sei, auf jeden Fall dürfte Eurer Dell als File-Server mit den zwei handvoll CAD-Clients (welches CAD eigentlich?) niemals überfordert sein und schon gar nicht mit SAS-Platten im Raid 5, es sei denn, es ist ein PowerEdge 4100 mit dem PentiumPro aus 1996 (das war damals mein erster Dell-Server :smile:)

Es muss bei Euch also woanders klemmen. Dies lässt sich aber leicht herausfinden, wenn man mal am Windows-Server die Leistungsindikatoren startet und den mal eine Weile mitschreiben lässt. Sollte so nichts zu finden sein, inatlliert Ihr Euch mal den Prtg Network Monitor, der kann in der kostenlosen Variante bis zu 100 "Sensoren" im Netzwerk verwalten und misst auch die Clients, Switche, Router, etc. Da findet man schon ziemlich schnell heraus, wo es hakt. Mit ein wenig technischen Verständnis ist der auch schnell eingerichtet.

Übrigens war ich auch mal auf den Tripp, die Server immer leistungsfähiger zu machen, bis ich dann irgendwann mal gemerkt habe, dass dies ab einem bestimmten Punkt nichts an Produktivität mehr bringt - schnell sein, muss das Netz in Gänze. Tatsächlich etwas gebracht in diesem Sinne war in der Vergangenheit die Umstellung von
10 Mbit/s, auf 100 und dann natürlich auf 1.000 Mbit/s, sowie die Umstellung von Hubs auf Switche - ein Serverupdate hat sich dann immer nur gering bis überhaupt nicht ausgewirkt. Aus genau diesem Grund habe ich daher vor ein paar Jahren damit angefangen, die Server wieder zu downgraden aber auch zu "splitten", also die einzelnen Serverrollen auf mehr Blech zu verteilen, wobei alle Server einen max. TCP von 25W haben. So laufen z.B. der DC, der Kommunikationsserver und unser eigener Cloudserver mit einem Pentium Silver J5005, der Backupserver, ein Proxmox, der Buchhaltungsserver sowie zwei Truenas(e) sogar nur mit dem Celeron J4105. Insgesamt komme ich so auf eine Gesamtleistungsaufnahmen (nebst Router, Switche und TK-Anlage) von 0,3 kVA, was nicht nur den Geldbeutel schont, sondern auch die Wärme und den Lärmpegel im "Serverraum" niedrig hält. Außerdem sorgt die Aufteilung der einzelnen Serverrollen auf mehrere Hardwarekisten für eine gewisse Arbeitsicherheit, außer wenn der DC aussfällt, muss ich keinen Mitarbeiter nach Hause schicken. Einen DC-Slave sehe ich nicht für nötig an, dafür aber die täglich Serversicherung auf einer eigenen Platte des DCs, damit ist dieser dann auch auf Reservehardware innerhalb einer halben Stunde wieder am Laufen - so lange können die Mitarbeiter Kaffee trinken :smile:

Jedenfalls habe ich mit diesen Kisten keinerlei Perfomance-Probleme, denn die eigentliche "Rechenleistung" erbringen die Arbeitsplatzrechner (hier kann man schon etwas höher herangehen), die Server liefern ja lediglich zu und so lange das Netzwerk schneller ist, als der schnellste Mitarbeiter, ist alles gut (einzig der Backupserver unter Veeam könnte ein wenig schneller sein - nicht bei der Datenrate, sondern bei der Backupvorbereitung, das dauert etwas, bis er die Datenbank durchgeackert hat).

An sonst habe ich übrigens die beiden Truenas(e) als SAN per iSCSI am DC hängen, die Latenz liegt irgendwo bei 0,6ms. Die Hardware ist Eigenbau mit stino-Komponenten, lediglich auf geeignete Platten sollte man schauen. Mit SSD wäre ich aber vorsichtig, "normale" sind ungeeignet und spezielle Server-SSDs kaum bezahlbar, so kostet z.B. eine Intel Optane mit 1,5 TB über 5 kilo € :grin:

Naja, lange Rede kurzer Sinn - ihr könnt das natürlich machen, wie Du das oben skizziert hast. Es funktioniert aber auch zu einem Bruchteil der Kosten und dies schnell und sicher (wenn ich in den vergangenen Jahren mal Ausfälle hatte, dann von mir selbstfabrizierte). Außerdem erscheint mir Eurer Konstrukt als viel zu kompliziert und einen AD-Controller als VM laufen zu lassen, ist nicht gerade dass, wozu Microsoft rät. Und warum Truenas als VM auf einem eigenen Supervisor, das kannst du dann doch gleich direkt auf dem Blech installieren oder ist Virtualisation einfach chick?




 
Joined
May 15, 2022
Messages
4
Naja, lange Rede kurzer Sinn - ihr könnt das natürlich machen, wie Du das oben skizziert hast. Es funktioniert aber auch zu einem Bruchteil der Kosten und dies schnell und sicher (wenn ich in den vergangenen Jahren mal Ausfälle hatte, dann von mir selbstfabrizierte). Außerdem erscheint mir Eurer Konstrukt als viel zu kompliziert und einen AD-Controller als VM laufen zu lassen, ist nicht gerade dass, wozu Microsoft rät. Und warum Truenas als VM auf einem eigenen Supervisor, das kannst du dann doch gleich direkt auf dem Blech installieren oder ist Virtualisation einfach chick?

Also diese Software (Allplan) speichert diverse kleine Teilbilder der jeweiligen Projekte ab, welche beim Öffnen auf den Clients nicht alle heruntergeladen werden. Sobald man sich in einen anderen Bereich begibt, müssen erst die jeweiligen Teilbilder heruntergeladen werden. Wenn etwas geändert wird, werden die Teilbilder auch wieder auf den Server geladen. Der Datentransfer findet also permanent statt. So wurde es mir vom Support erklärt. Je nach Komplexität der Projekte sind schon diverse Teilbilder vorhanden.. wenn ich den Projektordner auf dem Server per Eigenschaften die Größe zählen lasse, dauert das bereits ewig.. dort liegen extrem viele kleine Dateien. Der Ordner selber hat aber nur ca. 500GB.

Wenn zu viele Leute in dem selben oder auch verschiedene Projekte arbeiten, ist der Workflow gestört. Das merkt man daran, dass irgendwann das speichern/lesen zu Mikro-Hängern beim arbeiten führen. Leider hat man sich daran gewöhnt das alles heutzutage schnell funktioniert. Wenn man mit einem Programm arbeitet, welches permanent hängt, breitet sich eine gewisse Unlust aus. Es macht einfach keinen Spaß.

Als SSDs wollte ich Intel D3-S4610 oder Kingston DC500M einsetzen, die kosten nicht soviel.

Einerseits hast du recht dass mehrere Server eine gewisse Komplexität erzeugen. Wenn jedoch nur einer vorhanden ist, ist alles offline/weg, auch wenn nur die kleinsten Probleme bestehen. Immer muss am offenen Herzen operiert werden, da man im zweifelsfall ohne alles dasteht. Ein Voll-Backup einspielen will man ehrlich gesagt auch nicht bzw. bei jedem Problem muss man dann schon gleich entscheiden, was länger dauert... versuchen es wieder zum laufen zu bringen oder Backup einspielen...

Truenas soll nicht virtualisiert werden, das soll Baremetal laufen. Die Windows Server Instanzen sollen virtualisiert werden, da es über VEEAM meiner Meinung nach deutlich einfacher ist dann doch mal einen Schritt zurückzugehen, wenn Mist passiert ist. Hinzukommt, dass ich nicht bei jeden Update den ganzen Server neustarten muss. Ich glaube heute macht keiner mehr irgendwas ohne Virtualisierung? Vorteile gibt es meiner Meinung nach genügend.


Ich habe heute mal auf der Dell Seite gerechnet... dort bekomme ich aktuell nen R7515 für ca. 5000€ mit 7 Jahren ProSupport am nächsten Arbeitstag. Da würden dann noch die Lizenzen und Festplatten draufkommen .. Also alles im allen ungefähr 8000-9000€ ... wäre natürlich ne auch eine Option.. Wenn ich das auf monatliche Kosten über die 7 Jahre runterbreche, komme ich auf maximal 100€. Da diese Kiste ja generell überdimensioniert für den Anwendungszweck ist, sollte der auch noch den möglicherweise gewachsenen Ansprüchen in 5 Jahren entsprechen...

Das Problem mit dem immer Leistungsfähiger.. sehe ich auch.. jedoch ist das eher den Herstellern geschuldet... will ein paar Dinge, muss man dann oftmals gleich die ganze Palette abnehmen (inkl Monster CPU )..

Muss ich wohl doch nochmal ein wenig nachrechnen. Mit den Leistungsindikatoren werde ich morgen mal gucken... danke schonmal für die Antwort.
 

bic

Contributor
Joined
Dec 7, 2021
Messages
184
Der Ordner selber hat aber nur ca. 500GB.
und hat sicher Jahre gebraucht um auf diese Größe anzuwachsen. Schau doch mal, was da so täglich an Files geändert wird, bzw. hinzukommt, das wird sicher nur ein Bruchteil der 500Gb sein. Wenn Du dann diese Größe weist, wirst Du sicher feststellen, dass nicht Dein Server der Flaschhals ist. Wie werden die Files in dem Ordner denn verwaltet? Wenn alle Allplan-Arbeitsplätze quasi gemeinsam und gleichzeitig darauf zugreifen können/müssen, muss ja irgendwer/irgendwas die Zugriffsrechte verwalten, das kann man ja nicht dem Filesystem überlassen - dann ist ja eine von einem Client geöffnete Datei halt offen und für den nächsten zugreifenden Client eben zumindest schreib-, wenn nicht sogar lesegeschütz. Nicht das Allplan selbst das Problem ist, dann nützt Dir auch ein dreimal so schneller Server nichts (wir hatten ein ähnliches Problem mit einer AVA, deren Projektbestand über die Jahre reichlich angewachsen war, da dauerte zuletzt das Speichern eines LVs Stunden. Ein schnellerer Rechner, extra Anbindung, etc. brachten 0 Verbesserung, erst durch das Entschlacken der AVA durch Auslagerung von Projekten kam die Performance zurück. Da war also die AVA einfach nicht mehr mit der Verwaltung ihrer eigenen Datenbank klar gekommen).
Ich glaube heute macht keiner mehr irgendwas ohne Virtualisierung?
Klar und wenn alle das machen, macht man das auch :smile: Und wenn dann Dir die Hypervisor-Kiste hardwaremäßig ausfällt, fragste bei Dell nach Ersatz an. Bis der dann da ist (wenn der heutzutage überhaupt kommt) werden sich die Mitarbeiter über die 3 Wochen zusätzlichen Urlaub freuen. Fällt mir eine der Kisten aus, habe ich Reserve im Regal. Dann werden die Platte/Platten umgesteckt und weiter geht es. Und hat man dann vielleicht Softwareprobleme, ist u.U. der letzte Backupstand baremetal schneller zurückgespielt, als als VM (20 Minuten bei mir bei einem Blech-Windowsserver).

Das mit dem Regal geht natürlich nur, wenn man alles auf "low" hält, vor allem den Preis. Bei mir stehen da auf Reserve für kleinere Serverdienste ein Intel-NUC (davon habe ich 4 produktiv im Einsatz), ein HP-Prodesk-mini für die Arbeitsplätze und ein Eigenbau im 4-Bay Chenbrogehäuse (analog den Truenas-, AD- und Kommunikationsservern). Damit bin ich gegen alle Hardwareausfälle gewappnet und das sind keine 1.000,- € , welche da auf Reserve rumstehen. Seine Liquidität um 9.000.- € für einen Ersatz-Dell zu schwächen, das wird wohl kaum jemand machen.

Nun gut, da hat ja wohl aber jeder seine eigene Philosophie und wenn man keine eigenen Erfahrungen hat, orientiert man sich allzuleicht am Mainstream und der puscht nun mal Virtualisierung. Ich bin mit dem Gegenteil bisher gut, wenn nicht gar besser gefahren, was nicht heißt, dass bei mir kein Hypervisor läuft. Dies aber nur für eigentlich unwichtige Dinge und als Lab zum Testen von irgendwelcher Software.

Ich drücke Dir jedenfalls die Daumen, dass Du Dein Problem gelöst bekommst.
 
Joined
May 15, 2022
Messages
4
und hat sicher Jahre gebraucht um auf diese Größe anzuwachsen. Schau doch mal, was da so täglich an Files geändert wird, bzw. hinzukommt, das wird sicher nur ein Bruchteil der 500Gb sein. Wenn Du dann diese Größe weist, wirst Du sicher feststellen, dass nicht Dein Server der Flaschhals ist. Wie werden die Files in dem Ordner denn verwaltet? Wenn alle Allplan-Arbeitsplätze quasi gemeinsam und gleichzeitig darauf zugreifen können/müssen, muss ja irgendwer/irgendwas die Zugriffsrechte verwalten, das kann man ja nicht dem Filesystem überlassen - dann ist ja eine von einem Client geöffnete Datei halt offen und für den nächsten zugreifenden Client eben zumindest schreib-, wenn nicht sogar lesegeschütz. Nicht das Allplan selbst das Problem ist, dann nützt Dir auch ein dreimal so schneller Server nichts (wir hatten ein ähnliches Problem mit einer AVA, deren Projektbestand über die Jahre reichlich angewachsen war, da dauerte zuletzt das Speichern eines LVs Stunden. Ein schnellerer Rechner, extra Anbindung, etc. brachten 0 Verbesserung, erst durch das Entschlacken der AVA durch Auslagerung von Projekten kam die Performance zurück. Da war also die AVA einfach nicht mehr mit der Verwaltung ihrer eigenen Datenbank klar gekommen).

Also ich habe jetzt noch mal nachgeguckt... ein Projekt hat ungefähr 500MB, bestehend aus ausschließlich 5-30kb Dateien mit irgendeinem Programm-eigenen-Format. Generell glaube ich eher das was du denkst... die Software an sich ist das Problem. Das ganze läuft über Windows SMB ab, das Locking der Dateien übernimmt wohl die Software selber irgendwie. Es gibt hier im Forum zwei Beiträge die sich auf eine andere CAD Software mit Fileserver beziehen und da macht wohl Truenas Probleme mit dem Filelocking. Der Support konnte aber nicht sagen, ob dass der Grund ist warum ein NAS nicht empfohlen wird. Aber beim Weg über iSCSI sollte das ja weniger ein Problem.

Die andere Software (Nevaris vom selben Hersteller) hat nennt sogar Systemanforderungen an den Server

Empfohlene Systemvoraussetzungen für dedizierte MSSQL-Serversysteme
⸗ RAID-Controller (RAID-1, RAID 10)
⸗ Bis 5 User: Dual Core CPU ab 2,4 GHz, mind. 8 GB RAM, 2 - 4 Festplatten
⸗ Bis 10 User: Quad Core CPU ab 2,4 GHz, mind. 16 GB RAM, 4 - 6 Festplatten
⸗ Bis 20 User: Quad Core oder Mehrprozessor ab 2,4 GHz, mind. 32 GB RAM oder mehr,
⸗ 6 - 8 Festplatten

etwas weiter unten wird dann gesagt

Die Verwendung eines Domänencontrollers auf demselben System, auf dem der SQL Server (Express) installiert
werden, wird nicht empfohlen! (Programmfeature „SQL Server Express“ wird in diesem Fall nicht angeboten.

d.h. ... ich brauche sowieso zwei virtuelle Maschinen. Der Support selber weiß nicht, warum da steht 6-8 Festplatten... auch ob sich das verringert, wenn man SSDs verwendet... konnte keine Aussage getroffen werden...

Virtualisierung sehe ich halt den Vorteil, dass ich ggf. in Zukunft mit der selben Hardware handlungsfähiger bin. Also wenn ich aus Grund XYZ noch ein anderes Betriebssystem oder eine weitere Windows VM brauche, ist das ja relativ einfach hinzubekommen... wenn ich gar kein Hypervisor habe, ist der ja auch nicht mal eben aufgesetzt im laufenden Betrieb.

______________________________________________________


Das Problem ist, dass wenn man anfängt zu "Basteln" ist alles meistens nur von einer Person abhängig. Wenn diese ausfällt, dann kann es schwierig werden noch jemanden zu finden, der dann die Probleme lösen kann.

Jeder hat sicherlich seine eigenen Erfahrungen mit dem Dell Support... jedoch hatte ich die Erfahrungen gemacht, dass die Versprechungen eingehalten werden. Wenn etwas unmöglich ist, dann halt nicht. Aber wenn ich erst mögliche Ersatzteile beziehen muss, die dann ggf. Lieferzeiten haben, dann kommt es wirklich zu längeren ausfällen.

Warum ich überhaupt eine Trennung mit mehreren Servern favourisiere ? Ja aus den selben Gründen die du genannt hast. Wenn der Fileserver stirbt, kann ich im zweifelsfall den Storage noch in einem anderen Server importieren... mit konventionellen RAID-Controller-Aufbauten ist das ja nicht so einfach.

______________________________________________

Der Hauptgrund warum mich die Supermicro Geräte etwas abschrecken... es ist schwierig längere Garantiezeiten als 3 Jahre zu bekommen und vor-ort-Service wird selten angeboten. Klar kann man beides irgendwie dazu buchen... nur habe ich da etwas mehr vertrauen zu DELL/HP, die ja alle Teile vorhalten und das über Jahre.
Eigenbau soll definitiv nicht stattfinden. Wenn Truenas, dann ein Supermicro Gerät mit empfohlener Hardware oder halt alles wie gehabt auf einem einzigen Server...
Nach ersten berechnungen wird die Supermicro Lösung mit zwei Servern aber auch nicht billiger als die Dell Lösung... günstig ist nur die bastel Lösung, das kann ich aber nicht machen, da das kein Heimserver ist.

_______________________________________________

Generell ist jetzt hier schon alles 1GBIT ... jedoch sollen die Server in Zukunft mit 10GBit angebunden werden, die Clients weiterhin mit 1GBit.
 

bic

Contributor
Joined
Dec 7, 2021
Messages
184
Aber beim Weg über iSCSI sollte das ja weniger ein Problem.
Das kann ich so bestätigen, nutze ich seit bestimmt 10 Jahren so. Früher mit Open-E, jetzt wg. der eingesparten Lizenskosten halt mit 2xTruenas (eine replizierte als Standby).
günstig ist nur die bastel Lösung, das kann ich aber nicht machen, da das kein Heimserver ist.
Da ist es eben von Vorteil, wenn der Laden einem selbst gehört :smile:
Das Problem ist, dass wenn man anfängt zu "Basteln" ist alles meistens nur von einer Person abhängig. Wenn diese ausfällt, dann kann es schwierig werden noch jemanden zu finden, der dann die Probleme lösen kann.
Das Problem hat man immer, denn Dienstleister basteln ja auch nur :wink: Und wenn ich mal ausfalle, ist ohnehin Schicht im Schacht.
jedoch sollen die Server in Zukunft mit 10GBit angebunden werden,
Gegen wen? Wenn nicht gegen die Clients, bringt das leider überhaupt nichts. Trotzdem, berichte mal, wie die Sache am Ende ausgegangen ist.
 
Joined
May 15, 2022
Messages
4
Das kann ich so bestätigen, nutze ich seit bestimmt 10 Jahren so. Früher mit Open-E, jetzt wg. der eingesparten Lizenskosten halt mit 2xTruenas (eine replizierte als Standby).

Genau das sind irgendwo auch meine Beweggründe. Ich finde es deutlich einfacher einen Storage mit Truenas zu verwalten. zu replizieren und im Zweifelsfall wenigstens wieder schnell online zu sein. Auch das ich dank ZFS relativ hardware-ungebunden bin.... Mit veeam sollte eine VM schnell wieder hergestellt sein, ein exsi host kann ich eben sogut wie überall übergangsweise draufpacken.

Auf der anderen Seite gibt es auch genügend Meinungen, die diese SAN Geschichte als single point of failure ansehen... mich auch eher noch verschlechtere, weil ich noch ein paar mehr Punkte hinzufüge....
nur wenn mir ein standalone Server abkackt, der sowohl die VMs als auch die Storages sind, habe ich eben nur noch das Backup. Klingt erstmal auch nicht so wirklich toll... Natürlich kann ich auch mit veeam halbstündig oder stündig einen snapshot erstellen... nur irgendwie finde ich es mit truenas alles deutlich einfacher zu managen, besonders die gleichzeitige replikation auf einen andere truenas instanz.

Bin noch etwas unschlüssig... besonders wegen den ganzen stimmen gegen SAN, ... einen wirklichen Vorteil (außer der Replikation) habe ich ja nicht wirklich gegenüber lokalen Storage ... ich muss mal testen, wie schnell veeam die Snapshots hinbekommt, wenn der Backup Storage ein Truenas Server ist.

Das Problem hat man immer, denn Dienstleister basteln ja auch nur :wink: Und wenn ich mal ausfalle, ist ohnehin Schicht im Schacht.

Naja, die Erfahrung musste ich ja leider schon vor 4 Jahren machen,...

Gegen wen? Wenn nicht gegen die Clients, bringt das leider überhaupt nichts. Trotzdem, berichte mal, wie die Sache am Ende ausgegangen ist.

Na der/die Server sollen mit 10Gbit an den Switch angebunden werden.. so kann man wenigstens ein paar Bottlenecks beseitigen. Glaube aber nicht wirklich, dass das heute etwas bringt. Aber da die Datenmengen immer größer werden und sich mehr und mehr auf Netzwerklaufwerken abspielt, ist es vielleicht nicht verkehrt, da ein wenig mehr theoretische Geschwindigkeit zu haben.



Hab mir jetzt bei Dell einen Server konfiguriert... nen Epyc mit 1x 7443P, 64GB, 2 Netzteilen und 2x 960GB SSD... mit 7 Jahren Vor-Ort Service am nächsten Tag kostet der insgesamt 5000€... das würde eigentlich passen. Leider alles ein wenig blöd, da der kleinere Prozessor (mit 16Cores) dann wegen dem Ram zu deutlich höheren Endpreisen führt.... nen Intel Silver 4314 würde auch bei rund 4700€ liegen... jedoch mit ein paar Abstrichen zum AMD Modell... nur wenn der 7 Jahre halten soll, geh ich lieber gleich von der Leistung höher, da ich ja nicht weiß, was noch eventuell die Zukunft bringt. Dell hat den Konfigurator schon sehr gewinnmaximierend aufgebaut.. egal was man tut, am Ende landet man bei 4-5000€... obwohl natürlich die 7 Jahre allein schon 1000€ veranschlagen ;)

SSDs würde ich dann noch ein paar von den D3-S4610 mit 1,92TB nehmen... jedoch muss ich noch herausfinden, ob die Rahmen aus der vorherigen Generation noch passen... denn die gibts wohl noch nicht wirklich lose zu kaufen... laut Dell Forum werden andere Platten ohne Probleme erkannt... auch im Servicefall soll das wohl unkritisch sein..

Nen Supermicro ist dann doch irgendwo auch nicht sehr viel günstiger, schon wegen dem fehlenden vor-ort Service, Ersatzteile werden auch nur zugesendet und auch nur wie bei HPE 3 Jahre Garantie. Jedes Update kostet halt extra, wo ich dann eher bei mehr als Dell lande.. Außerdem habe ich die Erfahrung gemacht, dass diese Dell Server und auch Fujitsu (habe ich früher benutzt) anscheinend sehr langlebig sind. Natürlich kann man immer mal ein Montagsgerät erwischen...
 
Last edited:

bic

Contributor
Joined
Dec 7, 2021
Messages
184
Auf der anderen Seite gibt es auch genügend Meinungen, die diese SAN Geschichte als single point of failure ansehen...
Nur die, welche etwas anderes verkaufen wollen, nur was eigentlich? Alles als DAS in den/die Server einbauen, oder einen Storage-Hypervisor verwenden? Der "sammelt" auch nur ein, was es so gibt, daher NAS, SAN und DAS und dann ist man diesbzgl. wieder auf go.
Bin noch etwas unschlüssig... besonders wegen den ganzen stimmen gegen SAN,
Wo kommen die eigentlich her? An sonst schau mal hier: klick! Das ist quasi das gleiche wie Truenas in Geld und die Lizenzkosten können durchaus in die 10-tausende gehen. Würden die davon leben können, wenn SAN so schiete wäre? Hatte ich ich übrigens in der Vergangenheit (und als SOHO-Version zu Hause noch immer), wurde mir dann aber nach deren Lizenserei-Umstellung zu teuer - daher nun Truenas.
ich muss mal testen, wie schnell veeam die Snapshots hinbekommt, wenn der Backup Storage ein Truenas Server ist.
Hier ist das Netzwerk dann der Flaschenhals und würden dann vielleicht 10Gbit Sinn machen. Truenas soll entsprechende Karten unterstützen, welche, wissen hier vielleicht andere besser.

So, nun baue aber erst einmal!
 
Top