Hallo Holger,
der Server im Semianr hat zwei 10GB LAN Karten auf dem Board: das kann
man schon machen.
Ich würde einfach das Geld entschieden lassen: wenn du dir Server mit
10GB und Switch mit entsprechendem Port leisten kannst, dann ist das
unproblematischer ein zu richten als bonds an zu legen.
ich will künftig > 1 Gbit. Und da ist genau das „keep it simple“ auch
meine Überlegung. Man muss am Server und den Switches weniger
(eigentlich nichts) konfigurieren, wenn man 1x 10GBit nimmt.
Meine Schule konnte sich das nciht leisten, also hab ich da ein 4x1GB
LAN Bond.
Da ist wohl eher die Frage, was sich die Schule leisten will / bereit
ist, dafür zu investieren, als ob sie es kann.
Im Budget, das mir zur Verfügung steht, sollte 10GBit drin sein, samt
Switch. Dennoch muss ich eben schauen, wie ich mit dem Geld hinkomme.
Am Server macht das eigentlich preislich nichts mehr aus, da alle
Server, die ich mal so konfiguriert habe, eh 10GBit auf dem Board haben.
Teurer wird’s erst, wenn man auf SFP+ will. Und da war eben meine Frage,
ob 10GBit per Kupfer nicht doch zu fehleranfällig ist (weil die
Schirmung nicht ausreicht, wenn andere LAN oder Stromkabel in der Nähe
verlaufen).
Aber: schau doch mal nach 5GBit/s: die Geräte sollte es mitlerweile
geben und die sind nciht so teuer.
Serverseitig ist mir das noch gar nicht über den Weg gelaufen. Beim
Switch will ich auf jeden Fall einen L3 Switch, wenn ich schon einen
neuen Backbone-Switch kaufe - falls Netzsegmentierung dann doch mal in
absehbarer Zeit spruchreif wird.
Auch da sind eigentlich in der Regel 1 Gbit oder 10 Gbit zu finden.
Ich schaue aber nochmal nach 5GBit.
Meinst du wirklich du brauchst zwei Sockel?
Der momentane Server hat halt auch schon zwei. Auch wenn man nicht immer
weiter, höher, schneller muss, aber einen neuen Server, der dann weniger
leistungsfähig ist als der bisherige, macht imho trotzdem wenig Sinn.
Dann kostet aber auch dein Proxmox mehr …
Ja, das ist eben - neben dem Preis für die HW - die Überlegung.
Ich hab für meine fast 200 Clients in der Schule einen AMD Rechner mit 8
Kernen als Server: das ist OK.
Der schleppt auch noch ein paar andere Server mit (owncloud …).
Wir sind noch nicht ganz, aber in der nächsten Zeit auch bei der Größe
(ca. 200 Clients) und fahren jetzt schon ebenfalls mehrere VMs.
|Hypervisor und Storage für die VMs trennen, sprich eigenes RAID nur
für die VMs - ja oder nein? Ich denke trennen bringt Vorteile.|
ich hab das so. Aber auch hier: wie groß ist deine Schule?
Was ist mit dem Storage des jetzigen Servers: ist das zu langsam?
Momentan hab ich ein RAID 5 für Hypervisor und VMs gemeinsam.
Die Performance ist nach einigen Anpassungen, die damals Dirk
vorgeschlagen hat ok.
Dennoch ist es ein bescheidenes RAID 5, denn es hat 4 aktive HDs statt 3
(oder dann wieder 5), was von der Performance nicht optimal ist. Ich hab
das zu spät gemerkt, dass die Hotspare auch aktiv ins RAID genommen
wurde und dann konnte (und wollte) ich nicht alles wieder platt machen.
Künftig würde ich aber eigentlich gerne die Installation des Hypervisors
vom RAID für die VMs trennen. Das macht einen imho bei UPdates /
HW-Umzug flexibler.
… die Diskussion kannst du solange führen wie du willst: wirklich ein
Ergebnis wirst du nicht bekommen, da es auf vieles an kommt: vor allem
aber auf dich: bekommst du ein ZFS RAID in den Griff, oder willst du
lieber was, wo man beim Einrichten und Betrieb nciht so viele Fehler
machen kann: dann nimm einen HW Controller.
Ich selber mache SoftwareRAID und bin damit seit über 10 Jahren sehr
zufrieden…
Beim damaligen pädLML 4 Server, den ich seinerzeit aufgesetzt habe,
hatte ich auch ein SW-RAID und war nicht unzufrieden.
Sowohl die Einrichtung als auch die mehreren nötigen HD-Tauschs über die
Betriebszeit des Servers waren für mich machbar.
Allerdings gab’s damals die ausführliche Anleitung zur Einrichtung des
RAIDs im Anhang des Handbuchs.
ZFS-RAID ist sicher ähnlich, aber eben doch anders.
Den größten Vorteil des SW-RAIDs sehe ich in der HW-Unabhängigkeit.
Bislang hatte ich mit meinem derzeitigen HW-RAID-Controller nie ein
Problem, der Austausch defekter HDs war natürlich
einfacher/narrensicherer als bei einem SW-RAID.
Aber wenn einem der Controller abraucht steht man halt ganz dumm da,
nämlich vor dem nichts. Gerade ZFS-RAID hat auch sonst anscheinend viele
Vorteile gegenüber HW-RAID.
Klar, dass ich die Entscheidung letztlich selbst treffen muss und es
immer unterschiedliche Meinungen geben wird. Ich finde einen Austausch
dennoch hilfreich.
ich habe RAID5 mit einer HotSpare.
Aber auch hier: da kannst du ewig drüber diskutieren.
Schätz ab, was du an Performance hast und was an GEld.
Kannst du es dir leisten 50% weniger Platz zu verwenden als du einkaufst?
Dann nimm RAID10.
Wenn nicht: RAID 5
Für ein RAID 5 mit Hotspare brauche ich 4 HDs. Nehm ich z.B.
4-GB-Platten, habe ich 8 TB, nutze also effektiv 50%.
Für ein RAID 10 mit Hotspare brauche ich 5 Platten, hab gleich viel
Speicherplatz und nutze effektiv 40%. Das ist jetzt nicht der riesen
Unterschied.
Interessanter ist da die Frage, was mir mehr Performance bringt. Und da
dürfte - beim Flaschenhals HD - ein RAID 10 höhere I/O Werte haben.
Die VMs sollten auf die SSD, aber das geht nicht, weil sie noch zu teuer
sind: also sind sie auf dem RAID.
Ja, so weit klar.
Für den Hypervisor benötigst du keine SSD: da geht auch ein USB Stick:
der Hypervisor läuft sowiso im RAM.
Und was ist mit Logging, Swapping, Updates, …?!?
Klar, man braucht keine schnelle SSD für den Hypervisor.
Die Alternative sind aber viel zu große HDs, wenn man „richtige“
Laufwerke will.
Oder eben den Hypervisor auf’s gleiche RAID, wie ich es derzeit habe.
Da sehe ich inzwischen aber eben Nachteile drin.
Proxmox läuft derzeit nicht Gefahr in der Versenkung zu verschwinden:
also verstehe ich die Sorge „Außenseiter“ zu sein nicht.
Bezogen auf LMN kann ich das nicht abschätzen. Es gibt mehrere Aussagen
von Nutzern, die auf XEN wechseln wollen, weil das der ausgerufene
(supportete) Standardweg ist, einige haben schon gewechselt.
Wwen interessiert es welche Virtualisierung du verwendest.
Hast du häufig Probleme mit dem Hypervisor?
Nein, natürlich nicht.
Kann man solche Probleme dann nicht auch in einem anderen Forum klären?
Man kann es versuchen, erfahrungsgemäß sind da aber die Reaktionszeiten
länger und die Freundlichkeit und Hilfsbereitschaft geringer
und dann gibt es eben noch Proxmox, VMware, …
die gehen auch: was solls.
Dass es damit geht steht außer Frage. Ich würde ungeachtet des
Vorhandenseins anderer Foren zum eingesetzten Hypervisor trotzdem ungern
jetzt auf Lösung X (ungleich Xen) setzen und dann hier künftig der
Einzige sein, der das nutzt.
Wenn dann was nicht funktioniert, kommt gerne der Fingerzeig „wir haben
doch ausdrücklich was anderes empfohlen, also schau allein, wie du jetzt
klar kommst“.
Wenn es dann zumindest eine breitere Nutzerbasis von - in meinem Fall -
Proxmox gibt, dann steht man nicht ganz allein da.
Viele Grüße
Steffen