Installationsanleitung für KVM für v7

v7
#1

Liebe Community,

nachdem die XCP-ng-Anleitung schon steht und wohl funktioniert:
http://docs.linuxmuster.net/de/v7/appendix/install-on-xcp-ng/index.html

ziehe ich mit einer Installationsanleitung für KVM nach.
http://docs.linuxmuster.net/de/v7/appendix/install-on-kvm/index.html
Ebenfalls mit Einschränkungen:

  • Ohne Docker und Opsi (wobei das analog geht)
  • Initiales Netzwerkbild ist noch nicht aktuell (@MachtDochNix: Auftrag an dich! Bitte mit Netzwerk 10.0.0.0/16 und mit Opnsense statt ipfire und ich würde dem KVM-Host auch keine grüne Adresse geben, und wenn, dann evtl. die 10.0.0.9)
  • Anleitung, wie man den KVM-Host konfiguriert fehlt noch, weil ich noch kein netplan auf dem Host besitze, sondern noch eine /etc/network/interfaces.

Hat jemand von euch eine netplan konfiguration für den Host, in dem eine bridge für Grün und Rot erstellt wird, am besten auch noch eine für Bonding und eine für VLAN :slight_smile:

Wer macht jetzt die Doku für Proxmox??? Freiwilige Proxmoxxer vor!

Viele Grüße, Tobias

#2

Nochwas, hauptsächlich @baumhof und diejenigen, die planen, KVM weiterhin einzusetzen:
Ich habe bisher komplett auf die GUI verzichtet, auch weil die ERweiterung der FEstplatte evtl. auch mit gparted geht, aber das will ich eigentlich nicht auf dem Server installieren. Daher muss man sowieso an die Konsole ran.
Dementsprechend steht da noch nix von virt-manager.

Andererseits sind die OVAs ja insofern buggy, dass das netplan-interface wohl immer falsch ist. Dann muss man sowieso mit einem virt-manager an das server-interface vom Admin-PC aus ran.

Fazit: virt-manager fehlt bislang, aber ohne die Fehler in den OVAs bräuchten wir es auch nicht zwingend.

#3

Moin!

Auftrag bestätigt.

:slight_smile:

1 Like
#4

Hallo,

hab heute mal wieder nachgeschaut, wie es mit der LMNv7 aussieht, und bin auf die installtionsanleitung dafür gestossen.
Werde Ubuntu 18.4 und Opensense direkt auf den Servern installieren.
Der Ubuntu-Link stimmt nicht mehr, wahrscheinlich weil jetzt 18.04.1 gilt. Ist aber kein Problem.

Nach dem Download-Hinweisen für Server und Opensense finde ich aber nichts zur Einbindung der Musterlösung. Es geht direkt zur Installation. Wo finde ich die Paketquellen etc. die ich eintragen und aktivieren muss, bevor ich mit http://10.0.0.1:8000 installieren kann?

MFG JH

#5

Hi @jojocw,

wir sind momentan so weit, dass eine Installation per OVA-Appliances dokumentiert wird.

Wer die lmnv7 direkt auf dem Blech installieren will, der muss sich gedulden oder darf mit freundlicher Unterstützung der Supporter hier natürlich auch nachschauen, wie die appliances gebaut wurden und uns helfen, in dem die wichtigsten Schritte dokumentiert werden. :slight_smile:

So kann man natürlich (vermutlich) auch lmn von scratch installieren.

Du könntest noch einen Hinweis geben, was du genau gelesen hast. z.B. wo ist der 18.04-link outdatet?

VG, Tobias

#7

Hallo Tobias,

hier noch mal mit korrekten Code Tags:

hier einmal mit alles:

# This file describes the network interfaces available on your system
# and how to activate them. For more information, see interfaces(5).

# The loopback network interface
auto lo
iface lo inet loopback

# bonding interface
auto bond0
iface bond0 inet manual
        bond-slaves eth1 eth2 eth3 eth4
        bond-mode 4
	bond-lacp-rate 1
        bond-miimon 100

# Single Intel PCI GB Karte
#auto eth0
#iface eth0 inet dhcp
#iface eth0 inet manual
# This is an autoconfigured IPv6 interface
#iface eth0 inet6 auto

# vlan bridge internet manual
auto br100
iface br100 inet static
   address 141.62.133.220
   netmask 255.255.255.248
#   network 192.168.178.0
#   broadcast 192.168.178.255
   gateway 141.62.133.217
   dns-nameservers 129.143.2.4
#   address 192.168.178.9
#   netmask 255.255.255.0
##   network 192.168.178.0
##   broadcast 192.168.178.255
#   gateway 192.168.178.1
#   dns-nameservers 192.168.178.1
   bridge_ports eth0
   bridge_fd 0
   bridge_maxwait 0

# SinglePCIe Karte Realtec
auto eth1
iface eth1 inet manual
bond-master bond0
# This is an autoconfigured IPv6 interface
#iface eth1 inet6 auto
# The primary network interface

# Dual NIC Karte Intel 1
auto eth2
iface eth2 inet manual
bond-master bond0
# This is an autoconfigured IPv6 interface
#iface eth2 inet6 auto

#Dual Nic Karte Intel 2
auto eth3
iface eth3 inet manual
bond-master bond0
# This is an autoconfigured IPv6 interface
#iface eth3 inet6 auto

# Onboard Realtec Karte
auto eth4
iface eth4 inet manual
bond-master bond0
# This is an autoconfigured IPv6 interface
#iface eth4 inet6 auto

# vlan 10 internet
auto bond0.10
iface bond0.10 inet manual
    vlan-raw-device bond0

# vlan 11 servernetz
auto bond0.11
iface bond0.11 inet manual
    vlan-raw-device bond0

# wlan vlan12
auto bond0.12
iface bond0.12 inet manual
    vlan-raw-device bond0

## unifi vlan13
auto bond0.13
iface bond0.13 inet manual
    vlan-raw-device bond0
#    up ifconfig bond0.13 up
# vlan bridge internet dhcp

#auto br0.10
#face br0.10 inet dhcp
#   bridge_ports bond0.10
#   bridge_stp on
#   bridge_fd 0
#   bridge_maxage 0
#   bridge_ageing 0
#   bridge_maxwait 0

# vlan bridge internet static
#auto br0.10
#iface br0.10 inet static
#   address 192.168.1.1
#   netmask 255.255.255.0
#   network 192.168.1.0
#   broadcast 192.168.1.255
#   gateway 192.168.1.254
#   dns-nameservers 192.168.1.254
#   bridge_ports bond0.10
#   bridge_stp on
#   bridge_fd 0
#   bridge_maxage 0
#   bridge_ageing 0
#   bridge_maxwait 0

# vlan bridge internet manual
auto br0.10
iface br0.10 inet manual
   bridge_ports bond0.10
   bridge_stp on
   bridge_fd 0
   bridge_maxage 0
   bridge_ageing 0
   bridge_maxwait 0
#auto br0.10
#iface br0.10 inet static
#   address 192.168.178.12
#   netmask 255.255.255.0
#   network 192.168.178.0
#   broadcast 192.168.178.255
#   gateway 192.168.178.1
#   dns-nameservers 192.168.178.1
#   bridge_ports bond0.10
#   bridge_stp on
#   bridge_fd 0
#   bridge_maxage 0
#   bridge_ageing 0
#   bridge_maxwait 0
#   up /sbin/ifconfig $IFACE up || /bin/true

# vlan bridge servernetz static
auto br0.11
iface br0.11 inet static
   address 10.16.1.2
   netmask 255.255.255.0
   bridge_ports bond0.11
   bridge_stp on
   bridge_fd 0
   bridge_maxage 0
   bridge_ageing 0
   bridge_maxwait 0
#   up /sbin/ifconfig $IFACE up || /bin/true

# vlan bridge servernetz manual
#auto br0.11
#iface br0.11 inet manual
#   bridge_ports bond0.11
#   bridge_stp on
#   bridge_fd 0
#   bridge_maxage 0
#   bridge_ageing 0
#   bridge_maxwait 0

# vlan bridge wlan
auto br0.12
iface br0.12 inet manual
   bridge_ports bond0.12
   bridge_stp on
   bridge_fd 0
   bridge_maxage 0
   bridge_ageing 0
   bridge_maxwait 0
#   up /sbin/ifconfig $IFACE up || /bin/true

# vlan bridge unifi
auto br0.13
iface br0.13 inet manual
   bridge_ports bond0.13
   bridge_stp on
   bridge_fd 0
   bridge_maxage 0
   bridge_ageing 0
   bridge_maxwait 0
#   up /sbin/ifconfig $IFACE up || /bin/true

LG

Holger

#8

Muchas gracias,

ich hab den ersten Beitrag gelöscht wenns nix ausmacht, war so riesig.
Ich vermute, du hast das schon am Laufen, weil du den serverhost schon auf 18.04 geupdatet hast?

Super, mal sehn, ob ich das zuerst dokumentiere oder zuerst ausprobiere :slight_smile:
VG, Tobias

#9

Moin Tobias!

So?

install-on-kvm-image01

Liebe Grüße

Thorsten

1 Like
#10

Hi Thorsten,

sieht gut aus. Du kannst der OPNsense (s klein) ruhig noch eine beliebige 192.168.0.200 geben, oder so. Und gib dem Admin PC noch die 10.0.0.10

gefällt mir: gestrichelt, wenn virtuell, und dass der Host so halb drin halb draußen steht.

VG, Tobias

#11

Hallöchen Tobias!

@cweikl, @Tobias, @TLeibbrand oder @WildXI: Ich stehe irgendwie auf dem Schlauch und komme nicht runter. Schubs mich mal einer von euch, bitte.

Also Bildchen ist fertig wollte es ins github stellen. git pull sagt ist aktuell. Alles wie in http://docs.linuxmuster.net/de/v7/appendix/contribute/docs/new.html# beschrieben gemacht. Allerdings finde ich nur die v6.2 bzw nur die sehe ich. Wenn ich jetzt das Bild da einfüge, dann kommt das doch in die Version 6.2 und stiftet dort doch nur Verwirrung. Oder???

Beste Grüße

Thorsten

#12

Hi Thorsten,

git is a witch. Du hast recht, dass alles was in der Doku zu git steht sich auf den master-Zweig bezieht.
Einfachste Variante wäre, du würdest das Bild dort wo es bereits liegt ersetzen:

Aber das ist ja zu einfach. Was, wenn du ein neues Bild hochladen willst, etc.?

Ich habe die Antwort kurzerhand dokumentiert und in die v7 Doku gemergt. See hier:

http://docs.linuxmuster.net/de/v7/appendix/contribute/docs/new.html#fur-fortgeschrittene-andere-zweige-bearbeiten

#13

Hi Holger. Ich sehe, dass du die gleichen (sehr wahrscheinlich falschen) Einstellungen wie ich verrwendest. Daher zitiere mal einen Beitrag aus dem Nachbarforum:

" aber warum hast du das ageing (und die max_age )auf allen bridges abgedreht? (damit sollten sie alle sich wie hubs verhalten - recht viele pakete, die nicht notwendig wären, werden verschickt).
Ausser es gibt einen guten Grund, versuch doch bitte die Zeilen mit bridge_maxage und bridge_ageing rauszunehmen."

War mir vorher auch nicht klar … sollte aber geändert werden. Es sei denn, du willst es so haben??
Schöne Grüße,
Michael

#14

@MachtDochNix: bild eingebunden. Danke!

#15

Hi Holger,

jetzt wo ich es dokumentieren will: Ich wollte zwar die Pizza einmal mit alles, aber nicht die von “ifupdown” sondern die von “netplan”.
Denn “netplan”-Pizzas sind der letzte Schrei.
Wenn du schon netplan hättest, müssten die dinge eher so aussehen:

Und das ist was ich suche. Ich kann leider den KVM-Host nicht im Laufenden Betrieb von “ifupdown” auf “netplan” umstellen… Also: wer eine netplan-konfig für den KVM-Host besitzt her damit.

VG, Tobias

#16

Verschlüsselung auf dem VM-Host?

siehe: https://youtu.be/ZL0e07nJI_w?t=136

Was meint ihr? LVM mit Verschlüsselung oder ohne einrichten - auf dem KVM-Host?
Klar, die VMs selbst sollten verschlüsseln, wenn sie etwas verschlüsseln wollen. Dann wäre die KVM-Verschlüsselung auf KVM-Host Ebene unnützer overhead - und evtl. PITA fürs Backup.

VG, Tobias

#17

Hi Tobias,

ZFS statt LVM? Kein Plan, ich les heut Nacht mal etwas darüber…
LXD statt KVM wegen Performance (mein altes Nextcloud mount.davfs2-Problem)? Man könnte schon viel neues machen, wenn man das alte nicht schon könnte…

:wink:

schönes Wochenende

Max

#18

https://en.wikipedia.org/wiki/Btrfs vielleicht?

ICh bin offen für Neues. Es muss halt genug Erfahrung im Netz vorhanden sein, dass man leicht nachschauen kann. ZFS ist large aber nicht unbedingt bekannt viel auf Linux eingesetzt zu werden, oder?

LXD nutzt @zefanja - weiß zu wenig, ob das Zielführend ist.
Meine Performanz in mount.davfs2 ist übrigens auch sehr bescheiden. Aber ich glaube das liegt an der Nextcloud, nicht an der Virtualisierung.
VG, Tobais

#19

Hi. ZFS (Oracle) bzw btrfs (-> Linux) sind auf jeden Fall super coole Features.

Ich habe auf einem Proxmox-Testserver “zum Spielen” ein RAID10 mit ZFS eingerichtet (4 Platten direkt auf dem Board, also ohne Controller dazwischen). Danach eine VM gestartet und eine Platte abgezogen, um zu schauen was geschieht. Proxmox schickt sofort eine E-Mail raus, dass das RAID nicht mehr i.O. ist aber das viel bessere daran: Platte wieder angesteckt und nach ein paar Sekunden (!!!) eine weitere E-Mail erhalten, dass alles wieder synchronisiert ist. Das sog. “Resilvering” funktioniert da super gut. Ein normaler RAID Controller wäre jetzt erstmal mindestens ein paar Stunden wenn nicht sogar ganze Tage beschäftigt!
Im Parallelthread wurde ja bereits weitergehend über ZFS, RAID-Z diskutiert…

Was Nextcloud angeht: wieviel RAM habt ihr der VM gegönnt?

Schöne Grüße,
Michael

#20

Hallo Michael,

Den RAM hatte ich auch schon im Verdacht. Sie darf 10GB, wurstelt aber unter 2GB rum…
LG
Max

#21

Hi @baumhof,

ich hab jetzt “einmal mit alles” auf einem 18.04er mit netplan. D.h. wenn man neu installiert, wird netplan installiert. Wenn man updatet bleibt ifupdown installiert und netplan macht einfach nix.
Folgendes file funktioniert nur dann, wenn man auch “systemd-network” am Laufen hat (ist der standard) und nicht den network-manager.

Das File sieht bei mir so aus:

network:
  version: 2
  renderer: networkd
  ethernets:
    eth0:
      dhcp4: no
      dhcp6: no
    eth1:
      dhcp4: no
      dhcp6: no
  
  bonds:
    bond0:
      interfaces: [eth0, eth1]
      parameters:
        mode: balance-rr
        mii-monitor-interval: 100

    vlans:
    vlan-rot:       # Internet/Firewall (RED)
      id: 20
      link: bond0
    vlan-server:    # Server Netz (GREEN)
      id: 10
      link: bond0
    vlan-dmz:       # DMZ (ORANGE)
      id: 15
      link: bond0
    vlan-wlan:      # CoovaChilli Netz (BLAU)
      id: 13
      link: bond0
    vlan-teacher:   # LehrerNetz (GREEN)
      id: 12
      link: bond0
    vlan-rest:      # Pädagogisches Netz (GREEN)
      id: 14
      link: bond0

  bridges:

    br-red:
      interfaces: [vlan-rot]
      link-local: [ ]
      addresses: [ ]
      dhcp6: no
      dhcp4: no

    br-server:
      interfaces: [vlan-server]
      addresses: [10.16.1.22/16]
      gateway4: 10.16.1.254
      nameservers:
        addresses: [10.16.1.1]
        search: ["meine.schule.de"]

    br-dmz:
      interfaces: [vlan-dmz]

    br-dmz:
      interfaces: [vlan-wlan]

Danach sieht die IP-konfig so aus:

root@kvmhost:~# ip -br addr list
lo               UNKNOWN        127.0.0.1/8 ::1/128
eth0             UP
eth1             UP
br-server        UP             10.16.1.22/16 fe80::3c82:8dff:fe41:846c/64
br-dmz           UP             fe80::c24:c5ff:fe8b:e361/64
br-red           UP             fe80::b805:1aff:fe79:aebd/64
bond0            UP             fe80::a410:eeff:fe1e:5def/64
vlan-dmz@bond0   UP
vlan-rot@bond0   UP
vlan-wlan@bond0  UP
vlan-server@bond0 UP
vlan-teacher@bond0 UP             fe80::a410:eeff:fe1e:5def/64
vlan-rest@bond0  UP             fe80::a410:eeff:fe1e:5def/64
virbr0           DOWN           192.168.122.1/24
virbr0-nic       DOWN
vnet0            UNKNOWN        fe80::fc54:ff:fe9f:b8af/64
  • Die virtuellen Brücken “virbr0” (und vermutlich auch vnet0) kommen von KVM/libvirtd
  • Man bekommt außerdem meist eine (lokale?) IPv6-Adresse, z.B. br-red. Das gefällt mir nicht. Ich habe es bei br-red mit leeren link-local und addresses Feldern probiert. Es scheint doch zu funktionieren, wenn man leere “addresses”-Felder einfügt, allerdings reicht dann nicht ein “netplan apply”, sondern ein reboot ist nötig, weil die IF schon UP sind, wird das durch apply scheinbar nicht revidiert…
  • Dagegen bekommt vlan-rot@bond0 keine mehr, weil br-red definiert ist.
  • Weil ich “br-teacher” noch nicht definiert habe, bekommt vlan-teacher@bond0 eine IPv6 Adresse.
  • Das “lo” Interface hab ich weiterhin in /etc/network/interfaces definiert. evtl. ist es dort aber nicht mehr nötig.

Weitere Hilfe hier: https://netplan.io/examples
Dort steht auch, dass man die Brücken für KVM ebenso nennen soll, wie man sie in netplan definiert.

VG, Tobias