Linbo startet bei virtuellem Client mit neuer HD nicht mehr

Hallo,

ich betreibe schon ewig 2 virtuelle Maschinen als Clients in grün. Nun habe ich bei einer die virtuelle Festplatte „ausgetauscht“. Abgesehen von der Größe der Festplatte (bisher 50 GB, jetzt mit 80 und 100 GB getestet) sind die Einstellungen alle gleich (Controller IDE, raw-format).

Starte ich die VM dann wieder über Netzwerkboot, dann kommt beim Linbo-Start

Loading / linbofs64.lz…
Press any key to continue

Das Press any key to continue kommt normalerweise nicht. Es geht dann aber trotzdem (mit als auch ohne Tastendruck) weiter. Allerdings kommt dann

sh: can’t kill PID 767: No such process

und dann geht nichts mehr weiter.

Spiele ich das Backup der VM mit der alten Disk (50GB) wieder ein, bootet Linbo wieder einwandfrei :confused:

Kann sich da jemand einen Reim drauf machen?

Erst der Supergau mit dem 16.04-Cloop und jetzt das… momentan auer’t es mal wieder ziemlich :rage:

Viele Grüße
Steffen

Hallo,

Spiele ich das Backup der VM mit der alten Disk (50GB) wieder ein,
bootet Linbo wieder einwandfrei :confused:

es wird noch verrückter:
Ändere ich in der start.conf die Partitionierung für den virtuellen
Client und starte diesen dann, bootet Linbo zunächst fehlerfrei.

Ich partitioniere die HD mit Linbo und boote neu.

Und das Problem mit dem

Loading / linbofs64.lz…
Press any key to continue

und danach

sh: can’t kill PID 769: No such process

kommt wieder. Hat mein Linbo einen Bug im Zusammenhang mit
informatierten oder frisch formatierten HDs?

dpkg -l | grep linbo
ii linuxmuster-linbo 2.3.22-0 linuxmuster-linbo scripts
ii linuxmuster-linbo-common 2.3.22-0 linuxmuster-linbo common files:
kernel, initrd and pxe boot configuration

Viele Grüße
Steffen

Hallo Steffen,

ich betreibe schon ewig 2 virtuelle Maschinen als Clients in grün. Nun
habe ich bei einer die virtuelle Festplatte „ausgetauscht“. Abgesehen
von der Größe der Festplatte (bisher 50 GB, jetzt mit 80 und 100 GB
getestet) sind die Einstellungen alle gleich (Controller IDE, raw-format).

nimm doch mal einen anderen Controller. IDE ist ja nun wirklich weit von
der Wahrheit entfernt, oder?

Starte ich die VM dann wieder über Netzwerkboot, dann kommt beim Linbo-Start

Loading / linbofs64.lz..
Press any key to continue

da versucht er wohl das linbo64.lz von der Festplatte zu laden: wo es
nicht ist.

Das Press any key to continue kommt normalerweise nicht.

… weil es ja normalerweise da liegt.

Es geht dann
aber trotzdem (mit als auch ohne Tastendruck) weiter.

er läd es also dann über das Netz.

Allerdings kommt dann

sh: can't kill PID 767: No such process

und dann geht nichts mehr weiter.

Spiele ich das Backup der VM mit der alten Disk (50GB) wieder ein,
bootet Linbo wieder einwandfrei :confused:

backup?
Hast du eine komplett neue VM erstellt, oder, wie es erst suggeriert
wurde, nur die Festplatte getauscht?

Erst der Supergau mit dem 16.04-Cloop und jetzt das… momentan auer’t
es mal wieder ziemlich :rage:

… welcher SuperGAU?
Wobei ich ja kein Freund von superlativen von Superlativen bin: GAU ist
schon der Größte Anzunehmende Unfall, da benötige ich eigentlich kein
„Super“ mehr.
Ist ein wenig so wie das Wort „der Einzigste“ als „Steigerung“ von
„Einzige“ … aber was ist den die Steigerung von Einzig?

Aber zurück zur Frage: welches einschneidende und äußerst verwüstende
Problem mit dem 16.04 cloop hast du den?
Muss ja was anderes sein als in der Mail von vorhin: das sah mir nicht
nach GAU aus.

Viele Grüße

Holger

Hallo Holger

nimm doch mal einen anderen Controller. IDE ist ja nun wirklich weit von
der Wahrheit entfernt, oder?

ich habe auch schon virtio genommen, gleiches Ergebnis.

Es geht dann
aber trotzdem (mit als auch ohne Tastendruck) weiter.

er läd es also dann über das Netz.

so weit so gut

Allerdings kommt dann

|sh: can't kill PID 767: No such process|

und dann geht nichts mehr weiter.

allerdings geht halt danach nichts mehr weiter (s.o)

Spiele ich das Backup der VM mit der alten Disk (50GB) wieder ein,
bootet Linbo wieder einwandfrei :confused:

backup?

ja, ich habe ein Backup der VM von 2015 rumfahren, das ich inzwischen
schon ein paar Mal zurück gespielt habe. Danach geht der Linbo-Start wieder.

Hast du eine komplett neue VM erstellt, oder, wie es erst suggeriert
wurde, nur die Festplatte getauscht?

Ich habe schon alles Mögliche gemacht.

  1. bei der vorhandenen (bis dahin per Linbo bootenden) VM die virtuelle HD
    a) gelöscht und eine neue (bis auf die Größe identische) HD angelegt
    b) die bisherige HD deaktiviert (nicht gelöscht) und eine neue (bis auf
    die Größe identische) HD angelegt
    c) eine HD als virtio statt ide angelegt
    d) eine HD als qcow2 statt raw angelegt
    e) alle Kombinationen aus c) und d) probiert

  2. eine komplett neue VM erstellt mit
    a) identischen Einstellungen zur bisherigen VM (selbst HD-Config und
    Größe identisch)
    b) allen Kombis aus 1.c) und d)

In keinem der Fälle bootet Linbo noch, es kommt immer der

sh: can’t kill PID 767: No such process
Fehler.

Selbst wenn ich in der bis dato funktionierenden (zurückgespielten) VM
die HD einmal deaktiviere und dann wieder aktiviere, bootet Linbo nicht
mehr (obwohl ja alle Daten auf der HD inkl. Cache noch drauf sind).

Das ist echt strange, dass Linbo mit der vorhandenen (alten) virtuellen
HD problemlos zurecht kommt, aber sobald man die einmal von
Hypervisor-Seite angefasst hat, Linbo nicht mehr bootet.

Noch stranger allerdings:
Lasse ich die (funktionierende) HD (von Linbo selbst!!) neu formatieren
und boote dann neu, funktioniert Linbo wieder nicht mehr?!?

Damit wurde ja hypervisor-seitig gar nichts verändert…

Da stellt sich schon die Frage:
Kann mein (aktuellstes) Linbo mit unformatierten oder von sich selbst
formatierten HDs nicht umgehen?!?
Seit ich das aktuelle Linbo installiert habe, habe ich definitiv nie
eine HD partitionsmäßig angefasst, so dass (mir) das Problem eventuell
nur noch gar nicht aufgefallen ist.

Ich will jetzt natürlich nicht einen benötigten Realclient
partitionieren und danach vor demselben Problem stehen…

Aber zurück zur Frage: welches einschneidende und äußerst verwüstende
Problem mit dem 16.04 cloop hast du den?
Muss ja was anderes sein als in der Mail von vorhin: das sah mir nicht
nach GAU aus.

Na ja, ich habe gestern ziemlich lange damit verbracht, mein virtuellen
Win aus Leoclient 1 in 2 zu bringen und auch sonst einige Änderungen
gemacht (neue Starter-Icons, …). Diese Arbeit war mal wieder für die
Tonne, wenn ich auf’s alte Cloop zurück muss. So was nervt (mich)
einfach kolossal, wenn ich sinnlos Zeit verplempere(n muss).

Viele Grüße
Steffen

Hallo Steffen,

Ich habe schon alles Mögliche gemacht.

bei der vorhandenen (bis dahin per Linbo bootenden) VM die virtuelle HD
a) gelöscht und eine neue (bis auf die Größe identische) HD angelegt
b) die bisherige HD deaktiviert (nicht gelöscht) und eine neue (bis auf
die Größe identische) HD angelegt
c) eine HD als virtio statt ide angelegt
d) eine HD als qcow2 statt raw angelegt
e) alle Kombinationen aus c) und d) probiert
eine komplett neue VM erstellt mit
a) identischen Einstellungen zur bisherigen VM (selbst HD-Config und
Größe identisch)
b) allen Kombis aus 1.c) und d)

In keinem der Fälle bootet Linbo noch, es kommt immer der

sh: can't kill PID 767: No such process
Fehler.

leg mal eine frische Gruppe in linbo für den Cleint an und nimm ihn in
ide auf.
Nimm dazu eine standard start.conf aus examples und verstell nichts an
der /var/linbo/boot/grub/gruppe.cfg

Gibt es in Proxmoxx nichts außer virtio und IDE?

Da stellt sich schon die Frage:
Kann mein (aktuellstes) Linbo mit unformatierten oder von sich selbst
formatierten HDs nicht umgehen?!?
Seit ich das aktuelle Linbo installiert habe, habe ich definitiv nie
eine HD partitionsmäßig angefasst, so dass (mir) das Problem eventuell
nur noch gar nicht aufgefallen ist.

Ich will jetzt natürlich nicht einen benötigten Realclient
partitionieren und danach vor demselben Problem stehen…

da kann ich dich beruhigen, denn

  1. es ist nicht gerade Sinnvoll von einem einzigen virtuellen Cleint auf
    „alle anderen“ zu schließen
  2. ich habe mit linbo 2.3 schon Hunderte Clients (auch zwei Virtuelle)
    neu Partitioniert: das hat immer geklappt.
    Einziger Pferdefuß: Windwos liegt danach meist auf der Nase: man muss es
    reparieren und ein neues Image erstellen: dann funktioniert das auch wieder.
Aber zurück zur Frage: welches einschneidende und äußerst verwüstende
Problem mit dem 16.04 cloop hast du den?
Muss ja was anderes sein als in der Mail von vorhin: das sah mir nicht
nach GAU aus.

Na ja, ich habe gestern ziemlich lange damit verbracht, mein virtuellen
Win aus Leoclient 1 in 2 zu bringen und auch sonst einige Änderungen
gemacht (neue Starter-Icons, …). Diese Arbeit war mal wieder für die
Tonne, wenn ich auf’s alte Cloop zurück muss. So was nervt (mich)
einfach kolossal, wenn ich sinnlos Zeit verplempere(n muss).

… ich verstehe nicht, wieso du so überzeugt bist das wegschmeißen zu
müssen, nur weil etwas gerade mal nicht sofort funktioniert.
Ist das nicht etwas übertrieben?

Aber bitte: wenn du meinst, dann schmeiß es weg und mach es nochmal.

LG

HOlger

Hallo Steffen,

wenn Du die start.conf von einem “normalen” PC für einen virtuellen nimmst, solltest Du SATA als Controller wählen, da ide nach /dev/hdx und virtio nach /dev/vdx gemappt wird. Wenn dann in der start.conf /dev/sdx steht, findet er nichts. Geschweigedenn von dem fstab-Problem beim Ubuntu-boot.
Ich habe für meine virtuellen Clients in dem Fall immer eine separate start.conf, die ich dann auf den Controller anpasse, die fstab wird mit postsync geändert.

LG
Max

Hallo Max,

wenn Du die start.conf von einem „normalen“ PC für einen virtuellen
nimmst, solltest Du SATA als Controller wählen, da ide nach /dev/hdx und
virtio nach /dev/vdx gemappt wird.

hm, ich hab bislang IDE und das wird zumindest unter dem Ubuntu als
/dev/sdx angezeigt, aber vielleicht ist das ja unter Linbo anders…

Die start.conf ist schon lange eine eigene für die VMs, vermutlich aber
mal vor Jahren von einem Realclient übernommen.

Wenn dann in der start.conf /dev/sdx
steht, findet er nichts.

Das könnte es sein, wobei dann immer noch ungeklärt ist, weshalb es mit
IDE als Controller und /dev/sdx in der start.conf bislang funktioniert,
nur nicht mehr, wenn die virtuelle HD einmal angefasst wird (egal über
hypervisor-seitig oder durch Linbo).

Geschweigedenn von dem fstab-Problem beim
Ubuntu-boot.

Was genau meinst du da?
Ich habe gesehen, dass im Postsync für 16.04 irgendwas mit der fstab
steht. Das gab es im Postsync von 12.04 nicht.

Ich habe daher für jeden Raum die passende fstab in
/var/linbo/linuxmuster-client/cloopname/etc/fstab

Das funktioniert auch unter 16.04 so, wenn man den Eintrag im Postsync
zu fstab auskommentiert.

Aber wenn ich es richtig verstehe, brauche ich die fstabs gar nicht mehr
einzeln vorhalten, da das vom Postsync bei 16.04 eh richtig angepasst
wird, oder?

Ich habe für meine virtuellen Clients in dem Fall immer eine separate
start.conf, die ich dann auf den Controller anpasse, die fstab wird mit
postsync geändert.

Ich habe auch eine separate start.conf, aber eben mit /dev/sdx wie alle
anderen auch, probiere das aber mal aus, was passiert, wenn ich daraus
/dev/hdx oder /dev/vdx mache…

Viele Grüße
Steffen

Hallo,

Ich hab jetzt mal eine start.conf aus den Examples genommen und eine
neue VM erstellt, dort als Disk ide/sata/virtio als raw/qcow2 getestet.

Bei keiner Variante startet das Linbo.

In der start.conf habe ich dann /dev/sdx durch /dev/hdx ersetzt, wenn
ich als Controller IDE genommen habe, /dev/vdx bei Virtio.

Gleiches Ergebnis.

bei der existierenden VM mit ihrer existierenden HD (als IDE und raw)
funktioniert der Start aber problemlos, wenn in der start.conf /dev/sdx
steht ?!?

Ich kapier das nicht.

Kann mal jemand mit Proxmox bei sich testen?

Viele Grüße
Steffen

Hallo,

was mich einfach irritiert, ist die Meldung, mit der der Linbostart dann stehen bleibt.

Auf leerem schwarzen Hintergrund steht oben immer

sh: can’t kill PID 767: No such process

Es wird also offensichtlich versucht, ein Prozess zu beenden, für den es keine PID gibt (oder zumindest nicht die verwendete). Ich hab mal den „Ablauf“ mit Screenshots eingefangen.

Nach dem letzten Bild steht Linbo dann.

Viele Grüße
Steffen

Hallo,

ah, das gab’s offensichtlich schon einmal. Habe gerade das gefunden:
https:/a/www.mail-archive.com/linuxmuster-user@lists.linuxmuster.net/msg15120.html

Das war auch auf einem virtuellen Client (virtualisiert mit KVM) und lag offensichtlich tatsächlich an der Zuordnung der Devices in der start.conf

Wenn ich einen anderen Festplattenbus wähle (SCSI oder VirtIO) läuft Linbo bis zum gewohnten Übersichtsbild durch, hat dann aber keine Festplatte. Aaaah, mit Festplattenbus VirtIO erkennt er die Festplatte, natürlich unter /dev/vda. Ich ändere nun die start.conf um und schon geht es wieder.

Warum das allerdings bei mir trotzdem nicht geht, wenn ich virtio wähle und in der start.conf auf /dev/vdx umstelle… ?!? :confused:

Viele Grüße
Steffen

Hi. Ich lese hier sporadisch mit …

Bei mir sieht das unter Proxmox so aus:

cd /etc/pve/nodes/pve2/qemu-server
cat 101.conf
#Xenial-Final (531)
#Ubuntu 16.04 LTS Client aus der lml-Mailingliste vom 31.05.2016
[...]
ide0: RAID10-local:101/vm-101-disk-1.raw,size=128G

In der start.conf.xenial steht überall /dev/sda
Unter Ubuntu selbst lauten die Devices folgich ebenfalls: /dev/sda

(Ich verwende allerdings noch 6.1 produktiv und kann zu dem Boot-Problem daher nichts weiter sagen. Allerdings heißen die Platten unter Proxmox nicht -wie oben vermutet- /dev/hda, wenn man IDE als Controller verwendet !)

Hallo Michael,

genau so ist da bei meinem funktionierenden VM-Client auch. Wenn ich aber nur die virtuelle HD einmal auf unused setze und dann wieder aktiviere, scheitert der Linbo-Boot, obwohl sich ja eigentlich nichts an den relevanten Einstellungen geändert hat…

Ja, ich hab ja bislang IDE und in der start.conf /dev/sdx, was wenn man es unangetastet lässt funktioniert. Ich bräuchte aber eine größere virtuelle HD…

Viele Grüße
Steffen

… wenn’s nur darum geht, die virt HDD zu vergößern, nimm doch clonezilla und clone das eine OS auf’s andere?? Dann kommt LINBO erst gar nicht ins Spiel? Ich weiß nicht, was PROXMOX mit “unused HDDs” macht bzw scheint es ja so zu sein, dass die noch am virt. Controller hängen und ans Gast-OS durchgereicht werden. In dem Fall hast du vielleicht einfach das Problem, dass die neue Platte nicht /dev/sda sondern /dev/sdb ist und deshalb nicht gebootet werden kann??

Du kannst die virt. HDD auch weg kopieren und dann völlig aus der proxmox-config entfernen. Danach ist nur EINE Platte vorhanden, die auch /dev/sda heißen sollte?!?

Hallo zusammen,

der Thread ist zwar schon etwas älter und wahrscheinlich ist es für dich, Steffen, leider nicht mehr relevant, aber ich hatte gerade genau die gleiche Fehlermeldung beim Versuch, einen neuen virtuellen Client unter Proxmox einzurichten.

Nach der Meldung sh: can't kill pid ... konnte ich mich trotzdem noch mit linbo-ssh am Client anmelden. Und dort fand ich zahlreiche und ständig mehr werdende Logdateien /tmp/linbo_gui.*.log mit folgendem Inhalt:

Unable to load library icui18n "Cannot load library icui18n: (icui18n: cannot open shared object file: No such file or directory)" 
blit_setup(): Screen depth 24 not supported!

Daraufhin habe ich im Proxmox mal “SPICE” und “VMWare compatible” unter Display ausgewählt. Mit beiden startet dann auch die Linbo-GUI und ich kann den virtuellen Client aufnehmen, installieren und starten.

Änderungen an der start.conf und den Device-Namen waren nicht notwendig.

Viele Grüße

Andreas

Hallo Andreas,

Nach der Meldung |sh: can’t kill pid …| konnte ich mich trotzdem noch
mit |linbo-ssh| am Client anmelden. Und dort fand ich zahlreiche und
ständig mehr werdende Logdateien |/tmp/linbo_gui.*.log| mit folgendem
Inhalt:

Unable to load library icui18n „Cannot load library icui18n: (icui18n:
cannot open shared object file: No such file or directory)“
blit_setup(): Screen depth 24 not supported!|

Daraufhin habe ich im Proxmox mal “SPICE” und “VMWare compatible” unter
Display ausgewählt. Mit beiden startet dann auch die Linbo-GUI und ich
kann den virtuellen Client aufnehmen, installieren und starten.

… super: dann läuft das damit auch mit XEN.

hast du deinen Beitrag als „gelöst“ markiert?

Vielen Dank für die erfolgreiche Suche :slight_smile:

LG

Holger

Hallo Holger,

Das kann ich nicht, das müsste @crazy-to-bike machen.

Viele Grüße

Andreas

Hallo Andreas,

seinen eigenen Beitrag sollte imho jeder (über die 3 Punkte) als Lösung für den Thread setzen können. Ich hab’s aber grad mal gemacht.

Und ja, du hast nicht ganz unrecht: Ein Stück weit ist es durch die Entwicklung an meiner Schule nicht mehr sooo relevant für mich, aber andererseits um so relevanter, schließlich bleibe ich hier ja trotzdem aktiv und habe daher nur noch eine LMN-Testumgebung unter Proxmox ohne reale Clients :wink:

Viele Grüße
Steffen

Hallo Steffen,

bei mir sieht das nur so aus, wenn ich auf die drei Punkte unter einem meiner Beiträge in einem nicht von mir erstellten Thread klicke:

Bildschirmfoto%20vom%202018-07-01%2012%3A15%3A34

Da ist leider kein Häkchen dabei…

Das ist schön!

Viele Grüße

Andreas

Hallo Andreas,

seinen eigenen Beitrag sollte imho jeder (über die 3 Punkte) als
Lösung für den Thread setzen können.

bei mir sieht das nur so aus, wenn ich auf die drei Punkte unter einem
meiner Beiträge in einem nicht von mir erstellten Thread klicke:

Bildschirmfoto%20vom%202018-07-01%2012%3A15%3A34

Da ist leider kein Häkchen dabei…

… seltsam.
Ich hab mal geschaut, ob es vielelicht an der Menge der „Auszeichnugen“
liegt, die Discourse für dich schon registriert hat.
Das sind nciht wenige: das sollte es also auch nicht sein.

Liegt es am Browser?

LG

Holger

Firefox 60.0.2 (64 Bit) unter Ubuntu 16.04.

Vielleicht darf man das ja erst als „Stammgast“.

Viele Grüße

Andreas