Beiträge von Olaf Krause

    Disk an VM oder LXC (hier mit Einschränkungen) durchreichen - macht nat. nur sinn für Systeme die nicht im HA Cluster später verschoben werden können und wenn wirklich IO performance entscheidend ist. Ich würde aber z.B. nicht platten durchreichen um auf einem NAS ein ZFS volume zu erstellen, dass besser direkt auch Proxmox und dann von dort zu verfügung stellen.
    Leider geht das ganze nicht an der WebGUI.

    erstmal brauchen wir die disk-id der platten die wir durchreichen möchten.

    hier brauchen wir den teil mit ata... für die platten die wir durchreichen möchten.

    Dann brauchen wir noch die VM ID und die Laufwerks ID die wir nutzen möchten.

    ALso hier z.B 205 und dann die nächste freie SCSI ID also scsi1.

    qm set <vmnummer> -<nächste freie disk> /dev/disk/by-id/<eure disk id>

    Code
    root@pve-hv-01:/media/sdc2# qm set 205 -scsi2 /dev/disk/by-id/ata-TOSHIBA_MG07ACA14TE_71V0A26RF94G
    update VM 205: -scsi2 /dev/disk/by-id/ata-TOSHIBA_MG07ACA14TE_71V0A26RF94G

    und in Proxmox webinterface sieht das dann so aus:

    d.h. in meinem Fall hat die VM omv mit der ID 205 eine weitere SCSI platte (2) hinzubekommen. Ihr seht auch die SCSI ID muss nicht fortlaufend sein aber frei.

    Man kann die Platte auch mehrfach verwenden und an mehrere VMs binden (aber nur eine sollte schreiben dürfen).

    Bei Containern kann ich nicht die gesamte Platte durchreichen sondern nur "mountpointa" - man muss diese also im Host entsprechend anlegen.

    Code
    root@pve-hv-01:/media/sdc2# lsblk | grep -i sdd
    sdd                              8:48   1  12.7T  0 disk
    ├─sdd1                           8:49   1    16M  0 part
    └─sdd2                           8:50   1  12.7T  0 part
    root@pve-hv-01:/media# mkdir sdd
    root@pve-hv-01:/media# mount -t ntfs -o nls=utf8,umask=0222 /dev/sdd2 /media/sdd
    root@pve-hv-01:/media# lsblk | grep -i sdd
    sdd                              8:48   1  12.7T  0 disk
    ├─sdd1                           8:49   1    16M  0 part
    └─sdd2                           8:50   1  12.7T  0 part /media/sdd

    sdd2 ist eine NTFS partition die readonly eingebunden werden soll. Wenn man das permanent machen möchte nat. in /etc/fstab einbinden.

    Code
    pct set <containerid> -mp0 /media/sdd,mp=/media/sdd-ct

    so sieht das dann auf der GUI aus (nach dem pct set den container rebooten damit es wirksam wird):

    Das kann man hier wieder für mehrere Container machen. Mischen, also mountpoint für container und die gleiche Platte für VM durchreichen wird nicht gehen.

    Template von einer VM erstellen, damit man nicht immer alle Schritte nochmals durchmachen muss (installations zeuchs, update,...)

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    was im video fehlt ist ein sudo cloud-init clean bevor Ihr die template VM final runterfahrt. Macht man das nicht werden die SSH keys nicht neu erstellt. Ihr könnt das auch später auch in der geklonten Maschine machen und dann rebooten - beim reboot werden dann die SSH keys erzeugt. Ansonsten wird der SSH Daemon nicht starten.

    Noch ein Hinweis für Windows VMs. Hier noch ein virtio iso image herunterladen und als treibercd mit einbinden. Bei der Installation von diese die SCSI Treiber installieren späte dann wenn windows läuft noch die fehlenden Treiber und den Guestagent von der CD installieren.

    Das gleiche geht für Container auch.

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Nach dem start der geclonten container noch

    Code
    dpkg-reconfigure openssh-server

    um die SSH keys wieder zu erzeugen damit der SSH server läuft (cloud-init gibt es im container nicht).

    was ich noch geschickt finde ist webmin gleich mit auf dem Template zu installieren:

    Webmin

    package mit z.b.

    Code
    wget https://downloads.sourceforge.net/project/webadmin/webmin/2.000/webmin_2.000_all.deb

    herunterladen und dann mit

    Code
    sudo dpkg -i webmin_2.000_all.deb

    installieren. Evtl. noch dependencies nachinstallieren und wiederholen

    Ähnlich wie Container erstellt man VMs.

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Image herunterladen und VM erstellen - image auswählen für die DVD Discard bei der platte aktivieren wenn SSD (trim), Bridge die richtige nehmen...

    Wenn man die VM startet läuft dann der normale Ubuntu (Annahme man hat eine Ubuntu ISO genommen - ich nehme minimal server) installer ab.

    Wenn die VM läuft erstmal ein update upgrade und ein apt install qemu-guest-agent und den Agent in den Optionen der VM aktivieren (für den nächsten restart)

    Sodele jetzt wie bekomme ich einen Linux Container zum laufen.

    Wann VM:

    - Wenn live migration geplant ist

    - Externer service da VM höhere Sicherheit bietet als Container

    EInen Webserver für extern oder Nextcloud von extern würde ich besser in eine VM packen

    LXC:

    - Lokale Services (linux only)

    - Migration via shutdown move start reicht

    - Resources geschont werden sollen (z.B. LXC Ubuntu 22 50MB VM ca. 1 GB Ram verbrauch)

    Einen Metrikserver oder lokalen NAS server würde ich in einen LXC packen.

    Linux Container sind mehr oder weniger wie eine VM im Gegensatz zu einem "normalen" Container der eigentlich keinen Status hat und somit alle Daten die zur Laufzeit generiert wurden verliert (es sei denn man nutzt persistence volumes).

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Man startet damit Container Templates bereitzustellen - hier mal Ubuntu 22 (ich werde wo immer es geht Ubuntu einsetzen):

    Danach kann man mit diesem template schon einen LXC container erstellen. Bis auf den Namen und die passende Netzwerkbridge alles default:

       

    läuft:

    So schnell kann man ein erstes Ubuntu Linux virtualisieren :) Dauert 30s.

    Ach ja Nachtrag Netze die sehen bei mir so aus: aktuell drei subnetze LAN (0), Cluster (5) ,WAN (1)

    eno1 ist unbenutzt.

    Mounting an NTFS partitition (have to use command line, just open a shell on the GUI or use and SSH client)

    read only

    mount -t ntfs -o nls=utf8,umask=0222 /dev/<yourdevice like sdb2> /media/<yourname>

    umount /media/<yourname>

    or rw

    mount -t auto /dev/<yourdevice like sdb2> /media/<yourname>

    oder wenn noch nicht vorhanden mit

    Code
    sudo apt-get install ntfs-3g

    und dann als ntfs-3g mounten.

    Nächster check wird mein HBA/RAID controller und die festplatten erkannt. Jawoll - puh das war meine größte Sorge.

    das NVME drive wird für ein Cluster CEPH volume später verwendet (laufen dann HA VMs und LXCs drauf). SDA ist die Boot platte für PVE und der Rest kommt vom HBA. Sind noch alles NTFS Laufwerke vom Windows Server - die stelle ich nach und nach dann um.

    Moin Moin,

    weiteres Tagebuch - für mich zur Doku und für Euch zum verfolgen. Hat jetzt nicht den Anspruch ein super komplettes Tutorial zu werden aber Tipps, Links meine Daily challenges werde Euch evtl. auch helfen.

    Nur nochmals zum Einstieg ich mit Linux enthusiastic beginner - kenne shells etc. aber habe Linux bisher vermieden weil es mich genervt hat das jede Distro die gleichen/ähnliche Dinge anders macht. Jetzt steige ich aber von Windows 2019 Server Umgebung mit Hyper-V um auf Proxmox mit KVM und Linux Containern (LXC).

    Die Promox Installation braucht man nicht erklären das ist klickibunti nachdem man sich einen StartUSB Stick erstellt hat.

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Bei mir einzig das Problem welches Netzwerkinterface ist denn nun das richtige - finde ich bei Linux immer noch total kryptisch. (habe BIOS 1G, WAN 1G, LAN 10G und Cluster 10G).

    ip link show hilft da schon mal:

    dann kann man die Geschwindigkeit via cat auf /sys/class/net/<if>/speed herausbekommen

    Code
    root@pve-hv-01:~# cat /sys/class/net/eno2/speed
    1000
    root@pve-hv-01:~# cat /sys/class/net/eno4/speed
    10000

    und bisserl Auschlussverfahren... nur immer einen port einstecken und man kommt ans Ziel. ip show address hilft auch mal. Eine Kommando für eine Komplettübersicht wäre nett - gibt es vermutlich aber ich bin halt rookie was linux angeht.

    Hier mal zur veranschaulichung die Änderung nach FW 2.27 bzgl. Lüfteransteuerung

    2.27 die funktioniert (wie 4.x serie)

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    2.30 die das PWM signal definitiv geändert hat - selbst auf einem Voltmeter kann man das beobachten

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Wenn jemand besseres equiment hat um PWM signale zu visualisieren, gerne mal machen. Qidi ist immer noch der Meinung "Wir haben nix gemacht :saint: " :/

    Bzgl. Lüfter und Firmware bin ich noch mit Qidi kontakt. Das dauert aber länger vermute ich auch andere Lüfter die laut Erfahrungen funktionieren sollten (neben den 5 die ich erfolglos getestet habe) sind noch unterwegs und kommen wohl erst ende des Monats an.

    ==> ich verschicke die Ikarus morgen dann mit den bisherigen Lüftern und Ihr solltet die dann erstmal mit 2.27 oder 4.x FW betreiben (oder das auf und ab des HB Lüfters in kauf nehmen - bei PLA und PTEG sollte die Kühlung trotzdem reichen aber der singsang nervt nat.). Wenn ich Lüfter finde die funktionieren liefer ich die auf Anfrage für alle ab September Bestellungen kostenlos nach - oder besser Qidi fix die Änderung (noch behaupten Sie nix gemacht zu haben :( )

    Bisserl zu früh gefreut, da ich nicht gesehen habe das der ingress controller nicht startet. Nach etwas suche in den logs iptables ist nicht installiert. ALso apt install iptables nachgeholt und neu installiert dann geht alles.

    Hilfreich ist auch die .bashrc um

    Code
    export PATH=$PATH:/var/lib/rancher/rke2/bin
    export KUBECONFIG=/etc/rancher/rke2/rke2.yaml

    zu ergänzen um sich die tipparbeit mit den Pfaden zu sparen.


    Hier die pod situation mit allen 6 Knoten

    Hier die 2.27 Version welche scheinbar den Heatbreak fan bug nicht hat. (dafür aber leider den Bug mit der falschen Drehrichtung beim Filamentauswurf.)

    wie immer

    • update.qd starten beeeps x mal, dann
    • ...UI.bin danach die
    • *.gcode Datei mit dem Maschinenparameter

    Danach wieder Eure Maschinen einstellungen bzgl. esteps, drehrichtungen und buildvolumen einstellen.

    KEINE Garantie oder Gewährleistung

    Tested now with three different sunon fan from 6,7 to 8000rpm version. All behaving the same.

    With 4.x all fine

    With 2.29/30 pulsing when on.

    I did a extra test upgrading my PLUS from 4.x to 2.27 and there the fans are also working fine. Only after upgrade to 2.29/30 the pulsing starts. On my MAX the cable seems broken so the fans are always on giving me wrong results.

    -> stay with 4.x or 2.27

    just for reference SUNON naming convention for fans: