Beiträge von Olaf Krause

    Moin,

    so mein nächstes Kabel ist defekt - Sensor zeigt 1077C an und wenn man wackelt auch mal kurz die korrekte Temp.

    Wir hatten das schon mal aber damit man es leichter findet hier Quelle eBay zum Nachkaufen:

    hier der AliExpress Link - interessanterweise ist der Xmaker deutlich günstiger - ist das ein anderes (kürzeres) Kabel? In einem anderen Angebot ist der Preis deutlich höher, evtl. "Schnäppchen" weil veralteter Preis?

    Wenn weitere Quellen bekannt bitte mal posten - ich konsolidiere dann hier in diesem Posting.

    Vodafone oder AVM sei dank heute mal wieder ein Internetzugang offline gewesen. Modem hat sich beim FW update (erzwungen) aufgehängt. Habe ich leider erst später gesehen, dass ein Zugang tot ist. Strom aus/an hat das Problem behoben.

    Nächste Woche wird der nächste Switch durch ein 10G Variante ersetzt. Dann habe ich einen stabiler laufenden (hoffentlich) für den Internetzugang frei (24x 1G was mehr als ausreichend ist) - der 3Com zickt ja manchmal. Dann erst auch erstmal gut. Server sind mittlerweile alle in dem gleichen Supermirco Gehäuse. evtl. gibt es noch ein SAS Controller upgrade damit alle 4 den gleichen controller haben (zweck Austauschbarkeit) dann aber erst zu Weihnachten. Damit wäre dann 1-2 PB Platz denkbar (je nach Plattengröße).

    weil es keine Eckverbinder gibt.

    Ob es wirklich keine gibt... wie gesagt ich meine für Mitsumi mal was gesehen zu haben werde aber aus der Ihrer Webseite auch nicht so recht schlau.

    Stimme aber zu wenn die Enden schon nicht sauber sind, taugt der Rest vermutlich auch nix.

    Es gibt schon Cornerbrackets
    https://us.misumi-ec.com/vona2/mech/M15…00/M1501030000/

    Aber die Extrusions liegen da ja auch auf, von daher bringt das eher nichts wenn die "schief gesägt" sind.

    Mal ein kleiner Nachtrag zu MultiIOPath unter windows für die Praxis einrichten. Ich habe ja 2 10G Switches die alle Server verbinden. Einen eigentlich dediziert für Blockdevicetraffic (also ISCS) und einen für LAN Traffic. das LAN Switch wird kaum genutzt von daher macht es sinn beide zu nutzen um ISCSI Traffic übertragen zu können und die VMs zu beschleunigen. Den kleinen Impact aufs LAN kann ich verschmerzen. Was muss man also tun.

    1. MPIO Windows Server Feature installieren.
    2. ISCSI Verbindungen mit multiple sessions erstellen
         
    3. Im MPIO iSCSI disks hinzufügen (und reboot)

      Häkchen setzen und add drücken
    4. Nach dem reboot solltet Ihr Im Diskmanager folgendes sehen:

    Das ist es schon (hoffe ich).

    Ingesamt scheint iSCSI unter Windows immer noch eher buggy was die Admingeschichten angeht.

    Z.B. will mit das mit den verschiedenen Subnetzen (0 und 5) nicht einleuchten. Ich habe nat. nur passende IPs eingerichtet, trotzdem würfelt er 5 und 0 Netz durcheinander. Auch der iSCS Server will ab und zu rebootet werden wenn man umkonfiguriert (auf der Client seite) - selten aber passiert. Also wenn es mal komplett klemmt einfach alles neustarten :(

    Code
    Total IO
    thread |       bytes     |     I/Os     |    MiB/s   |  I/O per s |  AvgLat  | LatStdDev |  file
    -----------------------------------------------------------------------------------------------------
    0 |           4037304320 |       492835 |      49.55 |    6342.22 |    1.260 |     0.732 | C:\ClusterStorage\Volume5\Test.dat (16GiB)
    1 |           4737794048 |       578344 |      58.15 |    7442.63 |    1.074 |     0.604 | C:\ClusterStorage\Volume5\Test.dat (16GiB)
    2 |           4767113216 |       581923 |      58.51 |    7488.69 |    1.068 |     0.563 | C:\ClusterStorage\Volume5\Test.dat (16GiB)
    3 |           4740177920 |       578635 |      58.17 |    7446.37 |    1.074 |     0.649 | C:\ClusterStorage\Volume5\Test.dat (16GiB)
    -----------------------------------------------------------------------------------------------------
    total:       18282389504 |      2231737 |     224.37 |   28719.91 |    1.113 |     0.641

    Jetzt hatte ich gerade obige Werte, also deutlich deutlich besser. Mir ist noch nicht ganz klar unter welchen Umständen die Performance mal sehr gut und mal miserabel ist. Evtl. hängt es noch mit dem "Master" Node für die entsprechende Disk zusammen - muss ich noch ein Auschlussverfahren ansetzen.

    obige Werte wurde auf HyperV-Two gemessen.

    Moin Moin,

    ich bin immer noch am rätseln, ob die performance (disk) von meinem Hyper-V Cluster normal langsam ist oder ob ich da was verkonfiguriert habe.

    Hintergrund ich habe einen Storageserver (ISCSI) und 3 Hyper-V Clusternodes im Failoverbetrieb. D.h. alle haben auf C:\ClusterStorage einen gemeinsamen Bereich für die Virtuellen Maschinen.

    Funktional ist alles in Ordnung nur kommt mir die Diskperformance immer noch recht schlecht vor.

    Direct auf dem Fileserver (ist ein SSD PCIe drive mit 2TB NTFS) auf dem die VMs ghostet sind. Eine klare Aussage ob die besser reFS formatiert sein sollten, konnte ich bisher nicht finden, mal so mal so...

    Via SMB Zugriff:

    aber via CSVFS auf dem gleichen drive (oben via direct und SMB :(

    Wahnsinnig hohe latenzzeiten (16ms CSVFS contra 0.6 SMB contra 0.3ms direct) und Transferraten von 15 zu 445 zu 906 direct.

    ISCSI das Problem? oder NTFS als CSVFS "host"? Werde wohl mal als nächstes eine VHDX ohne CSVFS testen - aber wenn jemand eine spontane Idee hat wie man so ein "Problem" angeht oder was für Performance bei CSVFS überhaupt erreichbar ist - her damit.

    ISCSI performance - auf den selben Testrechnern und selben disks. Also eine ISCSI disk auf e: gemounted mit NTFS als FS.

    OK also ISCSIist schon mal deutlich langsamer als SMB aber immer noch faktoren schneller als CSVFS über ISCSI. Geht da wirklich nochmals Faktor 5-10 verloren?

    Andererseits hätte ich ISCSI ähnlich erwartet wie SMB - man merkt ich habe da echt noch keine Erfahrung :( Und nein MPIO habe ich nocht nicht konfiguriert.

    Man findet ja nicht so viele einfach zu vergleichende Werte (zumindest ich nicht) aber einen habe ich zumidnest:

     

    Also 701/0.2 direct und 371/0.4 ISCSI also ca. Faktor 2, das ist ja schon mal 5 mal besser al mein Faktor 10. D.h. ich werde wohl als erstes mal nach ISCSI performance schauen. Wobei der Vergleich etwas hinkt da Starwind verwendet und ich ja auch noch eine VHDX dazwischen habe... Trotzdem kommt mit x10 zu hoch vor oder?

    Nachtrag - mal MPIO installiert und auf dem Testclient enabled.

    Performance mehr als verdoppelt - Zufall (hatte wegen der Konfig ja auch den Server neustarten müssen)? Ich werde es mal später in der Woche nochmals testen. Verdoppelung scheint mir sinnvoll, da jetzt ein zweiter 10G Switch mit genutzt werden "könnte".


    ------------------

    Paar seitenfacts: SMB Direct mode an? - ja es ist. Jumbo Frames ja sin auf 9014 ping -f geht bis nahe an 9k ohne fragmentation.

    Ping /Jumbo: 5.62 ist der Fileserver:

    Code
    PS C:\Program Files\DiskSpd\amd64> ping -f -l  8972 192.168.5.62
    
    Pinging 192.168.5.62 with 8972 bytes of data:
    Reply from 192.168.5.62: bytes=8972 time<1ms TTL=128
    Reply from 192.168.5.62: bytes=8972 time<1ms TTL=128

    Ja nicht ganz 9000 8972 ist max was mit den Hyper-V Nics einstellbar ist.

    Directmode:

    ASA (filamentum) und ABS+ (eSUN) an meinem funktioniert problemlos. PC-FR am Druckkopf auch. Boards habe ich die standard SKR 1.3 boards einfach weil letztes Jahr bzgl. Alternativen keine Erfahrung. Habe ein Spider hier und würde wohl jetzt auf eine Spider setzen wenn mir ein SKR abraucht. Ich habe alles einzeln gekauft - aber das ist ja im Detail im Tagebuch hier ersichtlich.

    Geht gleich auf Probe Z Leveling statt dem ollen mechanischen Stift - man sollte aber keine Wunder erwarten. Eine Bauraumheizung würde ich bei mir noch einbauen wenn denn mal Zeit. Das macht es auch einfacher mit gleichen Startbedingen zu drucken - aktuell drucke ich immer kleine unkritische Parts vor um die Aufheizzeit sinnvoll zu nutzen.

    Kabel sind wirklich kritisch - ich habe mittlerweile alle dickeren (also HE & Stepper) via Nabelschnurr dran, dafür auch einen kleinen Mod designed um das sauber zu befestigen. Seitdem ist ruhe und kein weiterer Kabelbruch.

    Viel Spaß beim Einkauf und bauen. Wenn Die Teile kaufst die Du weiterempfehlen kannst bitte teilen! :)

    Zwischen Duct und den "Ohren" habe ich nur gut 19 mm, weswegen ich den Duct nicht reinbekomme wenn der 4020 Fan drin steckt.

    Passt bei mir genau - leichte Presspassung.

    Auch die Platine bekomme ich nicht in den Halter, obwohl der, was das betrifft, unverändert ist.

    passt auch genau - da stimmt was bei dir mit den Druckmaßen nicht

    Darüber hinaus finde ich die potentielle Kabelführung nicht so furchtbar selbst wnn du recht hast. Für ständig an und abstecken ist das eher nichts.
    Das sollte aber eher die Ausnahme darstellen.

    Evtl. bin ich ja die Ausnahme, weil ich die Extruder ständig wechsel und teste, die Kabel sind am Stecker aber echt eine Schwachstelle, habe schon drei defekte.

    Du kannst das PCB ca. 7mm weiter nach rechts schieben, sollte immer noch mit dem Stepper passen.