Beiträge von Olaf Krause
-
-
Moin,
so mein nächstes Kabel ist defekt - Sensor zeigt 1077C an und wenn man wackelt auch mal kurz die korrekte Temp.
Wir hatten das schon mal aber damit man es leichter findet hier Quelle eBay zum Nachkaufen:
hier der AliExpress Link - interessanterweise ist der Xmaker deutlich günstiger - ist das ein anderes (kürzeres) Kabel? In einem anderen Angebot ist der Preis deutlich höher, evtl. "Schnäppchen" weil veralteter Preis?
Wenn weitere Quellen bekannt bitte mal posten - ich konsolidiere dann hier in diesem Posting.
-
genau weiss ich auch nicht aber siehe RE: Voron 2.4 Selbstbau - Diskussionen- und Kommentarethread
evtl. hat sergmann einen link auf details
-
Sodele ab morgen dann wieder regulärer Betrieb - Versand dann nächste Woche von den Bestellungen - gilt auch für Ikarus.
-
Vodafone oder AVM sei dank heute mal wieder ein Internetzugang offline gewesen. Modem hat sich beim FW update (erzwungen) aufgehängt. Habe ich leider erst später gesehen, dass ein Zugang tot ist. Strom aus/an hat das Problem behoben.
Nächste Woche wird der nächste Switch durch ein 10G Variante ersetzt. Dann habe ich einen stabiler laufenden (hoffentlich) für den Internetzugang frei (24x 1G was mehr als ausreichend ist) - der 3Com zickt ja manchmal. Dann erst auch erstmal gut. Server sind mittlerweile alle in dem gleichen Supermirco Gehäuse. evtl. gibt es noch ein SAS Controller upgrade damit alle 4 den gleichen controller haben (zweck Austauschbarkeit) dann aber erst zu Weihnachten. Damit wäre dann 1-2 PB Platz denkbar (je nach Plattengröße).
-
weil es keine Eckverbinder gibt.
Ob es wirklich keine gibt... wie gesagt ich meine für Mitsumi mal was gesehen zu haben werde aber aus der Ihrer Webseite auch nicht so recht schlau.
Stimme aber zu wenn die Enden schon nicht sauber sind, taugt der Rest vermutlich auch nix.
Es gibt schon Cornerbrackets
https://us.misumi-ec.com/vona2/mech/M15…00/M1501030000/Aber die Extrusions liegen da ja auch auf, von daher bringt das eher nichts wenn die "schief gesägt" sind.
-
Moin, also ich hatte da keine Probleme alles mit eine Lehre winklig zu bekommen. Wichtig ist auf einem planem Tisch zu arbeiten.
Es gibt aber meine ich auch spezielle Eckstücke zu kaufen, habe mich aber nie damit beschäftigt, da alles problemlos zusammenzbauen war.
-
Did you get the filamanent somewhere for an acceptable price - I was looking into this as well some month back but the price point of such filaments blocked my invest ....
-
Mal ein kleiner Nachtrag zu MultiIOPath unter windows für die Praxis einrichten. Ich habe ja 2 10G Switches die alle Server verbinden. Einen eigentlich dediziert für Blockdevicetraffic (also ISCS) und einen für LAN Traffic. das LAN Switch wird kaum genutzt von daher macht es sinn beide zu nutzen um ISCSI Traffic übertragen zu können und die VMs zu beschleunigen. Den kleinen Impact aufs LAN kann ich verschmerzen. Was muss man also tun.
- MPIO Windows Server Feature installieren.
- ISCSI Verbindungen mit multiple sessions erstellen
- Im MPIO iSCSI disks hinzufügen (und reboot)
Häkchen setzen und add drücken - Nach dem reboot solltet Ihr Im Diskmanager folgendes sehen:
Das ist es schon (hoffe ich).
Ingesamt scheint iSCSI unter Windows immer noch eher buggy was die Admingeschichten angeht.
Z.B. will mit das mit den verschiedenen Subnetzen (0 und 5) nicht einleuchten. Ich habe nat. nur passende IPs eingerichtet, trotzdem würfelt er 5 und 0 Netz durcheinander. Auch der iSCS Server will ab und zu rebootet werden wenn man umkonfiguriert (auf der Client seite) - selten aber passiert. Also wenn es mal komplett klemmt einfach alles neustarten
- MPIO Windows Server Feature installieren.
-
Code
Total IO thread | bytes | I/Os | MiB/s | I/O per s | AvgLat | LatStdDev | file ----------------------------------------------------------------------------------------------------- 0 | 4037304320 | 492835 | 49.55 | 6342.22 | 1.260 | 0.732 | C:\ClusterStorage\Volume5\Test.dat (16GiB) 1 | 4737794048 | 578344 | 58.15 | 7442.63 | 1.074 | 0.604 | C:\ClusterStorage\Volume5\Test.dat (16GiB) 2 | 4767113216 | 581923 | 58.51 | 7488.69 | 1.068 | 0.563 | C:\ClusterStorage\Volume5\Test.dat (16GiB) 3 | 4740177920 | 578635 | 58.17 | 7446.37 | 1.074 | 0.649 | C:\ClusterStorage\Volume5\Test.dat (16GiB) ----------------------------------------------------------------------------------------------------- total: 18282389504 | 2231737 | 224.37 | 28719.91 | 1.113 | 0.641
Jetzt hatte ich gerade obige Werte, also deutlich deutlich besser. Mir ist noch nicht ganz klar unter welchen Umständen die Performance mal sehr gut und mal miserabel ist. Evtl. hängt es noch mit dem "Master" Node für die entsprechende Disk zusammen - muss ich noch ein Auschlussverfahren ansetzen.
obige Werte wurde auf HyperV-Two gemessen.
-
Moin Moin,
ich bin immer noch am rätseln, ob die performance (disk) von meinem Hyper-V Cluster normal langsam ist oder ob ich da was verkonfiguriert habe.
Hintergrund ich habe einen Storageserver (ISCSI) und 3 Hyper-V Clusternodes im Failoverbetrieb. D.h. alle haben auf C:\ClusterStorage einen gemeinsamen Bereich für die Virtuellen Maschinen.
Funktional ist alles in Ordnung nur kommt mir die Diskperformance immer noch recht schlecht vor.
Direct auf dem Fileserver (ist ein SSD PCIe drive mit 2TB NTFS) auf dem die VMs ghostet sind. Eine klare Aussage ob die besser reFS formatiert sein sollten, konnte ich bisher nicht finden, mal so mal so...
Code
Alles anzeigenResults for timespan 1: ******************************************************************************* actual test time: 300.00s Total IO thread | bytes | I/Os | MiB/s | I/O per s | AvgLat | LatStdDev | file ----------------------------------------------------------------------------------------------------- 0 | 71090880512 | 8678086 | 225.99 | 28926.90 | 0.276 | 0.749 | V:\Test.dat (16GiB) 1 | 71685316608 | 8750649 | 227.88 | 29168.78 | 0.274 | 0.743 | V:\Test.dat (16GiB) 2 | 70657966080 | 8625240 | 224.62 | 28750.75 | 0.278 | 0.784 | V:\Test.dat (16GiB) 3 | 71647772672 | 8746066 | 227.76 | 29153.50 | 0.274 | 0.748 | V:\Test.dat (16GiB) ----------------------------------------------------------------------------------------------------- total: 285081935872 | 34800041 | 906.25 | 115999.94 | 0.275 | 0.756
Via SMB Zugriff:
Code
Alles anzeigenResults for timespan 1: ******************************************************************************* actual test time: 300.01s Total IO thread | bytes | I/Os | MiB/s | I/O per s | AvgLat | LatStdDev | file ----------------------------------------------------------------------------------------------------- 0 | 39854759936 | 4865083 | 126.69 | 16216.26 | 0.493 | 0.925 | \\Data-One\V-Speed\Test.dat (16GiB) 1 | 25852674048 | 3155844 | 82.18 | 10519.03 | 0.759 | 1.169 | \\Data-One\V-Speed\Test.dat (16GiB) 2 | 34142871552 | 4167831 | 108.53 | 13892.18 | 0.575 | 1.034 | \\Data-One\V-Speed\Test.dat (16GiB) 3 | 40271552512 | 4915961 | 128.01 | 16385.84 | 0.488 | 1.348 | \\Data-One\V-Speed\Test.dat (16GiB) ----------------------------------------------------------------------------------------------------- total: 140121858048 | 17104719 | 445.42 | 57013.31 | 0.560 | 1.135
aber via CSVFS auf dem gleichen drive (oben via direct und SMB
Code
Alles anzeigenResults for timespan 1: ******************************************************************************* actual test time: 300.00s Total IO thread | bytes | I/Os | MiB/s | I/O per s | AvgLat | LatStdDev | file ----------------------------------------------------------------------------------------------------- 0 | 1130921984 | 138052 | 3.60 | 460.17 | 17.382 | 11.837 | C:\ClusterStorage\Volume1\Test.dat (16GiB) 1 | 1184645120 | 144610 | 3.77 | 482.03 | 16.594 | 11.387 | C:\ClusterStorage\Volume1\Test.dat (16GiB) 2 | 1185128448 | 144669 | 3.77 | 482.22 | 16.587 | 11.414 | C:\ClusterStorage\Volume1\Test.dat (16GiB) 3 | 1185005568 | 144654 | 3.77 | 482.17 | 16.589 | 11.407 | C:\ClusterStorage\Volume1\Test.dat (16GiB) ----------------------------------------------------------------------------------------------------- total 4685701120 | 571985 | 14.90 | 1906.59 | 16.781 | 11.514
Wahnsinnig hohe latenzzeiten (16ms CSVFS contra 0.6 SMB contra 0.3ms direct) und Transferraten von 15 zu 445 zu 906 direct.
ISCSI das Problem? oder NTFS als CSVFS "host"? Werde wohl mal als nächstes eine VHDX ohne CSVFS testen - aber wenn jemand eine spontane Idee hat wie man so ein "Problem" angeht oder was für Performance bei CSVFS überhaupt erreichbar ist - her damit.
ISCSI performance - auf den selben Testrechnern und selben disks. Also eine ISCSI disk auf e: gemounted mit NTFS als FS.
Code
Alles anzeigenResults for timespan 1: ******************************************************************************* actual test time: 300.00s Total IO thread | bytes | I/Os | MiB/s | I/O per s | AvgLat | LatStdDev | file ----------------------------------------------------------------------------------------------------- 0 | 6679068672 | 815316 | 21.23 | 2717.70 | 2.944 | 2.650 | E:\Test.dat (16GiB) 1 | 6669705216 | 814173 | 21.20 | 2713.89 | 2.948 | 2.642 | E:\Test.dat (16GiB) 2 | 6691028992 | 816776 | 21.27 | 2722.57 | 2.938 | 2.684 | E:\Test.dat (16GiB) 3 | 6606970880 | 806515 | 21.00 | 2688.36 | 2.976 | 2.646 | E:\Test.dat (16GiB) ----------------------------------------------------------------------------------------------------- total: 26646773760 | 3252780 | 84.71 | 10842.52 | 2.951 | 2.656
OK also ISCSIist schon mal deutlich langsamer als SMB aber immer noch faktoren schneller als CSVFS über ISCSI. Geht da wirklich nochmals Faktor 5-10 verloren?
Andererseits hätte ich ISCSI ähnlich erwartet wie SMB - man merkt ich habe da echt noch keine Erfahrung Und nein MPIO habe ich nocht nicht konfiguriert.
Man findet ja nicht so viele einfach zu vergleichende Werte (zumindest ich nicht) aber einen habe ich zumidnest:
Also 701/0.2 direct und 371/0.4 ISCSI also ca. Faktor 2, das ist ja schon mal 5 mal besser al mein Faktor 10. D.h. ich werde wohl als erstes mal nach ISCSI performance schauen. Wobei der Vergleich etwas hinkt da Starwind verwendet und ich ja auch noch eine VHDX dazwischen habe... Trotzdem kommt mit x10 zu hoch vor oder?
Nachtrag - mal MPIO installiert und auf dem Testclient enabled.
Code
Alles anzeigenResults for timespan 1: ******************************************************************************* actual test time: 300.01s Total IO thread | bytes | I/Os | MiB/s | I/O per s | AvgLat | LatStdDev | file ----------------------------------------------------------------------------------------------------- 0 | 16833249280 | 2054840 | 53.51 | 6849.15 | 1.168 | 1.489 | E:\Test.dat (16GiB) 1 | 15243165696 | 1860738 | 48.45 | 6202.17 | 1.290 | 1.578 | E:\Test.dat (16GiB) 2 | 17166614528 | 2095534 | 54.57 | 6984.79 | 1.145 | 1.492 | E:\Test.dat (16GiB) 3 | 16962994176 | 2070678 | 53.92 | 6901.94 | 1.159 | 1.521 | E:\Test.dat (16GiB) ----------------------------------------------------------------------------------------------------- total: 66206023680 | 8081790 | 210.45 | 26938.06 | 1.188 | 1.520
Performance mehr als verdoppelt - Zufall (hatte wegen der Konfig ja auch den Server neustarten müssen)? Ich werde es mal später in der Woche nochmals testen. Verdoppelung scheint mir sinnvoll, da jetzt ein zweiter 10G Switch mit genutzt werden "könnte".
------------------
Paar seitenfacts: SMB Direct mode an? - ja es ist. Jumbo Frames ja sin auf 9014 ping -f geht bis nahe an 9k ohne fragmentation.
Ping /Jumbo: 5.62 ist der Fileserver:
CodePS C:\Program Files\DiskSpd\amd64> ping -f -l 8972 192.168.5.62 Pinging 192.168.5.62 with 8972 bytes of data: Reply from 192.168.5.62: bytes=8972 time<1ms TTL=128 Reply from 192.168.5.62: bytes=8972 time<1ms TTL=128
Ja nicht ganz 9000 8972 ist max was mit den Hyper-V Nics einstellbar ist.
Directmode:
Code
Alles anzeigenPS C:\Program Files\DiskSpd\amd64> Get-ClusterSharedVolumeState BlockRedirectedIOReason : NotBlockRedirected FileSystemRedirectedIOReason : NotFileSystemRedirected Name : Storage5 Node : Data-Two StateInfo : Direct VolumeFriendlyName : Volume5 VolumeName : \\?\Volume{cb2749de-6e63-4d93-905c-2e03e5339b91}\ BlockRedirectedIOReason : NotBlockRedirected FileSystemRedirectedIOReason : NotFileSystemRedirected Name : Storage5 Node : HyperV-Two StateInfo : Direct VolumeFriendlyName : Volume5 VolumeName : \\?\Volume{cb2749de-6e63-4d93-905c-2e03e5339b91}\ BlockRedirectedIOReason : NotBlockRedirected FileSystemRedirectedIOReason : NotFileSystemRedirected Name : Storage5 Node : HyperV-One StateInfo : Direct VolumeFriendlyName : Volume5 VolumeName : \\?\Volume{cb2749de-6e63-4d93-905c-2e03e5339b91}\ BlockRedirectedIOReason : NotBlockRedirected FileSystemRedirectedIOReason : NotFileSystemRedirected Name : StorageO Node : Data-Two StateInfo : Direct VolumeFriendlyName : Volume1 VolumeName : \\?\Volume{69ad8644-c4da-4ca1-8faa-7bbfc64c5c72}\ BlockRedirectedIOReason : NotBlockRedirected FileSystemRedirectedIOReason : NotFileSystemRedirected Name : StorageO Node : HyperV-Two StateInfo : Direct VolumeFriendlyName : Volume1 VolumeName : \\?\Volume{69ad8644-c4da-4ca1-8faa-7bbfc64c5c72}\ BlockRedirectedIOReason : NotBlockRedirected FileSystemRedirectedIOReason : NotFileSystemRedirected Name : StorageO Node : HyperV-One StateInfo : Direct VolumeFriendlyName : Volume1 VolumeName : \\?\Volume{69ad8644-c4da-4ca1-8faa-7bbfc64c5c72}\
-
Sodele back at home - gerade einen neuen Server einbauen wollen - und ooops falsches Netzwerkkabel gezogen Grrr - sorry für den Ausfall.
-
-
-
ASA (filamentum) und ABS+ (eSUN) an meinem funktioniert problemlos. PC-FR am Druckkopf auch. Boards habe ich die standard SKR 1.3 boards einfach weil letztes Jahr bzgl. Alternativen keine Erfahrung. Habe ein Spider hier und würde wohl jetzt auf eine Spider setzen wenn mir ein SKR abraucht. Ich habe alles einzeln gekauft - aber das ist ja im Detail im Tagebuch hier ersichtlich.
Geht gleich auf Probe Z Leveling statt dem ollen mechanischen Stift - man sollte aber keine Wunder erwarten. Eine Bauraumheizung würde ich bei mir noch einbauen wenn denn mal Zeit. Das macht es auch einfacher mit gleichen Startbedingen zu drucken - aktuell drucke ich immer kleine unkritische Parts vor um die Aufheizzeit sinnvoll zu nutzen.
Kabel sind wirklich kritisch - ich habe mittlerweile alle dickeren (also HE & Stepper) via Nabelschnurr dran, dafür auch einen kleinen Mod designed um das sauber zu befestigen. Seitdem ist ruhe und kein weiterer Kabelbruch.
Viel Spaß beim Einkauf und bauen. Wenn Die Teile kaufst die Du weiterempfehlen kannst bitte teilen!
-
Ja jeder Slicer hat so seine vor und nachteile - SuperSlicer ist ja ein erweiterter Prusa (stark aus der Voron Gemeinde mal getrieben). Die Performancenachteile merke ich vemutlich bei mir kaum mit meinem eher Highend Rechner.
Am Ende ist es Objekt und Geschmackssache - nur der Qidi Slicer ist aus halt weit hinten dran - müsste mal wieder ein update (neueste Cura Engine) erfahren.
-
-
Hoppala - kaum losgefahren musste wir nochmals zurück. Jemand im Haus hat den Fehlerstromtestknopf gedrückt statt sicherung wieder einzulegen USV leer rechner aus
Jetzt sollte wieder alles laufen und wir nehmen den zweiten Urlaubsanlauf...
-
Wenn es noch nicht zu spät ist, dann möchte ich den Auftragsdruck auf Eis legen (wenn du sowiso Urlaub machst)
Kein Problem - komme die nächsten 2 Wochen eh nicht dazu - wir sind mit dem E-Mobil durch DE unterwegs.
Alle Versuche sind hilfreich, nur so kommen wir zu kreativen Lösungen. -
Zwischen Duct und den "Ohren" habe ich nur gut 19 mm, weswegen ich den Duct nicht reinbekomme wenn der 4020 Fan drin steckt.
Passt bei mir genau - leichte Presspassung.
Auch die Platine bekomme ich nicht in den Halter, obwohl der, was das betrifft, unverändert ist.
passt auch genau - da stimmt was bei dir mit den Druckmaßen nicht
Darüber hinaus finde ich die potentielle Kabelführung nicht so furchtbar selbst wnn du recht hast. Für ständig an und abstecken ist das eher nichts.
Das sollte aber eher die Ausnahme darstellen.Evtl. bin ich ja die Ausnahme, weil ich die Extruder ständig wechsel und teste, die Kabel sind am Stecker aber echt eine Schwachstelle, habe schon drei defekte.
Du kannst das PCB ca. 7mm weiter nach rechts schieben, sollte immer noch mit dem Stepper passen.