Posts by Olaf Krause

    Jetzt nach ca. 1.5 Monaten ~12 €. Das meiste von dem sind vermutlich gar meine eigenen Bestellungen :)

    Anmerkung: Eine Auszahlung erfolgt erst nach erreichen einer 25€ Schwelle (zumindest habe ich das so verstanden).


    Von daher möchte ich allen den Zahn ziehen, die glauben, damit könnte man "reich" werden. Dazu bedarf es viele tausend Besucher pro Monat und auch viele passende Amazon Angebote - das bekommt man mit Hobbyseiten kaum hin.


    Edit: Bild von Amazon gelöscht um nicht irgendein Copyright zu verletzen.

    Jetzt sind auch CSP (Content Security Policy) Header aktiviert und man sieht nicht mehr welcher Server typ hier läuft.

    Ganz strikt geht leider wegen dem Skriptaufbau des Forums nicht - hab B+ als Sicherheitsstand erreicht. Falls es jemand interessiert sind folgende checker ganz OK:

    https://observatory.mozilla.org/analyze/tff-forum.de

    https://hstspreload.org/?domain=tff-forum.de

    https://sitecheck.sucuri.net/results/tff-forum.de

    die URLs mit der zu prüfenden ersetzen - als Beispiel das Tesla Forum tff-forum.de - wo man darauf wohl noch keinen Wert gelegt hat :(

    Obiges ist ja nett aber beim PI4 kann man ja an den 4 USB ports auch SSDs anschließen also möchte ich eine SSD als Dashcam Folder nutzen. Hier mal fdsik -l ausgaben der vorbereiteten SSD:


    Code
    Disk /dev/sda: 465.8 GiB, 500107837440 bytes, 976773120 sectors
    Disk model: Extreme SSD
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 1048576 bytes
    Disklabel type: dos
    Disk identifier: 0x003703db
    Device Boot Start End Sectors Size Id Type
    /dev/sda1 2048 976773119 976771072 465.8G b W95 FAT32

    sprich ich haben unter /dev/sda1 465GB als Fat32 partition (Tesla braucht leider Fat32). Diese soll nun statt der /backingfiles/cam_disk.bin Datei genutzt werden. (formatiert mit mkfs.vfat /dev/sda1 -F 32 -n "CAM")


    Dazu als erstes das massstorage modul stoppen: modprobe -r g_mass_storage dann fstab anpassen. In etwa so:

    Code
    /dev/sda1 /mnt/cam vfat utf8,noauto,users,umask=000 0 0

    statt dem Verweis auf die Datei. Dann noch die /etc/modprobe.d/g_mass_storage.conf so anpassen, dass statt der Datei /dev/sda1 genommen wird. Also einfach /dev/sda1 statt der Datei eintragen und fertig. Ging einfacher als gedacht.

    Das geht mit dem mass storage modul. Details findet Ihr unter github


    Die Konfig liegt typischerweise unter:

    /etc/modprobe.d/g_mass_storage.conf


    Auch beim TeslaUSB Image von marcone. Wenn man also die Music und Teslacam mountings ändern möchte ist das das richtige file.


    Code
    root@teslausb4:/etc# cat /etc/modprobe.d/g_mass_storage.conf
    options g_mass_storage file=/backingfiles/music_disk.bin,/backingfiles/cam_disk.bin removable=1,1 ro=0,0 stall=0 iSerialNumber=123456

    Um es noch transparenter zu machen poste ich in diesem Thread alle Amazon links die ich zukünftig evtl. nutzen werde. Noch nicht sicher ob das so Sinn macht...


    https://www.amazon.de/gp/produ…9725862ba2747ab4cec1f288b


    https://www.amazon.de/gp/produ…1943a90a9875e31d80cc9b842


    https://www.amazon.de/gp/produ…b4d31d90fd78356949db0e777


    https://www.amazon.de/gp/produ…5acc593af00938b287a965eb7


    Ohne Bild vermutlich eher nicht sinnvoll. Obiges sind USB Kabel, ODBII Dongle und USB-SSD.


    2TB Samsung Disk

    https://www.amazon.de/gp/produ…261a8b7b44954054d386496b7

    Heute die Googlemapsfunktion aktiviert. Betrifft eigentlich nur die Galerie. Sprich wenn dort ein Bild GPS Koordinaten beinhaltet, so kann man den Ort in GoogleMaps sehen.

    Unter Gallerie-> Karte sieht man alle entsprechenden Bilder (wenn man zoomt). Sind nicht so viele, da ich diese Infos meist aus den Bilder entferne/bzw. nur Screendumps hinterlege.

    wenn obiges nicht funkltioniert evtl. noch die zweite Varainte testen:


    Bluetooth kann man auch dadurch abschalten, in dem man das Laden der Treiber verhindert.

    Dazu öffnet man eine Konfigurationsdatei:

    Code
    sudo nano /etc/modprobe.d/raspi-blacklist.conf

    Folgende Zeilen hinzufügen:

    Code
    # WLAN abschalten
    blacklist brcmfmac
    blacklist brcmutil
    #blacklist cfg80211
    #blacklist rfkill
    Code
    # Bluetooth abschalten
    blacklist btbcm
    blacklist hci_uart

    Speichern und schließen.

    Testweise lassen sich die Module auch mit dem Kommando "sudo modprobe -r {MODUL}" entladen.

    Zusätzlich muss man einen Dienst abschalten, der sonst versucht Bluetooth zu nutzen.

    Code
    sudo systemctl disable hciuart

    Danach ist ein Neustart notwendig

    Zum täglichen Backup in eine könnte man einfach folgendes nehmen (zumindest unter neueren Ubuntus)

    Code
    -rwxr-xr-x 1 root root 222 Jan 6 08:52 mysqlbackup
    drwxr-xr-x 2 root root 4096 Jan 6 08:52 .
    root@maria:/etc/cron.daily# cat mysqlbackup
    #!/bin/sh
    mysqldump -u root wcf --single-transaction --quick --lock-tables=false > /media/dbs/backup/wcf-backup-$(date +%F).sql
    gzip -f -q /media/dbs/backup/*.sql
    rclone move /media/dbs/backup --include *.gz privatecloud:Backup/MariaDB

    sprich mal liegt eine datei mit einer Sequence von Befehlen in das Verzeichnis /etc/cron.daily (x Berechtigung nicht vergessen). Oben sichere ich die Datenbank wcf, zippe sie und dann wird sie in meine privatecloud verschoben.


    Man kann das am nächsten Tag auch im syslog mit dem Befehl: "grep -i cron.daily /var/log/syslog*" prüfen. Zum Testen kann man das Skript aber einfach starten was zum debuggen sehr gut finde.

    Es gibt hier mehrere Möglichkeiten, aber man kann sich auf zwei hauptsächliche Arten konzentrieren

    1. Physikalisches Backup mit mariadbbackup
    2. Logisches Backup mit mysqldump

    Im ersten Fall z.B. das Kommando

    Code
    mariabackup --backup --target-dir=/media/dbs/backup/ --user=root --password=<mypaswd>

    Um ein Backup unter /media/dbs/backup abzulegen. Das Verzeichnis muss leer sein sonst bricht das Backup ab. Vorteil von MariaDB es ist schnell und resourcenschonend bei größeren Datenbanken (viele >>10GB).


    Im zweiten Fall nutzt man ein Kommando ala

    Code
    mysqldump -u root wcf --single-transaction --quick --lock-tables=false > /media/dbs/backup/wcf-backup-$(date +%F).sql

    welches dann eine Datei für die DB "wcf" mit einem Datum im Dateinamen anlegt. Das ist ideal um es auch in eine crontab (z.B. /etc/cron.daily/mysqlbackup) ) zu packen und über viele Tage Backups zu sammeln. Dann noch ein gzip /media/dbs/backup/*.sql um Plattenplatz zu sparen hinterherschicken und alles wird gut :/


    Eine gute Seite für mysqldump ist auch: https://www.linode.com/docs/da…back-up-mysql-or-mariadb/

    Moin,


    ich habe jetzt mal einen speraten Reiseblog erstellt. Speziell Reisen gehen ja meist über mehrere Tage und dann ist die Navigation einfacher wenn danicht mitten rein irgendein Newsblog platzt.


    Ich möchte jetzt aber nicht dutzende verschiedene Blogstreams aufmachen sonst weiss man am Ende wieder nicht was so zu finden sein wird.


    Ole

    Code
    sudo vi /etc/dhcpcd.conf

    und dort dann

    Code
    interface eth0
    static ip_address=192.168.0.7/24
    static routers=192.168.0.222

    entkommentieren (meist schon als Beispiele vorhanden) und anpassen, wenn man die IP für eth0 setzen möchte. Wie immer bei solchen Sachen, vorsicht und alles dreimal checken, da Ihr Euch potentiell den Zugang zum Pi wegkonfiguriert.


    Anmerkung

    vi: i für insert, a für anhängen, ESC um vom edit in den kommand mode zurückzukommen. Im Kommand mode :q tippen zumm verlassen :x speichern.

    sucht mal für howto use VI gibt es millionen von seiten... muss man einfach kennen wenn man auf x-beliebigen unix shells unterwegs ist.

    So scheint als hätte ich endlich kapiert wie es funktioniert :( - man sollte halt doch mal doku lesen.


    Wicht bzgl. IIS rewqrite ist erstmal folgendes:

    Quote

    Accessing URL Parts from a Rewrite Rule

    It is important to understand how certain parts of the URL string can be accessed from a rewrite rule.

    For an HTTP URL in this form: http(s)://<host>:<port>/<path>?<querystring>

    • The <path> is matched against the pattern of the rule.
    • The <querystring> is available in the server variable called QUERY_STRING and can be accessed by using a condition within a rule.
    • The <host> is available in the server variable HTTP_HOST and can be accessed by using a condition within a rule.
    • The <port> is available in the server variable SERVER_PORT and can be accessed by using a condition within a rule.
    • Server variables SERVER_PORT_SECURE and HTTPS can be used to determine if a secure connection was used. These server variables can be accessed by using a condition within a rule.
    • The server variable REQUEST_URI can be used to access the entire requested URL path, including the query string.

    For example, if a request was made for this URL: http://www.mysite.com/content/default.aspx?tabid=2&subtabid=3, and a rewrite rule was defined on the site level then:

    • The rule pattern gets the URL string content/default.aspx as an input.
    • The QUERY_STRING server variable contains tabid=2&subtabid=3.
    • The HTTP_HOST server variable contains www.mysite.com.
    • The SERVER_PORT server variable contains 80.
    • The SERVER_PORT_SECURE server variable contains 0 and HTTPS contains OFF.
    • The REQUEST_URI server variable contains /content/default.aspx?tabid=2&subtabid=3.
    • The PATH_INFO server variable contains /content/default.aspx.

    Note that the input URL string passed to a distributed rule is always relative to the location of the Web.config file where the rule is defined. For example, if a request is made for http://www.mysite.com/content/default.aspx?tabid=2&subtabid=3, and a rewrite rule is defined in the /content directory, then the rule gets this URL string default.aspx as an input.

    zu finden unter https://docs.microsoft.com/en-…e-configuration-reference


    Damit man erstmal weiss was man da überhaupt vergleicht. Dann muss man sich noch bzgl. regular experessions vertrauter machen und schon klappt es :) :thumbup:


    oben mal meine aktuellen rules die ersten beiden dienen dazu aus den alten URLs (alte domain) wbb und wbb/wcf herauszuschneiden. Die dritte um ein fehlendes forum einzusetzen und die letzte sorgt dafür dass nur https genutzt wird.


    Anmerkung:

    Alte URLs die schon auf https umgestellt waren ala "https://okedv.dyndns.org/...) sind leider nicht automaitsch umsetzbar, da zuerst das Zertifikat geprüft wird - was dann aber fehlschlägt.