Mirror Performance Stripe?

Status
Not open for further replies.

Rand

Guru
Joined
Dec 30, 2013
Messages
906
Ja das sind consolen commandos aber da kommst du über die Gui auch ran, links unten "shell"
Der command (muss natürlich mit deinem pool namen und dataset namen abgesetzt werden und nicht pool/dataset) liest nur den wert der Sync Option für das jeweilige dataset aus

retrans=n

The number of times the NFS client retries a request before it attempts further recovery action. If the retrans option is not specified, the NFS client tries each request three times.
The NFS client generates a "server not responding" message after retrans retries, then attempts further recovery (depending on whether the hard mount option is in effect).
Denke da ist 12000 kein guter wert;) Stellt zwar sicher das er nie einen fehler meldet aber sinnvoll ist das nicht

Und ich glaube Cyberjock hat das mal gemacht, k.A ob er das noch macht aber nehme an - wäre natürlich auf englisch. Jemand deutschen kenne ich nicht, gibts aber bestimmt.
 

Freitag

Dabbler
Joined
Feb 9, 2016
Messages
23
Ok habe das mal eingeben

ist das alles an Werten oder sollt hier mehr kommen
# zfs get sync storage-pool
NAME PROPERTY VALUE SOURCE
storage-pool sync standard default

Wo werden die Werte den gespeichert in welcher Datei
 

Rand

Guru
Joined
Dec 30, 2013
Messages
906
Das ist ok so -

Der Pool hat also standard sync, dann entscheidet der client darüber ob er sync writes braucht oder nicht.
Das dataset auch?
 
Last edited:

Freitag

Dabbler
Joined
Feb 9, 2016
Messages
23
habe kein Dataset angelegt alles geht direkt in den pool jails hat er von allein angelegt
 

Rand

Guru
Joined
Dec 30, 2013
Messages
906
Was für Jails? - Ah ein Blick auf den screenshot macht es klar -es gibt ein Dataset Jails für Jails wahrscheinlich die aber hier nicht betrachtet werden, oder?

Ok, also prinzipiell ist es ok sync=standard zu haben, dann entscheidet der Client wann er Sync/Async writes macht.
Bei VMWare/nfs sind das dann z.B. immer sync writes weil man es da nicht feiner einschränken kann (oder konnte, ggf geht das mit ESXi6).
Ich habe keine Ahnung wie das bei Promoxx ist.

Ich kann nur sagen das es mir zu schnell vorkommt (basierend auf meiner ESX5 Erfahrung) und ich deswegen raten würde, sich das genau anzuschauen wenn die Daten wichtig sind - aber ich fürchte ich kann da nicht wirklich weiterhelfen, sorry.

Edit: Hier ist auch ein guter Thread zu dem Thema (Anfang ist buildlog, später dann Performance Vergleiche mit und ohne sync/SLOG):
https://forums.servethehome.com/index.php?threads/half-decent-all-in-one-build.7423/page-2
oder der hier der ähnliche Probleme zeigt:
https://forum.proxmox.com/threads/poor-performance-with-zfs.21568/


Edit2:
das sind die Mount Option

mount | grep 192.168.13.11
192.168.13.11:/mnt/storage-pool/ on /mnt/pve/storage type nfs (rw,relatime,vers=3,rsize=131072,wsize=131072,namlen=255,hard,nolock,proto=tcp,timeo=30,retrans=5000,sec=sys,mountaddr=192.168.13.11,mountvers=3,mountport=613,mountproto=tcp,local_lock=all,addr=192.168.13.11)
Was mir gerade noch aufgefallen ist - hier ist keine sync option gesetzt, oder?


The sync mount option

The NFS client treats the sync mount option differently than some other file systems (refer to mount(8) for a description of the generic sync and async mount options). If neither sync nor async is specified (or if the async option is specified), the NFS client delays sending application writes to the server until any of these events occur:
Memory pressure forces reclamation of system memory resources.
An application flushes file data explicitly with sync(2), msync(2), or fsync(3).

An application closes a file with close(2).

The file is locked/unlocked via fcntl(2).

In other words, under normal circumstances, data written by an application may not immediately appear on the server that hosts the file.
If the sync option is specified on a mount point, any system call that writes data to files on that mount point causes that data to be flushed to the server before the system call returns control to user space. This provides greater data cache coherence among clients, but at a significant performance cost.

Applications can use the O_SYNC open flag to force application writes to individual files to go to the server immediately without the use of the sync mount option.
 
Last edited:
Status
Not open for further replies.
Top