ProHoster > Blog > Verwaltung > Installation des verteilten fehlertoleranten LeoFS-Objektspeichers, kompatibel mit Clients, die S3, NFS verwenden
Installation des verteilten fehlertoleranten LeoFS-Objektspeichers, kompatibel mit Clients, die S3, NFS verwenden
Согласно Opennet: LeoFS – Verteilter fehlertoleranter Objektspeicher LeoFS, kompatibel mit Clients, die die Amazon S3-API und REST-API verwenden, und unterstützt auch den NFS-Servermodus. Es gibt Optimierungen für die Speicherung sowohl kleiner als auch sehr großer Objekte, es gibt einen integrierten Caching-Mechanismus und eine Replikation des Speichers zwischen Rechenzentren ist möglich. Zu den Zielen des Projekts gehört das Erreichen einer Zuverlässigkeit von 99.9999999 % durch redundante Replikation von Duplikaten und die Eliminierung eines Single Point of Failure. Der Projektcode ist in Erlang geschrieben.
LeoFS besteht aus drei Komponenten:
LeoFS-Speicher – dient zum Hinzufügen, Abrufen und Löschen von Objekten und Metadaten und ist für die Durchführung von Replikation, Wiederherstellung und das Einreihen von Client-Anfragen in die Warteschlange verantwortlich.
LeoFS-Gateway – bedient HTTP-Anfragen und leitet Antworten an Clients über REST-API oder S3-API weiter, sorgt für die Zwischenspeicherung der am meisten benötigten Daten im Speicher und auf der Festplatte.
LeoFS-Manager – überwacht den Betrieb von LeoFS Gateway- und LeoFS Storage-Knoten, überwacht den Status von Knoten und prüft Prüfsummen. Garantiert Datenintegrität und hohe Speicherverfügbarkeit.
In diesem Beitrag werden wir Leofs mit Ansible-Playbook installieren und S3, NFS testen.
Wenn Sie versuchen, LeoFS mithilfe der offiziellen Playbooks zu installieren, werden verschiedene Fehler auftreten: 1,2. In diesem Beitrag werde ich schreiben, was getan werden muss, um diese Fehler zu vermeiden.
Wo Sie ansible-playbook ausführen möchten, müssen Sie Netcat installieren.
Beispiel für ein Inventar
Beispielinventur (im hosts.sample-Repository):
# Please check roles/common/vars/leofs_releases for available versions
[all:vars]
leofs_version=1.4.3
build_temp_path="/tmp/leofs_builder"
build_install_path="/tmp/"
build_branch="master"
source="package"
#[builder]
#172.26.9.177
# nodename of leo_manager_0 and leo_manager_1 are set at group_vars/all
[leo_manager_0]
172.26.9.176
# nodename of leo_manager_0 and leo_manager_1 are set at group_vars/all
[leo_manager_1]
172.26.9.178
[leo_storage]
172.26.9.179 [email protected]
172.26.9.181 [email protected]
172.26.9.182 [email protected]
172.26.9.183 [email protected]
[leo_gateway]
172.26.9.180 [email protected]
172.26.9.184 [email protected]
[leofs_nodes:children]
leo_manager_0
leo_manager_1
leo_gateway
leo_storage
Servervorbereitung
Selinux deaktivieren. Ich hoffe, dass die Community Selinux-Richtlinien für LeoFS erstellen wird.
- name: Install libselinux as prerequisite for SELinux Ansible module
yum:
name: "{{item}}"
state: latest
with_items:
- libselinux-python
- libsemanage-python
- name: Disable SELinux at next reboot
selinux:
state: disabled
- name: Set SELinux in permissive mode until the machine is rebooted
command: setenforce 0
ignore_errors: true
changed_when: false
Einstellung netcat и redhat-lsb-core. netcat gebraucht für leofs-adm, redhat-lsb-core wird benötigt, um die Betriebssystemversion zu ermitteln hier.
Überprüfen des Clusterstatus auf dem primären LeoManager
leofs-adm status
Primär und sekundär sind in den Ansible-Playbook-Protokollen zu sehen
Die Ausgabe wird etwa so aussehen
[System Confiuration]
-----------------------------------+----------
Item | Value
-----------------------------------+----------
Basic/Consistency level
-----------------------------------+----------
system version | 1.4.3
cluster Id | leofs_1
DC Id | dc_1
Total replicas | 2
number of successes of R | 1
number of successes of W | 1
number of successes of D | 1
number of rack-awareness replicas | 0
ring size | 2^128
-----------------------------------+----------
Multi DC replication settings
-----------------------------------+----------
[mdcr] max number of joinable DCs | 2
[mdcr] total replicas per a DC | 1
[mdcr] number of successes of R | 1
[mdcr] number of successes of W | 1
[mdcr] number of successes of D | 1
-----------------------------------+----------
Manager RING hash
-----------------------------------+----------
current ring-hash | a0314afb
previous ring-hash | a0314afb
-----------------------------------+----------
[State of Node(s)]
-------+----------------------+--------------+---------+----------------+----------------+----------------------------
type | node | state | rack id | current ring | prev ring | updated at
-------+----------------------+--------------+---------+----------------+----------------+----------------------------
S | [email protected] | running | | a0314afb | a0314afb | 2019-12-05 10:33:47 +0000
S | [email protected] | running | | a0314afb | a0314afb | 2019-12-05 10:33:47 +0000
S | [email protected] | running | | a0314afb | a0314afb | 2019-12-05 10:33:47 +0000
S | [email protected] | attached | | | | 2019-12-05 10:33:58 +0000
G | [email protected] | running | | a0314afb | a0314afb | 2019-12-05 10:33:49 +0000
G | [email protected] | running | | a0314afb | a0314afb | 2019-12-05 10:33:49 +0000
-------+----------------------+--------------+---------+----------------+----------------+----------------------------
leofs-adm add-bucket leofs 9c2615f32e81e6a1caf5
OK
Bucket-Liste:
leofs-adm get-buckets
cluster id | bucket | owner | permissions | created at
-------------+----------+--------+------------------+---------------------------
leofs_1 | leofs | leofs | Me(full_control) | 2019-12-02 10:44:02 +0000
s3cmd konfigurieren
Im HTTP Proxy server name Geben Sie die IP des Gateway-Servers an
s3cmd --configure
Enter new values or accept defaults in brackets with Enter.
Refer to user manual for detailed description of all options.
Access key and Secret key are your identifiers for Amazon S3. Leave them empty for using the env variables.
Access Key [9c2615f32e81e6a1caf5]:
Secret Key [8aaaa35c1ad78a2cbfa1a6cd49ba8aaeb3ba39eb]:
Default Region [US]:
Use "s3.amazonaws.com" for S3 Endpoint and not modify it to the target Amazon S3.
S3 Endpoint [s3.amazonaws.com]:
Use "%(bucket)s.s3.amazonaws.com" to the target Amazon S3. "%(bucket)s" and "%(location)s" vars can be used
if the target S3 system supports dns based buckets.
DNS-style bucket+hostname:port template for accessing a bucket [%(bucket)s.s3.amazonaws.com]: leofs
Encryption password is used to protect your files from reading
by unauthorized persons while in transfer to S3
Encryption password:
Path to GPG program [/usr/bin/gpg]:
When using secure HTTPS protocol all communication with Amazon S3
servers is protected from 3rd party eavesdropping. This method is
slower than plain HTTP, and can only be proxied with Python 2.7 or newer
Use HTTPS protocol [No]:
On some networks all internet access must go through a HTTP proxy.
Try setting it here if you can't connect to S3 directly
HTTP Proxy server name [172.26.9.180]:
HTTP Proxy server port [8080]:
New settings:
Access Key: 9c2615f32e81e6a1caf5
Secret Key: 8aaaa35c1ad78a2cbfa1a6cd49ba8aaeb3ba39eb
Default Region: US
S3 Endpoint: s3.amazonaws.com
DNS-style bucket+hostname:port template for accessing a bucket: leofs
Encryption password:
Path to GPG program: /usr/bin/gpg
Use HTTPS protocol: False
HTTP Proxy server name: 172.26.9.180
HTTP Proxy server port: 8080
Test access with supplied credentials? [Y/n] Y
Please wait, attempting to list all buckets...
Success. Your access key and secret key worked fine :-)
Now verifying that encryption works...
Not configured. Never mind.
Save settings? [y/N] y
Configuration saved to '/home/user/.s3cfg'
Wenn Sie den Fehler FEHLER: S3-Fehler: 403 (Zugriff verweigert): Zugriff verweigert erhalten:
s3cmd put test.py s3://leofs/
upload: 'test.py' -> 's3://leofs/test.py' [1 of 1]
382 of 382 100% in 0s 3.40 kB/s done
ERROR: S3 error: 403 (AccessDenied): Access Denied
Dann müssen Sie „signature_v3“ in der s2cmd-Konfiguration auf „True“ ändern. Einzelheiten hierzu Problem.
Wenn „signatur_v2“ „Falsch“ ist, wird ein Fehler wie dieser angezeigt:
WARNING: Retrying failed request: /?delimiter=%2F (getaddrinfo() argument 2 must be integer or string)
WARNING: Waiting 3 sec...
WARNING: Retrying failed request: /?delimiter=%2F (getaddrinfo() argument 2 must be integer or string)
WARNING: Waiting 6 sec...
ERROR: Test failed: Request failed for: /?delimiter=%2F
Belastungstest
Erstellen Sie eine 1-GB-Datei
fallocate -l 1GB 1gb
Laden Sie es auf Leofs hoch
time s3cmd put 1gb s3://leofs/
real 0m19.099s
user 0m7.855s
sys 0m1.620s
Statistik
leofs-adm du für 1 Knoten:
leofs-adm du [email protected]
active number of objects: 156
total number of objects: 156
active size of objects: 602954495
total size of objects: 602954495
ratio of active size: 100.0%
last compaction start: ____-__-__ __:__:__
last compaction end: ____-__-__ __:__:__
Wir sehen, dass die Schlussfolgerung nicht sehr informativ ist.
Mal sehen, wo sich diese Datei befindet.
leofs-adm wo ist leofs/1gb
Wir aktivieren NFS auf dem Leo Gateway 172.26.9.184-Server.
Installieren Sie nfs-utils auf dem Server und Client
sudo yum install nfs-utils
Gemäß den Anweisungen korrigieren wir die Konfigurationsdatei /usr/local/leofs/current/leo_gateway/etc/leo_gateway.conf
protocol = nfs
Führen Sie auf Server 172.26.9.184 rpcbind und leofs-gateway aus
sudo service rpcbind start
sudo service leofs-gateway restart
Erstellen Sie auf dem Server, auf dem leo_manager ausgeführt wird, einen Bucket für NFS und generieren Sie einen Schlüssel für die Verbindung zu NFS
leofs-adm add-bucket test 05236
leofs-adm gen-nfs-mnt-key test 05236 ip-адрес-nfs-клиента
Verbindung zu NFS herstellen
sudo mkdir /mnt/leofs
## for Linux - "sudo mount -t nfs -o nolock <host>:/<bucket>/<token> <dir>"
sudo mount -t nfs -o nolock ip-адрес-nfs-сервера-там-где-у-вас-установлен-gateway:/bucket/access_key_id/ключ-полученный-от-gen-nfs-mnt-key /mnt/leofs
sudo mount -t nfs -o nolock 172.26.9.184:/test/05236/bb5034f0c740148a346ed663ca0cf5157efb439f /mnt/leofs
Speicherplatz über den NFS-Client anzeigen
Speicherplatz unter Berücksichtigung der Tatsache, dass jeder Speicherknoten über eine 40-GB-Festplatte verfügt (3 laufende Knoten, 1 angeschlossener Knoten):
df -hP
Filesystem Size Used Avail Use% Mounted on
172.26.9.184:/test/05236/e7298032e78749149dd83a1e366afb328811c95b 60G 3.6G 57G 6% /mnt/leofs
Installation von LeoFS mit 6 Speicherknoten.
Inventar (ohne Bauträger):
# Please check roles/common/vars/leofs_releases for available versions
[all:vars]
leofs_version=1.4.3
build_temp_path="/tmp/leofs_builder"
build_install_path="/tmp/"
build_branch="master"
source="package"
# nodename of leo_manager_0 and leo_manager_1 are set at group_vars/all
[leo_manager_0]
172.26.9.177
# nodename of leo_manager_0 and leo_manager_1 are set at group_vars/all
[leo_manager_1]
172.26.9.176
[leo_storage]
172.26.9.178 [email protected]
172.26.9.179 [email protected]
172.26.9.181 [email protected]
172.26.9.182 [email protected]
172.26.9.183 [email protected]
172.26.9.185 [email protected]
[leo_gateway]
172.26.9.180 [email protected]
172.26.9.184 [email protected]
[leofs_nodes:children]
leo_manager_0
leo_manager_1
leo_gateway
leo_storage
Ausgabe des leofs-adm-Status
Ausgabe des leofs-adm-Status
[System Confiuration]
-----------------------------------+----------
Item | Value
-----------------------------------+----------
Basic/Consistency level
-----------------------------------+----------
system version | 1.4.3
cluster Id | leofs_1
DC Id | dc_1
Total replicas | 2
number of successes of R | 1
number of successes of W | 1
number of successes of D | 1
number of rack-awareness replicas | 0
ring size | 2^128
-----------------------------------+----------
Multi DC replication settings
-----------------------------------+----------
[mdcr] max number of joinable DCs | 2
[mdcr] total replicas per a DC | 1
[mdcr] number of successes of R | 1
[mdcr] number of successes of W | 1
[mdcr] number of successes of D | 1
-----------------------------------+----------
Manager RING hash
-----------------------------------+----------
current ring-hash | d8ff465e
previous ring-hash | d8ff465e
-----------------------------------+----------
[State of Node(s)]
-------+----------------------+--------------+---------+----------------+----------------+----------------------------
type | node | state | rack id | current ring | prev ring | updated at
-------+----------------------+--------------+---------+----------------+----------------+----------------------------
S | [email protected] | running | | d8ff465e | d8ff465e | 2019-12-06 05:18:29 +0000
S | [email protected] | running | | d8ff465e | d8ff465e | 2019-12-06 05:18:29 +0000
S | [email protected] | running | | d8ff465e | d8ff465e | 2019-12-06 05:18:30 +0000
S | [email protected] | running | | d8ff465e | d8ff465e | 2019-12-06 05:18:29 +0000
S | [email protected] | running | | d8ff465e | d8ff465e | 2019-12-06 05:18:29 +0000
S | [email protected] | running | | d8ff465e | d8ff465e | 2019-12-06 05:18:29 +0000
G | [email protected] | running | | d8ff465e | d8ff465e | 2019-12-06 05:18:31 +0000
G | [email protected] | running | | d8ff465e | d8ff465e | 2019-12-06 05:18:31 +0000
-------+----------------------+--------------+---------+----------------+----------------+----------------------------
Speicherplatz unter Berücksichtigung der Tatsache, dass jeder Speicherknoten über eine 40-GB-Festplatte verfügt (6 laufende Knoten):
df -hP
Filesystem Size Used Avail Use% Mounted on
172.26.9.184:/test/05236/e7298032e78749149dd83a1e366afb328811c95b 120G 3.6G 117G 3% /mnt/leofs