Alle Artikel unter mynetapp.de

Mit diesem Blogpost möchte ich meine aktualisierte „Command Line Reference“ auf Basis von NetApp Clustered Data ONTAP 8.2. veröffentlichen (Wer noch Clustered Data ONTAP in Version 8.1 einsetzt, findet den entsprechenden bereits veröffentlichten Blogpost und Link zur entsprechenden Command Line Reference auf Basis Version 8.1 hier: http://www.mynetapp.de/node/180)

Die CLI Sammlung beinhaltet 300 Beispielbefehle (300 – Das ist Clustered Data ONTAP! Ahu, Ahu, Ahu;) ) inklusive einer kurzen Beschreibung, was die Befehle im Einzelnen tun und wie man diese verwenden sollte. Im Gegensatz zu der CLI Referenz unter 8.1 gibt es 2 Varianten der 8.2er CLI Referenz:

Sort by category

Dieses Dokument dient als „Referenzdokument“ wo man schnell und einfach ein Kommando aus der entsprechenden Kategorie finde kann.

Kommandos der folgenden Kategorien sind beinhaltet:

  • Aggregates
  • AntiVirus
  • Autosupport
  • CIFS
  • CLI Navigation
  • Cluster
  • Control
  • Disk
  • DNS
  • Export-Policy
  • FlexClone
  • iSCSI
  • Jobs
  • Licensing
  • LUN
  • NDMP
  • Networking
  • NFS
  • Qtree
  • Quota
  • Shares
  • SnapMirror
  • Snapshots
  • SnapVault
  • SNMP Services
  • Storage Efficiency
  • Storage Failover
  • System
  • Time Services
  • Troubleshooting
  • Upgrade
  • Volumes
  • vserver

Diese Version der Command Line Reference kann unter folgendem Link heruntergeladen werden: http://people.teamix.net/~bu/82ClusteredOntapCLIReference/NetApp-Clustered-Data-ONTAP-82-CLI-commands-sort-by-category.pdf

Sort by task

Dieses Dokument führt den Administrator in logischer und aufeinander aufbauender Reihenfolge durch die wichtigsten Tasks, die für die Basiseinrichtung eines Netapp Controllers, sowie für die Kompletteinrichtung eines vservers benötigt werden.

Die folgenden Tasks sind beinhaltet:

  • Configure Service Processor
  • Configure Cluster
  • Configure Licensing
  • Configure Storage Failover
  • Configure administrative users
  • Basic CLI Navigation
  • Configure Time Services
  • Configure SNMP Services
  • Configure Autosupport
  • Enable Remote Access to root volumes
  • Create and configure aggregates
  • Configure DNS
  • Optimize root volume
  • Optimize network settings
  • Configuring Cluster management network
  • Configuring Node management network
  • Configuring LACP ifgrp with VLANs as basic for data LIFs
  • Configure default snapshot schedule & policy
  • Configure dedup schedules & policies
  • Create and configure NFS vservers
  • Create and configure ISCSI vservers
  • Configure SnapDrive access
  • Create and configure CIFS vservers
  • Configure NDMP
  • FlexClone handling
  • Basic configuration SnapMirror & SnapVault
  • Configure SnapMirror
  • Configure SnapVault
  • Basic troubleshooting
  • Ontap Upgrade

Diese Version der Command Line Reference kann unter folgendem Link heruntergeladen werden: http://people.teamix.net/~bu/82ClusteredOntapCLIReference/NetApp-Clustered-Data-ONTAP-82-CLI-commands-sort-by-task.pdf

Sollte ein wichtiges Kommando fehlen, bitte kontaktieren. Ich wünsche viel Spaß mit Clustered Data ONTAP 😉

Autor: mynetapp.de
MyNetApp war unsere deutschsprachige NetApp Community Plattform, welche wir von 2007 bis 2019 betrieben haben. Im Zuge der Konsolidierung von Plattformen haben wir die Artikel in unser Proact Blog integriert.

Wichtiger Hinweis

Dieser Artikel beleuchtet das Thema „How to SnapLock Enterprise“. Er dient als Orientierung für Neueinsteiger und als kleine Core-Command-Sammlung für Erfahrene, wie man mit NetApp SnapLock ein Disk-basierendes WORM-Archiv aufbauen kann. Alles basiert auf einem Beispiel und hat keinen Anspruch auf 100%ige Vollständigkeit…
Im SnapLock Umfeld sind viele Befehle nur einmalig ausführbar bzw. gewisse Aktionen nur schwer rückgängig zu machen. Bei der Einrichtung von SnapLock ist somit äußerste Vorsicht geboten!

Aggregatsdesign

Soll SnapLock intergriert werden, muss ein eigenes Aggregat als SnapLock Enterprise Aggregat konfiguriert werden (zusätzlich zum standardmäßigen „root“-Aggregat oder vorhandenen „Standard“ Aggregaten).
Soll die Möglichkeit bestehen, dass ein Administrator in diesem SnapLock Enterprise Aggregat bzw. Volume einzelne Files löschen kann (bei SnapLock Enterprise möglich), kann optional ein weiteres Aggregat mit eigenen Festplatten für ein sog. SnapLock Logvolume (Protokolliert die Löschaktionen) angelegt werden.
Das Aggregat, auf dem das „Logvolume“ abgelegt wird, muss als SnapLock Compliance Aggregat angelegt werden (nicht veränderbar).
Logging ist kein MUSS, um SnapLock Enterprise zu integrieren, es KANN integriert werden, wenn ein Administrator einzelne Files in einem SnapLock Enterprise Volume löschen können soll.

How to SnapLock Enterprise:

  • 01. Lizenz auf den entsprechenden Controllern einspielen (bei HA-Clustern auf beiden Heads)
    • Für SnapLock gibt es von NetApp sog. Master-Keys, die auf jedem Storage-System eingespielt werden können.
    • Hier findet man den SnapLock Enterprise
      • (https://support.netapp.com/NOW/knowledge/docs/olio/guides/snaplock_enterprise/license.shtml)
    • bzw. den SnapLock Compliance Key
      • (https://support.netapp.com/NOW/knowledge/docs/olio/guides/snaplock_compliance/license.shtml)
    • und spielt die entsprechende Lizenz mit folgendem Befehl ein:
      • „license add LICENSEKEY“
  • 02. Zeit auf den Filern richtig setzen und kontrollieren
    • „timezone Europe/Berlin“
    • „date“
  • 03. Compliance Clock initialisieren (hier muss die Uhrzeit auf dem Storage – siehe 02. – zu 100% passen, da dieser Vorgang die „Compliance Clock“ setzt und nur einmalig ausgeführt werden kann!)
    • „date -c initialize“
    • (in Ontap 8.1) „snaplock clock initialize“
      • 04. CHECK: Prüfen, welche Zeit die Systemclock (und später die Volumeclocks) haben
    • „snaplock clock status [VOLNAME]“
  • 05. SnapLock Enterprise Aggregat anlegen
    • „aggr create SLEAGGRNAME -L enterprise [-t raid4] ANZAHLDISKS“
    • (+ wenn nötig weitere Aggregatsoptionen -> alle Optionen durch Eingabe von „aggr create“ einsehbar)
  • 06. SnapLock Enterprise Volume in diesem Aggregat anlegen und weitere Einstellungen für dieses Volume wie gewohnt vornehmen (Snap Reserve, Snapshot Schedule, Deduplizierung)
    • „vol create SLEVOLNAME -s none SLEAGGRNAME XXXg“
    • „snap reserve SLEVOLNAME X“
    • „snap sched SLEVOLNAME X X X“
    • „sis on /vol/SLEVOLNAME“
  • 07. Default-, Mindest- und Maimal-Retentiontime für das Volume einstellen (d = day, m = month, y = years)
    • „vol options SLEVOLNAME snaplock_default_period“ (in SnapLock Enterprise ist hier default: die „minimum_period“)
    • „vol options SLEVOLNAME snaplock_minimum_period“ (in SnapLock Enterprise ist hier default: 0d)
    • „vol options SLEVOLNAME snaplock_maximum_period“ (in SnapLock Enterprise ist hier default: 30y)
  • 08. CHECK: Prüfen, welche „Retentiontimes“ auf dem Volume sind
    • „vol status -w“
  • 09. Eventuell muss nach Vorgabe der Archivierungssoftware ein Autocommit konfiguriert werden (nach Zeit x wird ein geschriebenes File im SnapLock Volume automatisch auf „Read-Only“ gesetzt)
    • Beispiel für ein „Autocommit“ nach 14 Tagen:
    • „vol options SLEVOLNAME snaplock_autocommit_period 14d“
  • 10. CHECK: Prüfen, welche Autocommit-Zeit auf dem Volume eingestellt ist
    • „vol options SLEVOLNAME“
  • 11. CIFS Share bzw. NFS Export für den Zugriff der Archivsoftware auf das SnapLockvolume mit den entsprechenden von der Archivsoftware geforderten Berechtigungen einrichten und an die Archivsoftware verbinden

Optionales Logging und Löschoption


!ACHTUNG: LOGVOLUME MUSS AUF COMPLIANCE AGGREGAT LIEGEN! Compliance Lizenz einspielen & Compliance Aggregat anlegen!

  • 12. Logvolume anlegen und weitere Einstellungen für dieses Volume wie gewohnt vornehmen (Snap Reserve, Snapshot Schedule, Deduplizierung)
    • „vol create LOGVOLNAME -s none COMPLIANCEAGGR XXXg“
    • „snap reserve LOGVOLNAME X“
    • „snap sched LOGVOLNAME X X X“
  • 13. Logvolume festlegen (default: 6 Monate Log Retention)
    • „snaplock log volume LOGVOLNAME“
  • 14. Einstellen, dass ein Administrator Dateien löschen darf
    • „snaplock options SLEVOLNAME privdel on“ (bei Enterprise default: off
  • 15. Der Administrator kann dann im „Notfall“ einzelne Files mit folgendem Befehl aus dem SnapLock Enterprise Volume löschen
    • „snaplock privdel -f PFAD_ZUM_ZU_LÖSCHENDEN_OBJEKT“

Quick and simple 😉

Autor: mynetapp.de
MyNetApp war unsere deutschsprachige NetApp Community Plattform, welche wir von 2007 bis 2019 betrieben haben. Im Zuge der Konsolidierung von Plattformen haben wir die Artikel in unser Proact Blog integriert.

Hi an die NetApp-OnCommand-/Backup-/Restore-Front, nachdem sich viele nicht die „Mühe“ machen, die OnCommand Datenbank auf eine eigene LUN zu legen und sich somit standardmäßig den Weg „verbauen“ mit der Snapshot-Technologie mehrfach täglich die Datenbank von OnCommand zu sichern (da „archive“ Backup maximal täglich funktioniert), hier ein kleiner „Workaround“…

Standardmäßig ist es wie erwähnt nur möglich mit den sog. „Archive“-Backups 1x am Tag zu sichern.
Der Trick sind einfach ein paar geplante Tasks auf dem OnCommand Server, die die Backupschedule einfach weiter drehen…

In meinem Beispiel sollen um 11.00 Uhr und um 23.00 Uhr Datenbankbackups auf die lokale Disk des OnCommand laufen:

Geplanter Task 1 – läuft täglich um 10.00 Uhr auf dem DFM-Server:
# Schedule auf 11.00 Uhr setzen
dfm backup schedule set -t archive -D 11:00
# Schedule enablen
dfm backup schedule enable
# Backupverzeichnis festlegen (Achtung: wenn bereits Backups vorhanden, alle in diesen Ordner kopieren)
dfm option set databaseBackupDir=C:\dfmbackup
# Backup Retention festlegen
dfm option set backupRetentionCount=14

Geplanter Task 2 – läuft täglich um 22.00 Uhr auf dem DFM-Server:
# Schedule auf 23.00 Uhr setzen
dfm backup schedule set -t archive -D 23:00
# Schedule enablen
dfm backup schedule enable
# Backupverzeichnis festlegen (Achtung: wenn bereits Backups vorhanden, alle in diesen Ordner kopieren)
dfm option set databaseBackupDir=C:\dfmbackup
# Backup Retention festlegen
dfm option set backupRetentionCount=14

Mit diesem Workaround ist es möglich, mehrere Archivebackups zu fahren.

Dies löst allerdings nicht das Problem, dass man beim databaseBackupDir keinen Netzwerkpfad angeben kann.
Ich habe es auf alle erdenklichen Weisen versucht – Netzlaufwerk direkt, Netzlaufwerk mit Unterordner, DirectoryLink gemountet in das Homedrive von Windows uvm. – allerdings immer ohne Erfolg… Die Knowledge-Base von Netapp hat auch nichts passendes zu bieten…
An dieser Stelle kann man dann darüber philosophieren, wie man die DB-Backups noch auf eine Backupseite bekommt…

Mögliche Varianten:

  • 01. Für Skriptfreunde:
    • die DB-Backup-Files aus OnCommand per klassischem robocopy oder Skript wegsichern
  • 02. für die Old-Schooler:
    • die DB-Backup-Files aus OnCommand per klassischer Backupsoftware auf Tape abziehen
  • 03. für die modernen Verrückten:
    • OnCommand als virtuelle Maschine aufsetzen und sich selbst nach dem DB-Backup per HostPackage auf ein zweites Storage sichern lassen – am besten in einem Dataset, dass von OnCommand selbst verwaltet wird
    • PS: extreeeeem coole Sache 😉
  • 04. für die Wissenschaftler:
    • OSSV auf den OnCommand Server und die Files per OSSV vom OnCommand auf ein weiteres Storage sichern
    • PS: Ob das geht, konnte ich noch nicht testen, hört sich aber spaßig an 🙂
Autor: mynetapp.de
MyNetApp war unsere deutschsprachige NetApp Community Plattform, welche wir von 2007 bis 2019 betrieben haben. Im Zuge der Konsolidierung von Plattformen haben wir die Artikel in unser Proact Blog integriert.

Seit der VMWare ESX Version 5.x gibt es die Möglichkeit, VAAI Thin Provisioning Block Space Reclamation (UNMAP) zu verwenden. In der Version 5.x gibt es aber Probleme beim Absetzen des Kommandos. Deshalb hat VMWare empfohlen, das UNMAP Kommando zu deaktivieren. Es wird auch bei Einspielen des Patches ESXi500-201112001 oder ESXi 5.0 Update 1 per default deaktiviert.

Das Problem dabei:
Dieses Feature wird dafür verwendet, dem Storage bei Thin Provisioned LUNs (ISCSI oder FC) mitzuteilen, welche VM-Blöcke wieder freigegeben werden können.

Sprich:
Ist dieses Feature disabled und es wird z.B. ein Storage VMotion angestoßen oder eine VM im entsprechenden Datastore gelöscht, so wird zwar im VI-Client der freie Speicherplatz angezeigt, allerdings nicht auf dem Storage freigegeben… Siehe Befehl auf der NetApp: „lun show -v /vol/volname/lunname“ -> Feld: Occupied Size

Die Gefahr:
Das Storage läuft voll…
Und dann schlägt irgendwann hoffentlich das Monitoring zu…
Und dann? Wie bekomme ich denn Platz wieder frei…?!?

VMWare hat die Möglichkeit geschaffen, manuell diesen „Space Reclaim“ abzusetzen:
Man wechselt hierfür auf der ESXi CLI in den entsprechenden Datastore („cd /vmfs/volumes/datastorename“)
und gibt folgenden Befehl ein „vmkfstools -y Prozentzahl“

Zur Erklärung:
Wird z.B. „vmkfstools -y 60“ angegeben, so verwendet VMWare ein temporäres File „.vmfsBalloontsWt8w“ im Datastore, um Space zu reclaimen. Die Größe des Files ist immer „Angegebene Prozent nach dem -y vom freien verbleibenden Speicherplatz im Datastore. Sind z.B. 10GB im Datastore noch nicht belegt und man gibt „60“ ein, wird versucht 6GB an Platz freizugeben und temporär für diese Operation ein 6GB File angelegt. Sind in diesem Beispiel im Storage weniger als 6GB zu „reclaimen“ wird natürlich nur das reclaimed, was möglich ist…

Mit „esxtop“ kann man den „delete“ Vorgang monitoren:
Im esxtop kommt man mit „u“ in die Disk Ansicht. Dort kann man mit „f“ weitere Felder einblenden.
Die Felder „o“ und „p“ können hinzugefügt werden und man sieht nach drücken von „ESC“ die entsprechenden VAAI-Statistiken. (Spalten evtl. noch mit „o“ sortieren).
In den Spaten „DELETE“, „DELETE_F“, „MBDEL/s“ sollten aktive Werte zu sehen sein…

Prüft man dann auf dem Storage System mit „lun show -v /vol/volname/lunname“ die „Occupied Size“, sollte (wenn Platz freigegeben werden kann) der Wert gesunken sein…

ACHTUNG:
Das Ausführen des Befehls kann erhöhte IO-Last auf dem Storage erzeugen, deshalb nur mit Vorsicht zu genießen!
Bitte erst auf einem Testdatastore überprüfen, ob die Space Reclamation funktioniert und wie sie funktioniert!
-> VM auf Testdatastore mit Storage VMotion verschieben
-> danach wieder mit Storage VMotion verschieben
-> prüfen, was der VI-Client anzeigt und was ein lun -v anzeigt
-> mit vmkfstools vertraut machen und Space reclaimen
-> ab gehts auf die produktiven Datastores

Autor: mynetapp.de
MyNetApp war unsere deutschsprachige NetApp Community Plattform, welche wir von 2007 bis 2019 betrieben haben. Im Zuge der Konsolidierung von Plattformen haben wir die Artikel in unser Proact Blog integriert.

Während meines Besuches des Data ONTAP 8.1 Cluster-Mode Administration Kurses bei der qSkills GmbH, habe ich die wichtigsten Befehle für die Administration eines ONTAP 8.1 Cluster Mode Clusters zusammengefasst.

Die Befehlssammlung umfasst über 200 Beispielbefehle mit kurzen Erläuterungen, was diese tun.
Sie erklärt nicht, wie welche Befehle in welcher logischen Reihenfolge durchgeführt werden müssen. Sie soll als „Nachschlagewerk“ dienen falls man mit der Tab-Completion im Cluster Mode nicht lange suchen möchte bzw. nachschlagen möchte, wie ein Befehl aus dem gewohnten 7-Mode im Cluster-Mode aussieht. 🙂 Sie ersetzt keinesfalls eine vollwertige Schulung.

Die Sammlung enthält Befehle aus den Bereichen Aggregate, Autosupport, CIFS, Cluster, Steuerungl, Disk, DNS, Export-Policy, FlexClone, ISCSI, Jobs, Lizenzen, LUN, Manual, Name mapping, NDMP, Netzwerk, NFS, Qtree, Quota, Routing, SnapDrive, Snapshot, SNMP, Storage Efficiency, Storage Failover, System, Zeit, Troubleshooting, Volume und vserver.

Die Befehlssammlung kann unter
http://people.teamix.net/~bu/81ClusterModeCLReference/CLI-Commands-NetApp-81-Cluster-Mode.pdf heruntergeladen werden.

Autor: mynetapp.de
MyNetApp war unsere deutschsprachige NetApp Community Plattform, welche wir von 2007 bis 2019 betrieben haben. Im Zuge der Konsolidierung von Plattformen haben wir die Artikel in unser Proact Blog integriert.

In diesem Artikel eine Beschreibung, wie man es schafft, dass nach einem SMVI-Snapshot automatisch ein SnapVault auf eine Backupsite getriggert wird. Ebenso ist in diesem Beitrag ein Sample-Skript zu finden, ebenso der Hinweis, wo man das entsprechende Log-File findet, um das Konstrukt zu troubleshooten.

How to SMVI & SnapVault

  • 01. Die SnapVault Basisbeziehung für das gewünschte vSphere-Volume aufbauen. Siehe Punkte 01 – 06 auf Seite https://blog.proact.de/2011/08/26/how-to-netapp-snapvault/
    • -> Ziel: der Abgleich zwischen Primär- und Backupstorage funktioniert reibungslos, SnapVault-Beziehung aufgebaut.
  • 02. NetApp Virtual Storage Console (inkl. Backup & Recovery = SMVI) installieren und wie gewohnt den Backupjob für den/die entsprechenden Datastores anlegen
  • 03. SMVI-Job einmal manuell starten und prüfen, dass dieser funktioniert
    • -> Ziel: SMVI-Snapshots werden sauber auf dem Primärstorage erzeugt, Snap Schedule und Retention Time der Snapshots auf dem Primärstorage werden von SMVI verwaltet
  • 04. Auf dem Backupstorage (SnapVault Destination) die Anzahl der vorzuhaltenden Snaphots definieren
    • -> Ziel: Wie viele Snapshots sollen auf der Backupsite aufgehoben werden

Beispiel:

Wir möchten von einem vSphere Store mit Namen „nfs_store_01“, eine Snapshotschedule mit dem Namen „smvi_nfs_store_01_daily“ (der Backupjob im SMVI wurde mit Namen „nfs_store_01_daily“ erstellt) anlegen, welche 14 Snapshots auf dem Backupsystem vorhalten soll

snapvault snap sched nfs_store_01 smvi_nfs_store_01_daily 14@-

–> Wir haben eine lauffähige Snapshot Schedule und konsistente vSphere-Datastore-Snapshots auf der Primärseite durch den SMVI, eine funktionierende SnapVault Beziehung und eine definierte Anzahl an aufzuhebenden Snapshots auf der Backupseite.

AND NOW: BRING IT ALL TOGETHER!

  • 05. Download der SnapVault/SMVI Executables von der NetApp Community (Achtung: Anmelden nicht vergessen!)
  • 06. Datei entpacken und auf auf dem Server, auf dem die Virtual Storage Console installiert wurde, einen Ordner anlegen (i.d.R. vCenter Server) und die sv-smvi.exe und sv-smvi.pl darin ablegen
    • C:\Program Files\NetApp\SV-SMVI\
  • 07. Ablegen der sv-smvi.cmd aus der zip-Datei auf dem vCenter Server in das Skript-Verzeichnis des SMVI
    • (Bei der Konfiguration eines SMVI-Backupjobs gibt es den Punkt „Scripts“. Damit in diesem Menüpunkt Skripte ausgewählt werden können, müssen diese im folgenden Ordner abgelegt werden)

Default Path:
C:\Program Files\NetApp\Virtual Storage Console\smvi\server\scripts

  • 08. Verschlüsseltes Passwort für root bzw. Backupuser generieren (der User, mit dem sich das Skript in die primäre und Backup-NetApp einloggen soll. Befehl in einer cmd ausführen)
    • C:\Program Files\NetApp\SV-SMVI\sv-smvi.exe -cryptpasswd
  • 09. Kennwort notieren
  • 10. Anpassen der sv-smvi.cmd an ihre Storageumgebung

Beispiel-cmd:
set TEMP=C:\Temp
set TMP=C:\Temp
„C:\Program Files\NetApp\SV-SMVI\sv-smvi.exe“ -svip STORAGE-IP -svuser NETAPPLOGONUSER -svcryptpasswd GENERIERTES-PASSWORT

Wichtige Hinweise

Temp-Variable muss für den ausführenden User auf dem vCenter Server gesetzt sein, ansonsten TEMP-Variablen wie im Beispiel-Skript setzen. Variable „-svip“ muss eine IP-Adresse sein, die von vCenter erreichbar ist, da hierüber die ZAPI-Aufrufe laufen. Die „-svip“ kann pro cmd immer nur auf ein Storage verweisen, somit muss für jeden per SMVI zu sichernden Head ein Skript angelegt werden. Hierfür einfach mehrere cmd’s anlegen.

  • 11. Die cmd-Datei als Skript mit in die SMVI-Backupjobs aufnehmen (im SMVI – „Edit Backup“ und dann die, dem zu sichernden Head entsprechende Skriptdatei hinzufügen)
  • 12. Damit die Zapi-Aufrufe auf der Primary- und der Backup-NetApp funktionieren, muss der http-Admin-Zugriff auf diesen Systemen (sowohl Source als auch Destination) freigeschaltet sein bzw. freigeschaltet werden:
    • options httpd.admin.enable on
    • Wichtiger Hinweis:
    • Laut der Community und deren Manual-Beschreibung soll https möglich sein, in der aktuellen Version der Datei sv-smvi.exe (3.0.2) fehlt aber dieser optionale Schalter! Somit funktioniert derzeit nur http.
  • 13. Den abgeänderten SMVI-Job mit der integrierten Skriptdatei manuell anstarten und prüfen, ob alles sauber funktioniert.
  • 14. Sollte irgendetwas nicht laufen, kann im SMVI-Log geprüft werden, wo es vielleicht noch „hackt“…
    • Default Log Path SMVI, wenn mit NetApp Virtual Storage Console installiert:
    • C:\Program Files\NetApp\Virtual Storage Console\smvi\server\log\

Quick and simple. Have fun.. 🙂

Autor: mynetapp.de
MyNetApp war unsere deutschsprachige NetApp Community Plattform, welche wir von 2007 bis 2019 betrieben haben. Im Zuge der Konsolidierung von Plattformen haben wir die Artikel in unser Proact Blog integriert.

How to NetApp NDMP

Kategorien: mynetapp.de
Kommentare: No

NDMP auf der NetApp einrichten. Seeeehr einfach… Hier wird erläutert, wie es geht.

WICHTIGE HINWEISE

NDMP ist ein in jeder NetApp kostenfrei integriertes Protokoll.
Viele Backupsoftwarehersteller benötigen für ein NDMP-Backup extra Lizenzen. Bitte vorab prüfen, welche Lizenzen auf Backupsoftware-Seite fällig werden.

How to NDMP

  • 01. NDMP aktivieren
    • ndmpd on
  • 02. Library physikalisch anschließen
    • Tapelibrary an einen freien Initiator-Port anschließen, evtl. mit fcadmin den Port auf „Initiator“ umstellen
  • 03. Prüfen, dass Library und Tapes an NetApp erkannt werden
    • sysconfig -m (zeigt die erkannten Loader an)
    • sysconfig -t (zeigt die erkannten Tapes an)
  • 04. Backupuser auf der NetApp einrichten
    • useradmin user add USERNAME -g „Backup Operators“
    • Passwort angeben
  • 05. NDMP Kennwort generieren
    • ndmpd password USERNAME
  • 06. das generierte Kennwort „…….“ (16-stellig) aus der Ausgabe aufnotieren
  • 07. NDMP Zugriff einschränken, so dass nur der Backupserver auf NetApp mit NDMP zugreifen darf
    • options ndmpd.access host=“Backupservername“
  • 08. Netapp in die Backupsoftware einbinden mit USERNAME und generiertem NDMP-Kennwort

Quick and simple… 🙂

Autor: mynetapp.de
MyNetApp war unsere deutschsprachige NetApp Community Plattform, welche wir von 2007 bis 2019 betrieben haben. Im Zuge der Konsolidierung von Plattformen haben wir die Artikel in unser Proact Blog integriert.

How to NetApp Snapvault

Kategorien: mynetapp.de
Kommentare: No

In meiner Q&S-Serie möchte ich mit kurzen knackigen CLI-Befehlen aufzeigen, wie man ohne großen Aufwand einzelne Lösungsanforderungen mit NetApp realisieren kann. In diesem Beitrag heute: „How to SnapVault“.

Dies dient als Orientierung für Neueinsteiger und als kleine Core-Command-Sammlung für Erfahrene. Alles basiert auf Beispielen und hat keinen Anspruch auf 100%ige Vollständigkeit…

  • 01. Lizenz auf Source and Destination Filer einspielen
    • license add XXXXX
  • 02. SnapVault auf beiden Filern aktivieren
    • options snapvault.enable on
  • 03. NDMP auf beiden Filern aktivieren (optional)
    • ndmpd on
  • 04. Zugriff erlauben auf Source & Destination Filer
    • options snapvault.access „host=XXXXX“
    • (muss auflösbar sein, auf der Source den Destination Filer und auf dem Destination Filer den Source Filer angeben)
    • oder einfach, wenn jeder alles darf:
    • options snapvault.access all
  • 05. Volume auf der Destination Site anlegen, auf die gesnapvaultet werden soll
  • 06. Basisinitialisierung vom Destination Filer aus starten
    • snapvault start -S systemA:/vol/volxx/qtree /vol/volxx/qtree
    • (qtree auf Destination-Site muss nicht vorhanden sein, nur das Volume)
  • 07. Oh da ging was schief…. SnapVault löschen von SnapVault Secondary (Destination Filer)
    • snapvault stop /vol/volxx/qtree
    • snapvault release sec_qtree_path prim_system:prim_qtree_path
  • 08. Alle Standard Snapshot Schedules auf den Filer-Volumes deaktivieren (Source und Destination Filer)
    • snap sched VOLNAME 0 0 0
  • 09. Alle alten Snapshots bereinigen (Source und Destination Filer)
    • snap delete VOLNAME SNAPNAME
  • 10. Snap Reserve anpassen (je nachdem, wie viel mit Snapvault vorgehalten werden soll (Source und Destination Filer)
    • snap reserve VOLNAME 30
    • (in diesem Beispiel 30%)
  • 11. Snapshotschedules auf Primärseite festlegen (Produktivsystem = Primary)

Beispiele

  • 12. SnapVault Primary Snapshot Schedule weekly (2 Snapshots, jeden Sonntag, 0 Uhr)
    • snapvault snap sched volxx sv_weekly 2@sun@0
  • 13. SnapVault Primary Snapshot Schedule nightly (12 Snapshots, Montag bis Samstag, 0 Uhr)
    • snapvault snap sched volxx sv_nightly 12@mon-sat@0
  • 14. SnapVault Primary Snapshot Schedule hourly (46 Snapshots, Montag bis Sonntag, jede Stunde, quasi 2 Tage jede Stunde zurück)
    • snapvault snap sched volxx sv_hourly 46@mon-sun@1-23
  • 15. Snapshotschedules auf Backupsite festlegen (Backupsystem = Secundary)

Beispiele basierend auf Pkt. 12 bis 15:

  • 16. SnapVault Secondary Snapshot Schedule mit Abgleich Primary Schedule weekly (16 Wochen Vorhaltezeit)
    • snapvault snap sched -x volxx sv_weekly 16@sun@0
  • 17. SnapVault Secondary Snapshot Schedule mit Abgleich Primary Schedule nightly (16 Wochen jeden Tag Restore möglich)
    • snapvault snap sched -x volxx sv_nightly 96@mon-sat@0

Im Unternehmen ist keine 2. NetApp vorhanden, um die Vorteile von SnapVault nutzen zu können?

Ein Beispiel-Szenario:
Irgendwann läuft die „Alte“ aus dem Service und muss erneuert werden. Nicht einfach wegwerfen. Neue NetApp erwerben, sowie eine SnapVault-Lizenz für die „Alte“ und die „Neue“, Produktivdaten auf die „Neue“, Backup einrichten in Richtung „Alte“ 😉

Quick and simple…

Autor: mynetapp.de
MyNetApp war unsere deutschsprachige NetApp Community Plattform, welche wir von 2007 bis 2019 betrieben haben. Im Zuge der Konsolidierung von Plattformen haben wir die Artikel in unser Proact Blog integriert.

How to NetApp SnapMirror

Kategorien: mynetapp.de
Kommentare: No

Dieser Artikel beleuchtet das Thema „How to SnapMirror“. Er dient als Orientierung für Neueinsteiger und als kleine Core-Command-Sammlung für Erfahrene. Alles basiert auf Beispielen und hat keinen Anspruch auf 100%ige Vollständigkeit… Alle Erläuterungen beziehen sich auf einen Volume SnapMirror.

Wichtiger Hinweis:
Vol-Snapmirror funktioniert nicht zwischen Trad- und Flexible-Volumes und nicht zwischen 32- und 64-bit Aggregaten. Ebenso sollte gewährleistet sein, dass die Destination immer auf der gleichen oder einer höheren Ontap-Version läuft als die Source. Qtree-SnapMirror überwindet diese Grenzen und verwendet statt der Volume-Pfade einfach Qtree-Pfade (Befehle wie in diesem Q&S, Pfadangaben wie in Artikel „Q&S – SnapVault“)

  • 01. SnapMirror Lizenz auf Source und Destination einspielen
    • license add XXXX
  • 02. SnapMirror auf Source- und Destination-Filer aktivieren
    • options snapmirror.enable on
  • 03. Auf dem Sourcefiler den Zugriff auf den Destination-Filer und auf dem Dest-Filer den Zugriff auf den Source-Filer erlauben (Vorgehen siehe auch Q&S – SnapVault)
    • options snapmirror.access „host=xxx“ (muss auflösbar sein)
    • oder jeder darf überall hin spiegeln
    • options snapmirror.access all
  • 04. Zielvolume auf Spiegelseite anlegen
    • vol create volxx
  • 05. Qtrees Security Style des Zielvolumes anpassen
    • qtree security xxx xxx
  • 06. Zielvolume restricten
    • vol restrict volxx
  • 07. Basisinitialisierung des SnapMirrors vom Destination-Filer aus starten
    • (erste Übertragung startet sofort, Aufpassen auf Storage und Netzauslastung, sowie Snapshot-Reserven)
    • snapmirror initialize -S sourcefiler:sourcevol destfiler:destvol
  • 08. Permanente Replikation einrichten auf dem Destination-Filer
    • (das angegebene File per CIFS-Share oder mit wrfile auf der CLI editieren)
    • /etc/snapmirror.conf
  • 09. folgende Zeilen für eine entsprechende Replikations-Schedule in die /etc/snapmirror.conf einfügen
    • (Scheduleerläuterung: „minute“ „hour“ „day_of_month“ „day_of_week“)
  • 10. Beispielhaftes Update des initialen Spiegels jede Nacht 0:00 Uhr
    • sourcefiler:sourcevol destfiler:destvol – 0 0 * *
  • 11. Beispielhaftes Update des initialen Spiegels zu jeder Stunde
    • sourcefiler:sourcevol destfiler:destvol – 0 * * *
  • 12. Beispielhaftes Update des initialen Spiegels jeden Sa+So, 0:00 Uhr
    • sourcefiler:sourcevol destfiler:destvol – 0 0 * 6,7

Replication works….

Weitere Commands to know:

  • 13. Wie kann ich den Spiegel manuell updaten? (Befehl auf der Destination ausführen)
    • snapmirror update -S sourcefiler:sourcevol destvol
    • (normalerweise reicht sogar nur die Angabe des Destination-Volumes)
  • 14. Ich möchte einen laufenden SnapMirror abbrechen… (Befehl auf der Destination ausführen)
    • snapmiror abort destvol
  • 15. Wann sind meine SnapMirrors zum letzten Mal gelaufen, wie ist deren Status bei der Übertragung?
    • snapmirror status
  • 16. Ich möchte das gespiegelte Volume online nehmen und beschreibbar machen = Spiegel brechen (auf Destination)
    • snapmirror break destvol
  • 17. Ich möchte die Schedule kurz aussetzen bzw. möchte sichergehen, dass erst einmal keine SnapMirrors mehr laufen (Destination)
    • snapmirror quiesce destvol
  • 18. Wie bekomme ich den SnapMirror „wieder in die Schedule, nachdem ich gequiesced habe? (Destination)
    • snapmirror resume destvol
  • 19. Wie kann ich die SnapMirror Beziehung endgültig auflösen, damit diese endgültig weg ist (Destination)
    • snapmirror release destvol
    • oder
    • /etc/snapmirror.conf entsprechend editieren und die entsprechenden Zeilen für den entsprechenden Spiegel entfernen

Quick and simple asynchronous replication with snapmirror… 🙂

Autor: mynetapp.de
MyNetApp war unsere deutschsprachige NetApp Community Plattform, welche wir von 2007 bis 2019 betrieben haben. Im Zuge der Konsolidierung von Plattformen haben wir die Artikel in unser Proact Blog integriert.

Für alle die nicht wissen was es mit diesem „alignment“ überhaupt auf sich hat, kann ich folgendes White Paper von NetApp sehr empfehlen. Es behandelt übrigens auch ausführlich die Korrektur der Ausrichtung.. http://media.netapp.com/documents/tr-3747.pdf

Um nun herauszufinden welche LUN(s) Problem(e) machen, braucht ihr zunächst ein ONTAP in einer Verison größer oder gleich 7.2.1.

Anschließend müsst ihr in den Diagnose-Modus wechseln, welcher eigentlich nur für NetApp-Mitarbeiter ist. Seid euch hier halt bitte bewusst, dass ihr in diesem Modus durchaus einigen Schaden anrichten könnt wenn ihr nicht genau wisst was ihr macht.
filer> priv set diag

Nun fangen wir an Daten über die LUNs auf dem System zu sammeln:
filer*> stats start lun

Lasst das ganze nun einige Sekunden/Minuten laufen. Je nach Auslastung kann es etwas dauern bis ihr ausreichend Daten habt. Ca. eine Minute ist aber ein guter Richtwert.

Wenn Ihr genug Daten habt, stopt die Messung und lasst euch die Ergebnisse ausgeben:
filer*> stats stop

Wenn ihr zum Beispiel eine LUN /vol/volume/lun.0 habt könnte die Ausgabe wie folgt aussehen:
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:read_align_histo.0:100%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:read_align_histo.1:0%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:read_align_histo.2:0%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:read_align_histo.3:0%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:read_align_histo.4:0%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:read_align_histo.5:0%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:read_align_histo.6:0%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:read_align_histo.7:0%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:write_align_histo.0:90%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:write_align_histo.1:0%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:write_align_histo.2:0%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:write_align_histo.3:0%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:write_align_histo.4:0%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:write_align_histo.5:0%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:write_align_histo.6:0%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:write_align_histo.7:0%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:read_partial_blocks:0%
lun:/vol/volume/lun.0 : HnX3/JH-uqpl:write_partial_blocks:10%

Die Werte „read_align_histo“ und „write_align_histo“ sagen nun vereinfacht gesagt aus, wieviele LUN-Reads/Writes auf wieviele WAFL-Reads/Writes verteilt wurden. Wenn der Prozentsatz bei .0 (also 0 Operationen mehr als nötig) sehr hoch ist, dürfte das Alignment passen – wenn sich die anderen Zähler hervortuen habt ihr ein sicheres Zeichen für misalignment.

Wenn ihr genau hingesehen habt, ist euch sicher aufgefallen das bei den schreibenden Operationen ca. 10% als partial_blocks, also nicht volle Blöcke geschrieben wurden. Dies sagt nur aus, das 10% der geschrieben Blöcke keine vollen 4k (bzw. kein Vielfaches von 4k) waren, sondern etwas weniger Byte..

Autor: mynetapp.de
MyNetApp war unsere deutschsprachige NetApp Community Plattform, welche wir von 2007 bis 2019 betrieben haben. Im Zuge der Konsolidierung von Plattformen haben wir die Artikel in unser Proact Blog integriert.