aggregazione rete - trunk switch - vmware

HW e servizi di rete: utilizzo abbinato al NAS (FW, DHCP, (D)DNS, NTP, RADIUS, LDAP, ACTIVE DIRECTORY, VPN CLIENT&SERVER, EZ&ROUTER/WiFi, UPS)
cybermod
Utente
Utente
Messaggi: 25
Iscritto il: venerdì 6 marzo 2015, 10:26

aggregazione rete - trunk switch - vmware

Messaggio da cybermod »

Ciao ragazzi, piacere di conoscervi, spero di essere nel posto giusto ;)

ho acquistato due synology 1815+ che dovranno avere la funzione di storage per un cluster di 3 nodi vmware (attualmente uso iscsi, ma da vmware6 credo implementerò NFS4).
Gli storage sono collegati ai nodi tramite due switch di rete hp 1810-24, non uno solo per evitare il famoso single point of failure.

Vorrei sfruttare l'aggregazione (bond) delle schede di rete di synology per aumentare la banda passante, magari creando due bond (quindi coppie di schede di rete) e distribuirle sul trunk degli switch.

Purtroppo, dai test che sto facendo, oltre gli 80/90Mbits non riesco ad andare, e sinceramente mi aspetterei quasi il doppio.
Rimango aperto a consigli di ogni genere

Vi ringrazio per l'aiuto
  • UPS: 3 Apc SmartUps 1500i + 3 Network Card2 AP9631
  • GTW: 2 pfSense 2.2 in cluster (release p4) su Fibra 20M/20M IP: Public
  • SWC: 2 Hp ProCurve 1810g-24, core switch Hp ProCurve 4108GL, periferici Hp Procurve 1810g-48
  • NAS: 2 1815+ LastBuild Ram 6Gb DDR; Storage 16 WD SE 3T; LAN: 4 in lavorazione
  • CLI: assemblato CPU i5-4440 16Gb ddr3 SSD 254gb Samsung 840 EVO Windows 8.1
  • ALTRO: 2 Dell T710 2 CPU E5630 RAM 120Gb + 1 Dell R630 1 CPU E5-2620 RAM 64Gb
  • EXP: E3 - NET7 PC:W8, M5, L5
burghy86
Moderatore
Moderatore
Messaggi: 11668
Iscritto il: martedì 11 settembre 2012, 18:59

Re: R: aggregazione rete - trunk switch - vmware

Messaggio da burghy86 »

Sullo switch sono impostate insieme?

inviato con il mio topotalk
NUOVO CANALE DISCORD e telegram
PARTECIPATE NUMEROSI:

https://discord.gg/McP3d4m2pG

https://t.me/Synology_IT



Passare dalla sezione presentazioni e leggere il regolamento firma obbligatorio

siamo una community, aiutateci a sentirci parte di qualcosa e non un helpdesk
Non do aiuto in privato ma sul forum a tutti!!
Un grazie ci spinge a lavorare meglio
------------------------------------------------------------
  • UPS: apc
  • GTW: fritzbox ISP: ftth 2.5gb/1) IP:[pubblico]
  • SWC: hp gigabit 8 porte with poe
  • NAS: 923+ 720+ dmv dal 6.2 alla 7., all hd con wdred/ironwolf da 2/6tb
  • CLI: win11 e ubuntu
    [altro]
  • 3 smartphone android, lettore bd , firestik 4k raspberry p3
cybermod
Utente
Utente
Messaggi: 25
Iscritto il: venerdì 6 marzo 2015, 10:26

Re: aggregazione rete - trunk switch - vmware

Messaggio da cybermod »

ciao burghy86, chiaramente si.

mi spiego meglio, o ci provo:

synology1 Lan1 e Lan2 -> BOND 1 -> IP 192.168.182.200
Lan3 e Lan4 -> BOND 2 -> IP 192.168.172.200

Synology 2 Lan1 e Lan2 -> BOND 1 -> IP 192.168.182.204
Lan3 e Lan4 -> BOND 2 -> IP 192.168.172.204


Switch 1 trunk1: membri BOND1 del synology1 (ossia le Lan1 e Lan2)
trunk2: membri BOND1 del synology2 (ossia le Lan1 e Lan2)

Switch 2 trunk1: membri BOND2 del synology1 (ossia le Lan3 e Lan4)
trunk2: membri BOND2 dei synology2 (ossia le Lan3 e Lan4)

Così facendo, ogni bond viene riconosciuto con l'aggregazione (synology mi segnala 2000mb di banda passante).
Ma quando trasferisco, via shell, dei dati dal synology1 al synology2, vedo un picco massimo di 80/90mb.

Inizialmente, potremmo anche considerare l'aggregazione di un solo synology, l'importante è che spinga di più.
Non vorrei che le LLCP facessero aggregazione ma la vera utilità vi fosse solo nel caso in cui ci fossero più nodi (più connessioni quindi) contemporanee alla stessa LUN.
Qualcuno mi ha menzionato il pulti-path su vmware, ma ormai sono un po' cotto di concetti

Buon appetito
  • UPS: 3 Apc SmartUps 1500i + 3 Network Card2 AP9631
  • GTW: 2 pfSense 2.2 in cluster (release p4) su Fibra 20M/20M IP: Public
  • SWC: 2 Hp ProCurve 1810g-24, core switch Hp ProCurve 4108GL, periferici Hp Procurve 1810g-48
  • NAS: 2 1815+ LastBuild Ram 6Gb DDR; Storage 16 WD SE 3T; LAN: 4 in lavorazione
  • CLI: assemblato CPU i5-4440 16Gb ddr3 SSD 254gb Samsung 840 EVO Windows 8.1
  • ALTRO: 2 Dell T710 2 CPU E5630 RAM 120Gb + 1 Dell R630 1 CPU E5-2620 RAM 64Gb
  • EXP: E3 - NET7 PC:W8, M5, L5
Avatar utente
dMajo
Moderatore
Moderatore
Messaggi: 1966
Iscritto il: sabato 18 agosto 2012, 23:14
Località: FVG - Italia

Re: aggregazione rete - trunk switch - vmware

Messaggio da dMajo »

La configurazione dei nas sembra corretta (sempre che tu non voglia usarli in HA: anche il nas può essere un single point of failure), negli switch configura i trunk verso i nas in LACP. Ovviamente dovresti creare anche un terzo trunk (statico questa volta) fra i due switch con almeno 2(meglio 4) porte altrimenti i client di uno switch che accedono al nas sull'altro avranno il collo di bottiglia della singola connessione fra gli switch. Bilancia poi equamente i client (nodi) sulle due subnet/4 ip in base alla banda/carico necessari.

Le connessioni sono aggregate logicamente, ma fisicamente rimangono sempre da 1Gb. Quindi qualsiasi sw tu usi che instauri una sola sessione (socket) di comunicazione non potrà trarne beneficio. Generalmente nelle applicazioni client-server non è un problema in quanto anche se il singolo client instaura una singola sessione a trarne beneficio sono la moltitudine di client che anche se con singola sessione accedono in "parallelo" al server (quindi sulla connettività aggregata le sessioni sono multiple e contemporanee). Quindi se usi una singola lun a per accedervi un singola sessione non avrai benefici dall'aggregazione. Altrimenti dovresti valutare il 10Gb

Riguardo a VMWare non sono molto ferrato in quanto uso massivamente HyperV di MS, ma il multipath iscri suona corretto. Esso sembra offrire sia il failover che il load-balancing. Qui hai una guida

PS: Sistema la firma
Dal 01.01.2015 non rispondo a quesiti tecnici dei non osservanti il regolamento https://www.synologyitalia.com/presentazioni/regolamento-leggere-prima-di-postare-t5062.html

  • UPS: APC SMT2200I+AP9631
  • GTW: Vigor2866Vac(4.4.2): 2StaticIP FTTH(1/.1G)+FTTC(30/3M) :o
  • SWC: Netgear GS728TPv2(PoE+)
    • 4x HP NJ2000G
    • 2x Netgear GS108Tv2
    • 2x VigorAP902
  • NAS: DS1819+: DSM6.2.4(u7),32GB; C(2x845DCPro),R5(3xST6000VN001),R0(2xWD60PURX),VB(WD60EFRX);LAN:LAG(1+2),3,4 :D
    • DS1815+: DSM6.2.4(u7),16GB; R5(3xWD60EFRX),VB(2xWD60EFRX);LAN:LAG(1+2),3
    • RS3617xs+: DSM6.2.4(u7),8GB; R6(8xWD40FFWX),HS(WD40FFWX);LAN:LAG(1+2+3),4,LAG(5+6)
    • DS1513+(4GB); DS115j
  • ALTRO: Denon AVR-4311
    • UE55ES8000Q, UE32ES6800Q, UE22F5410AY
    • Galaxy Note8, A5, TabS3; Nokia N8
  • EXP: E5: NET9 PC:W9,M0,L6

www.alldataee.com
cybermod
Utente
Utente
Messaggi: 25
Iscritto il: venerdì 6 marzo 2015, 10:26

Re: aggregazione rete - trunk switch - vmware

Messaggio da cybermod »

La configurazione dei nas sembra corretta

Ciao, grazie per il tuo intervento
Per farmi capire meglio (visto che non sono proprio un super manico del settore) posso anche allegare degli screen delle configurazioni switch, o un visio, cercando di essere più chiaro.
(sempre che tu non voglia usarli in HA: anche il nas può essere un single point of failure),

assolutamente d'accordo con te, infatti nel progetto su carta i synology hanno due volumi ognuno, uno di produzione e uno di replica (si incrociano, e lavorano entrambi)
negli switch configura i trunk verso i nas in LACP. Ovviamente dovresti creare anche un terzo trunk (statico questa volta) fra i due switch con almeno 2(meglio 4) porte altrimenti i client di uno switch che accedono al nas sull'altro avranno il collo di bottiglia della singola connessione fra gli switch.
Mica tanto ovviamente.... avevo il sospetto di una cosa del genere, ma non ne ero sicuro. Però ho dei dubbi e te li pongo: non ho client che si collegano a questi due switch, essi sono dedicati solo ed unicamente per la parte storage. Quindi vi si collegheranno gli storage stessi e i nodi di vmware (sia i vKernel Switch per ISCSI che i vKernel per la gestione di vMotion etc etc).
La parte di produzione si appoggia ad un altro switch core con i vari rilanci in fibra per i building.
che dici, devo implementare lo stesso questo tipo di collegamento tra gli switch?

Bilancia poi equamente i client (nodi) sulle due subnet/4 ip in base alla banda/carico necessari.
eh.... a dirlo ok, a farlo un po' meno ;)
Le connessioni sono aggregate logicamente, ma fisicamente rimangono sempre da 1Gb. Quindi qualsiasi sw tu usi che instauri una sola sessione (socket) di comunicazione non potrà trarne beneficio. Generalmente nelle applicazioni client-server non è un problema in quanto anche se il singolo client instaura una singola sessione a trarne beneficio sono la moltitudine di client che anche se con singola sessione accedono in "parallelo" al server (quindi sulla connettività aggregata le sessioni sono multiple e contemporanee). Quindi se usi una singola lun a per accedervi un singola sessione non avrai benefici dall'aggregazione. Altrimenti dovresti valutare il 10Gb
Quindi, questo tipo di soluzione serve più che altro perchè ho due storage condivisi e 3 nodi che vi accedono in contemporanea, non è che realmente aumento la banda passante?
Scusa se le domande sembrano banali, ma per me è una cosa fondamentale e vorrei capirla e farla mia. Per il 10gb, purtroppo non me lo posso permettere al momento..... magari più avanti, quando i prezzi saranno più accessibili, ma dovrei cambiare i synology perchè i 1815+ non sono espandibili tramite schede aggiuntive :(
Riguardo a VMWare non sono molto ferrato in quanto uso massivamente HyperV di MS, ma il multipath iscri suona corretto. Esso sembra offrire sia il failover che il load-balancing. Qui hai una guida
Grazie della segnalazione, mi sono già scaricato molta documentazione ma devo dire che faccio fatica a comprenderne i concetti, ma ci sto lavorando!
perdono, non ho letto tutto, lunedì nei ritagli provvedo!

Ti/Vi ringrazio nuovamente
  • UPS: 3 Apc SmartUps 1500i + 3 Network Card2 AP9631
  • GTW: 2 pfSense 2.2 in cluster (release p4) su Fibra 20M/20M IP: Public
  • SWC: 2 Hp ProCurve 1810g-24, core switch Hp ProCurve 4108GL, periferici Hp Procurve 1810g-48
  • NAS: 2 1815+ LastBuild Ram 6Gb DDR; Storage 16 WD SE 3T; LAN: 4 in lavorazione
  • CLI: assemblato CPU i5-4440 16Gb ddr3 SSD 254gb Samsung 840 EVO Windows 8.1
  • ALTRO: 2 Dell T710 2 CPU E5630 RAM 120Gb + 1 Dell R630 1 CPU E5-2620 RAM 64Gb
  • EXP: E3 - NET7 PC:W8, M5, L5
burghy86
Moderatore
Moderatore
Messaggi: 11668
Iscritto il: martedì 11 settembre 2012, 18:59

Re: aggregazione rete - trunk switch - vmware

Messaggio da burghy86 »

Su vmware le schede sono impostate come round Robin?
Ho da un cliente un nodo vmware su una iscsi con un qnap con il link aggregation. Se vuoi guardo come lo avevo impostato

Lo switch della iscsi deve essere separato dalla rete. Ha proprio un indirizzamento ip differente per distribuire le lun.
È giusto cosi.

Infatti le san hanno di solito due porte lan e 8 porte iscsi.



Inviato dal mio GT-I8190N utilizzando Tapatalk
NUOVO CANALE DISCORD e telegram
PARTECIPATE NUMEROSI:

https://discord.gg/McP3d4m2pG

https://t.me/Synology_IT



Passare dalla sezione presentazioni e leggere il regolamento firma obbligatorio

siamo una community, aiutateci a sentirci parte di qualcosa e non un helpdesk
Non do aiuto in privato ma sul forum a tutti!!
Un grazie ci spinge a lavorare meglio
------------------------------------------------------------
  • UPS: apc
  • GTW: fritzbox ISP: ftth 2.5gb/1) IP:[pubblico]
  • SWC: hp gigabit 8 porte with poe
  • NAS: 923+ 720+ dmv dal 6.2 alla 7., all hd con wdred/ironwolf da 2/6tb
  • CLI: win11 e ubuntu
    [altro]
  • 3 smartphone android, lettore bd , firestik 4k raspberry p3
Avatar utente
dMajo
Moderatore
Moderatore
Messaggi: 1966
Iscritto il: sabato 18 agosto 2012, 23:14
Località: FVG - Italia

Re: aggregazione rete - trunk switch - vmware

Messaggio da dMajo »

cybermod ha scritto:Quindi, questo tipo di soluzione serve più che altro perchè ho due storage condivisi e 3 nodi che vi accedono in contemporanea, non è che realmente aumento la banda passante?
Si e no. Un esempio due nodi in lan un webserver con 4 nic aggregate e un client con 4 nic aggregate:
- quando il client accede al server come file server per copiarvi un file con programmi non in grado di creare sessioni multiple es il copy del dos su unità mappata non avrai vantaggi: unica sessione quindi un 1Gb usato e gli altri tre morti in standby. Tutti i pacchetti vengono instradati sempre sulla stessa connessione in modo da non generare problemi di ordinamento dei pacchetti, molto più pesante da gestire in termini di performance.
- per i stessi due nodi però quando un browser del client accede al web server, scaricata la prima ossatura della pagina (il codice html), poi crea sessioni multiple per scaricare ogni filmato, foto e altro elemento componente la pagina (es l'argomento src e/o href di molti tag html). Tutte queste sessioni contemporanee fra i due ip verranno bilanciate nella connessione aggregata sfruttando tutti i canali quindi si avrà un incremento di banda tuttavia ogni singola sessione non potrà eccedere il 1Gb, limite del singolo canale.
Quindi la risposta è: dipende da come l'iscsi con multipath gestisce la comunicazione. Occhio che esiste sia il multipath (MPIO) che il MC/S (Multiple Connections per Session) verifica quale dei due è più adatto al tuo scopo.
Le connessioni multiple da singola sessione vanno abilitate anche sul nas nella configurazione del target.
cybermod ha scritto:
(sempre che tu non voglia usarli in HA: anche il nas può essere un single point of failure),

assolutamente d'accordo con te, infatti nel progetto su carta i synology hanno due volumi ognuno, uno di produzione e uno di replica (si incrociano, e lavorano entrambi)
L'HA dei nas non è attivo-attivo ma attivo-passivo ... quindi non c'è bilanciamento di carico, ma al guasto del attivo il passivo subentra al suo posto (con lo stesso ip ovviamente).
Il fatto di avere le vm distribuite sui due nas sicuramente ne bilancerà il carico (devi però valutare anche l'impatto delle repliche incrociate fra i due se frequenti e come gestirle). Il SO del nas è in grado di fare backup/snapshot delle lun sia locale che su altro nas, ma nel secondo caso credo che il nas ricevente debba esser configurato come target di backup e non credo quindi tu le possa fare incrociate.
cybermod ha scritto:
negli switch configura i trunk verso i nas in LACP. Ovviamente dovresti creare anche un terzo trunk (statico questa volta) fra i due switch con almeno 2(meglio 4) porte altrimenti i client di uno switch che accedono al nas sull'altro avranno il collo di bottiglia della singola connessione fra gli switch.
Mica tanto ovviamente.... avevo il sospetto di una cosa del genere, ma non ne ero sicuro. Però ho dei dubbi e te li pongo: non ho client che si collegano a questi due switch, essi sono dedicati solo ed unicamente per la parte storage. Quindi vi si collegheranno gli storage stessi e i nodi di vmware (sia i vKernel Switch per ISCSI che i vKernel per la gestione di vMotion etc etc).
La parte di produzione si appoggia ad un altro switch core con i vari rilanci in fibra per i building.
che dici, devo implementare lo stesso questo tipo di collegamento tra gli switch?
In datacenter è sicuramente corretto avere la san fisicamente indipendente dalla lan sia per motivi di sicurezza che di performances (evitando cosi tutto il traffico multicast/broadcast dei client). Credo però che in un ambiente modesto con budget limitato la stessa cosa possa esser ottenuta creando una VLAN per la san che allo stesso modo isolerà i domini broadcast/multicast.

Semplificando la configurazione poniamo un nas con le sue 4 nic collegate ai due switch (2 ciascuno) e alla pari un virtualizzatore con 4 nic (2 per switch). Con il multipath configurato per 4 ip del target il host dovrebbe gestire il load-balancing e le nic non andrebbero aggregate, avremmo 4 subnet e sfrutteremo tutta la banda delle 4 connessioni cosi formate senza bisogno di trunk fra i due switch (che comunque non hanno nessuna controindicazione).
L'aggregazione (delle 4 coppie cosi formate: 2 nas 2 server) in questo caso potenzialmente dimezzerebbe la banda: il server probabilmente creerebbe solo due connessioni verso i due ip del target rendendo così utilizzabile solo un canale della singola aggregazione e demandando all'altro il solo compito di failover, il load-balancing dei due canali aggregati non si realizzerebbe. Qui credo ti serva il MC/S con connessioni multiple pari al numero delle nic.
Se però a questa configurazione aggiungiamo un secondo virtualizzatore il fatto di aver spezzato il load balancing a meta fra server (i multipath) e switch (gestione delle aggregazioni) garantirebbe a ciascuno dei nodi virtualizzatori sempre il 50% della banda totale del nas.
Con l'aggiunta il terzo nodo (2 nic per nodo viste le 4 totali del nas) l'aggregazione pur penalizzando le performance massime del singolo nodo (nel caso anche questo abbia 4 nic) probabilmente garantirebbe una più equa distribuzione delle risorse del nas ai tre nodi( fra 25 e 50% ciascuno). Con due nas le 4 nic per nodo farebbero di nuovo la differenza sempre che lo storage delle vm sia equamente distribuito su di essi.

Queste però sono considerazioni fatte dal punto di vista del networking non conoscendo nello specifico le opzioni di configurazione di VMWare che potrebbero dipendere anche dai servizi in esecuzione nelle varie VM ed il loro carico di IO.
Non so se il cluster VMWare abbia qualche gestione centralizzata della banda dei nodi rispetto allo storage condiviso nel qual caso sarebbe probabilmente meglio evitare del tutto l'aggregazione in ogni caso .... che fra le altre cose (LACP) e dinamica, basata su un protocollo di continuo monitoraggio delle linee e di conseguenza genera anche un minimo di traffico di per se.
Dando un occhiata al sito ufficiale ho notato che anche li hai un paio di guide su MPIO e MC/S

Quante nic hai su ogni nodo vmware e come pensavi ripartirle fra storage e lan?

I 90MB corrispondono quasi alla saturazione della singola nic da 1G. Potresti eventualmente aumentare la MTU a 9000 (Jumbo Frame) per aumentare il payload del pacchetto ricordando che in una subnet tutti i partecipanti devono supportarlo.
Dal 01.01.2015 non rispondo a quesiti tecnici dei non osservanti il regolamento https://www.synologyitalia.com/presentazioni/regolamento-leggere-prima-di-postare-t5062.html

  • UPS: APC SMT2200I+AP9631
  • GTW: Vigor2866Vac(4.4.2): 2StaticIP FTTH(1/.1G)+FTTC(30/3M) :o
  • SWC: Netgear GS728TPv2(PoE+)
    • 4x HP NJ2000G
    • 2x Netgear GS108Tv2
    • 2x VigorAP902
  • NAS: DS1819+: DSM6.2.4(u7),32GB; C(2x845DCPro),R5(3xST6000VN001),R0(2xWD60PURX),VB(WD60EFRX);LAN:LAG(1+2),3,4 :D
    • DS1815+: DSM6.2.4(u7),16GB; R5(3xWD60EFRX),VB(2xWD60EFRX);LAN:LAG(1+2),3
    • RS3617xs+: DSM6.2.4(u7),8GB; R6(8xWD40FFWX),HS(WD40FFWX);LAN:LAG(1+2+3),4,LAG(5+6)
    • DS1513+(4GB); DS115j
  • ALTRO: Denon AVR-4311
    • UE55ES8000Q, UE32ES6800Q, UE22F5410AY
    • Galaxy Note8, A5, TabS3; Nokia N8
  • EXP: E5: NET9 PC:W9,M0,L6

www.alldataee.com
cybermod
Utente
Utente
Messaggi: 25
Iscritto il: venerdì 6 marzo 2015, 10:26

Re: aggregazione rete - trunk switch - vmware

Messaggio da cybermod »

ragazzi, grazie per le risposte... non posso che confermare una cosa però: sto leggendo leggendo leggendo ma sto andando sempre di più in confusione.
Pensate che un visio possa semplificare ed aiutarmi nella scelta corretta dell'implementazioni?

per burghy: ti ringrazio, se mi fai avere la configurazione magari capisco qualcosa di più!

per dMajo: jumbo frame già attivato, come da best pratics di vmware, ma grazie lo stesso per la segnalazione.

alla fin fine, riassumo cosa voglio fare:
nas in HA e fault tollerance, anche in caso di dead dello switch. Attualmente, 3 nodi.

Giusto per specificare qualcosa di più, ho circa 8 schede di rete su ogni nodo.
L'idea è quella di:
usarne due in fault (in caso di guasto) per la parte della gestione dei nodi (vmkernel HA e vMotion)
le altre, per la parte ISCSI. Nulla mi vieta di aggiungerne altre in caso di necessità, dipende dal progetto che si svilupperà su questo post.
Per la parte delle macchine di produzione, non facciamo problemi, aggiungerò le schede del caso.
Posso testare le performance ottenute con vmware IO appliance, creata proprio per i test di scrittura degli storage.
Discorso ridondanza degli storage: nonostante la molta potenza attuale, non ho grandissime scritture e carichi, per tanto le replice da una parte all'altra non dovrebbero generare troppo traffico.

Mi scuso per la dilungaggine della cosa, ma davvero, sono in crisi concettuale di progettazione..... ad avere le schede 10gigabit avrei già risolto tutto!!!

Buon weekend ragazzi
  • UPS: 3 Apc SmartUps 1500i + 3 Network Card2 AP9631
  • GTW: 2 pfSense 2.2 in cluster (release p4) su Fibra 20M/20M IP: Public
  • SWC: 2 Hp ProCurve 1810g-24, core switch Hp ProCurve 4108GL, periferici Hp Procurve 1810g-48
  • NAS: 2 1815+ LastBuild Ram 6Gb DDR; Storage 16 WD SE 3T; LAN: 4 in lavorazione
  • CLI: assemblato CPU i5-4440 16Gb ddr3 SSD 254gb Samsung 840 EVO Windows 8.1
  • ALTRO: 2 Dell T710 2 CPU E5630 RAM 120Gb + 1 Dell R630 1 CPU E5-2620 RAM 64Gb
  • EXP: E3 - NET7 PC:W8, M5, L5
Avatar utente
dMajo
Moderatore
Moderatore
Messaggi: 1966
Iscritto il: sabato 18 agosto 2012, 23:14
Località: FVG - Italia

Re: aggregazione rete - trunk switch - vmware

Messaggio da dMajo »

Dalla versione DSM5.1 anche la connessione heartbeat (in caso di nas in HA) è aggregabile deve però esser dedicata. Attraverso questa le due unità si tengono in sincronia ma soprattutto si sentono ed in caso di guasto della attiva la passiva prende gli ip della guasta (non sulla connessione heartbeat ma sulle altre nic) così subentrandovi. Quindi in servizio ti rimarebbero al massimo 3 nic o 2 in caso tu decidessi di aggregarne due per la heartbeat.
In questo caso, a mio avviso la connessione heartbeat dovrebbe, anziché diretta, passare obbligatoriamente attraverso gli switch dello storage, su vlan dedicata e con gli switch collegati in trunk. Altrimenti rischieresti che in caso di fault dello switch del nas attivo i due, sentendosi, non farebbero il fail-over attivando il passivo.

Per quanto mi sono superficialmente documentato nel darti risposte io, con i nodi (macchine fisiche) dotati di 8 nic ciascuno, farei così:
- i nas (non in HA) con nic 1 e 2 su sw1 e nic 3 e 4 su sw2 (non aggregate): la prima, seconda, ... nic di ogni nodo/nas nella propria vlan/subnet
- per i nodi 4 nic ciascuno collegate a coppie di due su sw1 e sw2
- userei una sola nic per nodo per il management (i guasti più comuni sono su hdd e alimentatori)
- le altre tre nic di ogni nodo le aggregherei sullo switch core per fornire i servizi alla produzione.
- configurerei le 4 nic dello storage in multipath con bilanciamento di carico.

eventualmente comparerei quanto sopra (per prestazioni) con:
- le coppie (x switch) di nic dello storage (nas e nodi) aggregate
- configurazione delle LUN con MC/S
- abilitazione lato nas di connessioni multiple da singolo ip
- rimangono invariate management e produzione.
Dal 01.01.2015 non rispondo a quesiti tecnici dei non osservanti il regolamento https://www.synologyitalia.com/presentazioni/regolamento-leggere-prima-di-postare-t5062.html

  • UPS: APC SMT2200I+AP9631
  • GTW: Vigor2866Vac(4.4.2): 2StaticIP FTTH(1/.1G)+FTTC(30/3M) :o
  • SWC: Netgear GS728TPv2(PoE+)
    • 4x HP NJ2000G
    • 2x Netgear GS108Tv2
    • 2x VigorAP902
  • NAS: DS1819+: DSM6.2.4(u7),32GB; C(2x845DCPro),R5(3xST6000VN001),R0(2xWD60PURX),VB(WD60EFRX);LAN:LAG(1+2),3,4 :D
    • DS1815+: DSM6.2.4(u7),16GB; R5(3xWD60EFRX),VB(2xWD60EFRX);LAN:LAG(1+2),3
    • RS3617xs+: DSM6.2.4(u7),8GB; R6(8xWD40FFWX),HS(WD40FFWX);LAN:LAG(1+2+3),4,LAG(5+6)
    • DS1513+(4GB); DS115j
  • ALTRO: Denon AVR-4311
    • UE55ES8000Q, UE32ES6800Q, UE22F5410AY
    • Galaxy Note8, A5, TabS3; Nokia N8
  • EXP: E5: NET9 PC:W9,M0,L6

www.alldataee.com
cybermod
Utente
Utente
Messaggi: 25
Iscritto il: venerdì 6 marzo 2015, 10:26

Re: aggregazione rete - trunk switch - vmware

Messaggio da cybermod »

dMajo ciao!
Scusa il tempo per la risposta, ma sto lavorando ad altro e non riesco a respirare e ritagliare tempo per fare le prove :( un'amarezza che non ti dico.

Parto da una considerazione, perchè comunque vi ho dedicato un po' di tempo: L'HA dei synology mi pare fondamentale e completamente diverso dall'HA di vmware. Quello di Synology, mantiene uno storage attivo e l'altro passimo. Se salta uno, si ha continuità dei servizi. Quello di vmware invece, se salta un nodo, non fa altro che riavviare la vm messa in HA su di un altro nodo. Diverso il discorso del Fault Tollerance, ma in questo caso lo "spreco" di risorse e di traffico cresce il doppio.
Detto questo, mi pare anche di capire che l'heartbit non possa passare tramite switch (a meno che con vlan i trunk non si inganni il synology). Quando ho provato, synology si è accorto che l'heartbeat passava tramite switch e non me lo faceva attivare.
Su queste considerazioni, direi che è molto melgio sacrificare un po' di performance, usare uno storage a pieno carico, usare tre schede per diskstation per come storage, e una per l'heartbeat (sperando che riesca a rimanere sincrono).

A tal proposito, ho fatto dei test utilizzando MPIO di vmware, lascio dei link qui sotto, magari servono anche ad altri

http://www.vmware.com/files/pdf/iSCSI_design_deploy.pdf
ma soprattutto:
http://www.vmware.com/files/pdf/techpap ... inding.pdf
http://blogs.vmware.com/vsphere/2011/08 ... ments.html
https://www.synology.com/it-it/knowledg ... orials/551

In pratica viene attivato il round robin sui vkernel di vmware dedicati all'iscsi, in pratica è vmware stesso ad occuparsi del carico.
Facendo così, ho ottenuto dei miglioramenti sensibili tramite un'appliance, vmware I/O analyzer,
La cosa strana è che, usando tre schede di rete delle diskstation, due sullo switch1 e 1 sullo switch2, avevo performance minori che usandone solo due (!).
Stessa cosa se tutte le schede di rete appoggiavano sulo stesso switch.... c'è qualcosa che mi sfugge?


Riguardo alle considerazioni della parte di produzione, sono d'accordo con te, ma posso aggiungere schede di rete senza grossi problemi, basta comprarle e le dual buone non costano poi molto.
Diverso il discorso sul fault tollerance dell'accesso al nodo: preferisco avere sempre il nodo raggiungibile, perchè per la legge di murphy, unita alla mia leggendaria sfiga..... ecco, detto tutto!!!

Cosa ne pensi?
Grazie mille caro
  • UPS: 3 Apc SmartUps 1500i + 3 Network Card2 AP9631
  • GTW: 2 pfSense 2.2 in cluster (release p4) su Fibra 20M/20M IP: Public
  • SWC: 2 Hp ProCurve 1810g-24, core switch Hp ProCurve 4108GL, periferici Hp Procurve 1810g-48
  • NAS: 2 1815+ LastBuild Ram 6Gb DDR; Storage 16 WD SE 3T; LAN: 4 in lavorazione
  • CLI: assemblato CPU i5-4440 16Gb ddr3 SSD 254gb Samsung 840 EVO Windows 8.1
  • ALTRO: 2 Dell T710 2 CPU E5630 RAM 120Gb + 1 Dell R630 1 CPU E5-2620 RAM 64Gb
  • EXP: E3 - NET7 PC:W8, M5, L5
Rispondi

Torna a “Networking - Servizi e apparecchi di rete (cablaggio e config)”