I dati sono la chiave da cui dipende la riuscita della distribuzione di un'applicazione nel cloud. Il processo di valutazione e di pianificazione deve evidenziare le limitazioni fisiche inerenti la migrazione dei dati dal percorso locale verso il cloud. Amazon offre una suite di strumenti che semplificheranno il trasferimento di dati tramite la rete, tramite apparati fisici e insieme a partner tecnologici.
La questione del trasferimento dei dati, nella maggior parte dei progetti, può risultare scoraggiante. Come si esegue il trasferimento dal percorso attuale al nuovo percorso nel cloud, tenendo strettamente sotto controllo errori, costi e tempi? Qual è il modo più intelligente per spostare GB, TB, a volte anche PB di dati?
Il problema di base è: quale volume di dati è possibile spostare, a quale distanza e a quale velocità? Nello scenario migliore, si può utilizzare questa formula:
Numero di giorni = (byte totali) / (megabit al secondo * 125 * 1.000 * utilizzo di rete * 60 secondi * 60 minuti * 24 ore)
Se ad esempio hai a disposizione una connessione T1 (che garantisce 1,544 Mb/s) e devi trasferire 1 TB di dati (1.024 * 1.024 * 1.024 * 1.024 byte) da o verso un servizio AWS, la quantità di tempo minima necessaria per completare il trasferimento utilizzando la rete all'80% corrisponde a 82 giorni.
Non c'è da preoccuparsi. AWS sa già come fare. Per trasferire i loro dati, in genere, i clienti utilizzano strumenti di migrazione di base non gestiti oppure scelgono una delle suite di servizi di Amazon.
Come regola generale, per ottenere i migliori risultati, AWS consiglia di procedere come segue.
| Connessione | Volume di dati | Metodo |
| Meno di 10 Mb/s | Meno di 500 GB | Strumenti non gestiti |
| Più di 10 Mb/s | Più di 500 GB | Strumenti gestiti |
Esistono metodi semplici e intuitivi per trasferire volumi ristretti di dati nello storage nel cloud di AWS.
- rsync: questo strumento open source consente di copiare dati direttamente nei bucket S3.
- Interfaccia a riga di comando di S3: l'interfaccia a riga di comando di Amazon S3 permette di scrivere comandi per trasferire i dati nei bucket S3.
- Interfaccia a riga di comando di Glacier: l'interfaccia a riga di comando di Amazon Glacier permette di trasferire i dati nei vault di Glacier.
La suite di servizi di migrazione creata da Amazon consente di semplificare la gestione e ottimizzare l'efficienza del trasferimento in diversi modi. Si possono dividere in due categorie:
- Ottimizzazione o bypass della rete Internet: mai sottovalutare la larghezza di banda che può offrire un autoarticolato pieno di dischi rigidi che sfreccia in autostrada. In realtà si tratta di un metodo molto efficiente per spostare archivi di grandi dimensioni e data lake, oppure quando la larghezza di banda e i volumi di dati non consentono alternative fattibili.
- Interfacce intuitive per S3: in questo modo è semplice usare S3 con le applicazioni native esistenti. Piuttosto che trasferire direttamente grandi set di dati tutti in una volta, è possibile integrare i processi esistenti, ad esempio backup e ripristino, o i flussi continui dell'Internet of Things, con lo storage nel cloud.
| Se ti occorre: | Prendi in esame: |
|---|---|
| Una connessione a Internet ottimizzata o un modo per sostituirla per: |
|
Connetterti direttamente a un data center regionale di AWS |
AWS Direct Connect |
Migrare petabyte di dati in batch nel cloud |
AWS Import/Export Snowball |
Migrare processi ricorrenti con modifiche incrementali su lunghe distanze |
Amazon S3 Transfer Acceleration |
| Un'interfaccia intuitiva diretta in S3 per: |
|
Memorizzare i dati nella cache locale in un modello ibrido (per ottimizzare le prestazioni) |
Gateway (di AWS o di partner) |
Inoltrare i backup o gli archivi nel cloud in modo controllato |
Partnership tecnologiche |
Raccogliere e inoltrare diversi flussi di dati in streaming |
Amazon Kinesis Firehose |
È anche possibile associare servizi per ottenere risultati ottimali. Ad esempio:
Diverse appliance Snowball in parallelo
Direct Connect e un partner tecnologico
Direct Connect e Transfer Acceleration
Transfer Acceleration e un gateway di storage o un partner tecnologico
Hai bisogno di assistenza per il tuo caso specifico? Possiamo aiutarti.
Questi metodi di migrazione potenziano la connessione Internet o la sostituiscono, consentendo di trasferire direttamente i dati dallo storage locale ai data center di Amazon. Non sono supportati i carichi di sviluppo o le API, e i trasferimenti potrebbero interferire con i processi esistenti in locale.
Scopri i bundle per partner di Direct Connect che permettono di estendere l'uso delle tecnologie in locale nel cloud.
Il cliente potrà scegliere di impiegare una connessione fisica dedicata Direct Connect per accelerare i trasferimenti di rete tra il suo data center e quello di AWS.
AWS Direct Connect consente di stabilire una connessione di rete dedicata tra la tua rete e una delle sedi di AWS Direct Connect. Grazie alle VLAN 802.1q standard di settore, la connessione dedicata può essere partizionata in diverse interfacce virtuali. In questo modo sarà possibile utilizzare la stessa connessione per accedere sia a risorse pubbliche mediante spazio di indirizzi IP pubblico (ad esempio oggetti memorizzati su Amazon S3), sia a risorse private mediante spazio di indirizzi IP privato (ad esempio le istanze Amazon EC2 in esecuzione in Amazon Virtual Private Cloud (VPC)), senza sacrificare la separazione di rete tra l'ambiente pubblico e quello privato. Le interfacce virtuali possono essere riconfigurate in qualsiasi momento in base alle esigenze.
Ulteriori informazioni sul servizio Direct Connect.
Snowball è una soluzione di trasferimento dei dati con capacità nell'ordine dei petabyte che usa appliance sicure per trasferire grandi quantità di dati da e verso AWS. L'utilizzo di Snowball consente di risolvere alcuni dei problemi più comuni dei trasferimenti di dati su larga scala, tra cui gli elevati costi di rete, la durata del trasferimento e la sicurezza. Trasferire dati tramite Snowball è semplice, rapido e sicuro, e può costare fin a un quinto di una connessione a Internet ad alta velocità.
Ulteriori informazioni sul servizio Snowball.
|
|||||||||||||||||
Amazon S3 Transfer Acceleration rende più rapidi i trasferimenti di dati via Internet in Amazon S3. È possibile sfruttare al massimo la banda disponibile indipendentemente dalla distanza o dalle fluttuazioni di velocità di Internet, anche senza client speciali o protocolli di rete proprietari. È sufficiente modificare l'endpoint utilizzato con il bucket S3 per applicare automaticamente la velocità maggiorata.
Si tratta di un servizio ideale per processi ricorrenti in cui i dati vengono trasferiti su lunghe distanze, ad esempio caricamenti di file multimediali, backup e attività di elaborazione in cui i dati locali vengono regolarmente trasferiti in una sede centrale.
Ulteriori informazioni su Transfer Acceleration
Esistono casi in cui non può essere tollerato il minimo errore. Quando la migrazione dei datastore legacy può essere dilazionata, oppure quando si accumulano nuovi dati da diverse origini esterne al cloud, questi servizi sono l'ideale. Questi servizi di migrazione possono sfruttare o completare le installazioni esistenti, ad esempio software di backup e ripristino o SAN, ed è anche possibile programmare il servizio AWS Firehose all'interno delle applicazioni.
Un gateway viene installato in locale e mette in collegamento l'ambiente aziendale al cloud AWS. Si tratta di una soluzione ideale per gli scenari ibridi in cui è necessario impiegare storage locale per motivi di prestazioni e di conformità, ma una parte del carico può essere deviato in S3.
Può essere una buona idea impiegare il servizio AWS Direct Connect in sinergia con un gateway per assicurare prestazioni ottimali.
AWS Storage Gateway semplifica l'adozione in locale dello storage in AWS. Le applicazioni esistenti possono utilizzare i protocolli di storage standard di settore per collegarsi a un'appliance software che memorizza i dati in Amazon S3 e Amazon Glacier.
- I dati vengono compressi e trasferiti in AWS con la massima sicurezza.
- Le configurazioni delle reti SAN (Storage Area Network) offrono dispositivi di memorizzazione nello storage o nella cache con backup point-in-time sotto forma di snapshot Amazon EBS.
- La configurazione di librerie di nastri virtuali o VLT (Virtual Tape Library) si integra con il software di backup esistente per garantire l'efficienza dei backup in Amazon S3 e l'archiviazione a lungo termine in Amazon Glacier.
Ulteriori informazioni su AWS Storage Gateway.
AWS collabora con fornitori specializzati del settore per ottenere appliance gateway fisiche che colmino il divario tra i tradizionali servizi di backup e il cloud. È anche possibile collegare i dati locali al cloud Amazon, per procedere al trasferimento di dati senza conseguenze sulle prestazioni e conservando i cataloghi di backup esistenti.
- Integrazione ottimale con l'infrastruttura esistente
- Potranno far parte dell'offerta: deduplicazione, compressione, crittografia e accelerazione WAN
- Backup recenti memorizzati nella cache in locale, con archiviazione nei vault nel cloud AWS
Ulteriori informazioni sui gateway in partnership.
AWS collabora con molti fornitori specializzati del settore per semplificare il trasferimento di backup e archivi nel cloud. Uno dei modi più semplici per trasferire i dati è integrare un connettore per S3 nel software di backup esistente. Il vantaggio evidente di questo approccio è che il catalogo di backup mantiene la consistenza, perciò non vengono compromessi la visibilità e il controllo dei processi in esecuzione tra disco, nastro e cloud.
Ulteriori informazioni su partner tecnologici e la connettività integrata.
Amazon Kinesis Firehose è il mezzo più semplice per caricare flussi di dati in AWS. È in grado di acquisire e caricare automaticamente flussi di dati in Amazon S3 e Amazon Redshift, per ottenere analisi in tempo reale con gli strumenti di business intelligence e i pannelli di controllo che usi tutti i giorni. Si tratta di un servizio completamente gestito che ridimensiona automaticamente le risorse in base al throughput dei dati e non richiede alcuna attività di amministrazione durante il funzionamento. Inoltre può elaborare in batch, comprimere e crittografare i dati prima del caricamento, riducendo al minimo lo storage utilizzato e migliorando il livello di sicurezza. Per creare e configurare un flusso di distribuzione di Firehose e bastano pochi clic nella Console di gestione AWS; in pochi minuti il servizio inizierà a inviare nel flusso dati provenienti da centinaia di migliaia di origini dati, caricandoli senza soluzione di continuità in AWS.
Ulteriori informazioni su Amazon Kinesis Firehose.