Archivi categoria: Datacenter Management

Azure IaaS and Azure Stack: announcements and updates (February 2023 – Weeks: 07 and 08)

This series of blog posts includes the most important announcements and major updates regarding Azure infrastructure as a service (IaaS) and Azure Stack, officialized by Microsoft in the last two weeks.

Azure

Storage

Create disks from CMK-encrypted snapshots across subscriptions and in the same tenant

To ease manageability, Microsoft makes disks encrypted with customer-managed keys (CMK) more flexible by allowing creation of disks and snapshots from CMK-encrypted source across subscriptions.

Incremental snapshots for Premium SSD v2 Disk Storage (preview)

Incremental snapshots for Premium SSD v2 Disk Storage in the US East and West Europe Azure region are available. This new capability is particularly important to customers who want to create a backup copy of their data stored on disks to recover from accidental deletes, or to have a last line of defense against ransomware attacks, or to ensure business continuity. You can now create incremental snapshots for Premium SSD v2 Disk Storage on Standard HDD. Additionally, snapshot resources can be used to store incremental backups of your disk, create or recover to new disks, or download snapshots to on-premises locations. This new feature adds an extra layer of data protection and flexibility for users.

Azure Managed Lustre (preview)

Azure Managed Lustre is a managed, pay-as-you-go file system purpose-built for high-performance computing (HPC) and AI workloads. This high-performance distributed parallel file system delivers hundreds of GBps storage bandwidth and solid-state disk latency and integrates fully with Azure services such as Azure HPC Compute, Azure Kubernetes Service, and Azure Machine Learning.

Use this system to:

  • Simplify operations
  • Reduce setup costs
  • Eliminate complex maintenance

Azure NetApp Files updates (preview)

  • Azure NetApp Files volume user and group quotas: in some scenarios you may want to limit this storage consumption of users and groups within the volume. With Azure NetApp Files volume and group quotas you can now do so. User and/or group quotas enable you to restrict the storage space that a user or group can use within a specific Azure NetApp Files volume. You can choose to set default (same for all users) or individual user quotas on all NFS, SMB, and dual protocol-enabled volumes. On all NFS-enabled volumes, you can set default (same for all users) or individual group quotas.
  • You can now create Azure NetApp Files large volumes between 100TiB to 500TiB in size.
  • Azure NetApp Files now supports smaller 2TiB capacity pool sizes, lowered from 4TiB, when used with volumes using standard network features.
  • Azure NetApp Files volumes now support encryption with customer-managed keys (CMK), using Azure Key Vault for key storage, to enable an extra layer of security for data at rest.

Attiva il Disaster Recovery dei tuoi workload in modo semplice e veloce grazie ad Azure VMware Solution

In un’era in cui le aziende dipendono sempre di più dai sistemi informatici per il loro funzionamento, la protezione dei dati e la continuità del business sono elementi che devono necessariamente essere presi in considerazione. Gli eventi imprevisti come disastri naturali, guasti hardware, attacchi informatici ed errori umani possono causare l’interruzione dei servizi IT, con conseguenti perdite finanziarie significative. È qui che entra in gioco il piano di Disaster Recovery (DR), che permette alle aziende di ripristinare rapidamente i servizi IT e minimizzare l’impatto sul business degli eventi imprevisti. Per le grandi realtà con ambienti IT eterogenei e complessi può essere particolarmente sfidante attivare un piano di Disaster Recovery. In questo articolo viene illustrato come Azure VMware Solution (AVS), grazie alle sue caratteristiche, può essere la soluzione ideale per sviluppare in modo semplice e veloce un piano di Disaster Recovery.

L’importanza di un piano di DR in azienda

La presenza di una buona strategia di Disaster Recovery può sembrare scontata, ma molta realtà aziendale continuano a trascurarne l’importanza. Tra i principali fattori da considerare per il DR troviamo:

  • Continuità del business: il piano di DR consente alle aziende di ripristinare rapidamente il funzionamento dei sistemi IT, minimizzando l’impatto degli eventi imprevisti e garantendo la continuità del business.
  • Minimizzazione delle perdite finanziarie: le interruzioni del servizio IT possono causare perdite finanziarie significative. Il piano di DR consente di minimizzare queste perdite, ripristinando i sistemi IT il più rapidamente possibile.
  • Conformità alle normative: molte normative richiedono alle aziende di avere un piano di DR in atto per proteggere i dati e garantire la continuità del business.
  • Fiducia dei clienti: la continuità del business è un fattore importante per la fiducia dei clienti. Un piano di DR può dimostrare ai clienti che l’azienda è in grado di gestire gli eventi imprevisti e garantire la continuità dei servizi.

Sfide da affrontare nell’attivazione di un piano di DR

Capita l’importanza è comunque vero che le aziende si trovano spesso ad affrontare diverse sfide quando devono attivare un piano di Disaster Recovery (DR). Alcune delle sfide più comuni sono:

  • Disponibilità del sito di ripristino: solitamente il Disaster Recovery (DR) viene attivato in un sito di ripristino dedicato separato dalla sede principale dell’azienda. Questo sito di ripristino può essere situato in una zona geografica diversa per garantire una maggiore protezione contro eventi catastrofici che potrebbero interessare l’area geografica in cui si trova la sede principale dell’azienda. Il sito di ripristino deve essere adeguato, equipaggiato e configurato per supportare le attività critiche dell’azienda, in modo che queste possano essere ripristinate il più rapidamente possibile.
  • Tempi di ripristino: il tempo necessario per ripristinare i sistemi IT è una delle sfide più importanti in caso di interruzione del servizio. Le aziende devono fare tutto il possibile per ridurre il tempo di inattività e ripristinare i servizi IT il più rapidamente possibile.
  • Accesso ai dati: nel caso in cui l’interruzione del servizio IT sia causata da un disastro naturale, un attacco informatico o un errore umano, l’accesso ai dati potrebbe essere compromesso. È importante che le aziende proteggano i propri dati e che i backup siano conservati in un luogo sicuro, per garantire il ripristino delle informazioni.
  • Formazione del personale: il personale dell’azienda deve essere adeguatamente formato per essere in grado di gestire le procedure di ripristino in modo efficace. Questo richiede un investimento in formazione e nello sviluppo del personale.

Premessa per l’adozione di Azure

Microsoft Azure è stato progettato sin dall’inizio per aiutare i clienti a ridurre i costi, la complessità e per migliorare l’affidabilità e l’efficienza del proprio ambiente IT.

Figura 1 – L’ approccio completo alla creazione di un’infrastruttura progettata per differenti workload

Non esiste un modo valido per tutti per adottare le soluzioni cloud, ma è opportuno fornire ai clienti la possibilità di abbracciare il cloud al loro ritmo, in certi casi anche adottando le stesso soluzioni tecnologiche che stanno ad oggi utilizzando nel loro ambiente on-premises. Fornire una simmetria di piattaforma (on-premises – cloud), ove appropriato, è utile per indirizzare scenari di migrazione dei workload, ma anche per attivare piani di Disaster Recovery.

In questo articolo sarà preso in considerazione Azure VMware Solution (AVS) il servizio progettato, realizzato e supportato da Microsoft, ed approvato da VMware, che consente ai clienti di utilizzare cluster VMware vSphere fisici ospitati in Azure.

Azure VMware Solution: perché utilizzarla per il Disaster Recovery

Azure VMware Solution è un servizio che consente il provisioning e l’esecuzione di un ambiente VMware Cloud Foundation completo su Azure. VMware Cloud Foundation è la piattaforma hybrid cloud di VMware per la gestione delle macchine virtuali e l’orchestrazione dei container, dove l’intero stack è basato su una infrastruttura hyper-converged (HCI).

Figura 2 – Panoramica di Azure VMware Solution

Questo modello di architettura assicura un’infrastruttura e operation coerenti su qualsiasi cloud privato e pubblico, tra i quali Microsoft Azure. La soluzione Azure VMware permette ai clienti l’adozione di un set completo di funzionalità VMware, con la garanzia di detenere la convalida “VMware Cloud Verified”. Grazie a questa soluzione è quindi possibile ottenere coerenza, prestazioni e interoperabilità per i carichi di lavoro VMware esistenti, senza rinunciare alla velocità, scalabilità e disponibilità dell’infrastruttura globale di Azure. Tra i principali scenari di adozione di Azure VMware Solution troviamo il Disaster recovery.

Parlando con i clienti di grandi dimensioni, vediamo una varietà di driver che indirizzano l’adozione di una soluzione come Azure VMware Solution per attivare una strategia di DR efficace:

  • Velocità: AVS consente di implementare piani di DR in modo rapido ed efficiente grazie ad una architettura cloud ibrida, alla replica delle macchine virtuali e alle funzionalità di automazione avanzate che si possono adottare. Questi elementi consentono alle aziende di ridurre il tempo necessario per attivare un piano di DR e per ripristinare le operazioni critiche in caso di emergenza.
  • Costi e complessità: Azure VMware Solution può aiutare a ridurre i costi di attivazione di un sito di Disaster Recovery (DR). Infatti, AVS consente alle aziende di estendere le loro soluzioni VMware on-premises in Azure, creando un ambiente di DR su cloud ibrido che offre flessibilità e scalabilità. Invece di acquistare hardware e infrastrutture costose per un sito di DR separato, le aziende possono utilizzare Azure come sito di ripristino e pagare solo per le risorse cloud che effettivamente utilizzano durante l’attivazione del DR. Ciò consente alle aziende di ridurre i costi iniziali di attivazione del DR e di semplificare l’infrastruttura IT con conseguenti benefici anche dal punto di vista della manutenzione. Inoltre, grazie ad AVS è possibile ridimensionare l’infrastruttura in modo dinamico, in base alle proprie esigenze, e garantire una maggiore efficienza operativa.
  • Persone, processi e strumenti: AVS consente di sfruttare gli investimenti già effettuati per quanto riguarda le competenze e gli strumenti per la gestione degli ambienti VMware on-premises. Per implementare dei piani di disaster recovery utilizzando Azure VMware Solution è possibile adottare soluzioni native di VMware oppure soluzioni di terze parti. Infatti, Microsoft, al fine di garantire ai propri clienti la possibilità di sfruttare al meglio gli investimenti fatti in competenze e tecnologie, ha collaborato con alcuni dei principali partner del settore, per garantire integrazione e supporto. Per maggiori approfondimenti a riguardo è possibile consultare l’articolo “Il disaster recovery con Azure VMware Solution – Cloud Community”.

Conclusioni

Azure VMware Solution rappresenta una soluzione ideale per indirizzare casi di Disaster Recovery (DR), per le realtà enterpise, grazie alla sua flessibilità, scalabilità e affidabilità. Utilizzando questa soluzione, le aziende possono creare ambienti in Azure che sono compatibili e integrati con l’infrastruttura VMware on-premise, garantendo la continuità operativa e la ripresa di emergenza in caso di disastro. Inoltre, la soluzione consente di semplificare e automatizzare la gestione del DR, riducendo i costi e aumentando la velocità di ripristino. Pertanto, se siete alla ricerca di una soluzione per attuare piani di DR efficienti ed efficaci, Azure VMware Solution è sicuramente una soluzione da tenere in considerazione.

L’importanza di un approccio moderno al networking e di una network governance efficace nell’era del cloud

Il networking è uno dei pilastri nel mondo IT, perché sostiene le infrastrutture, consente lo scambio di tutti i dati necessari al business, sia all’interno sia all’esterno dell’azienda, e abilita la creazione e l’adozione di nuove soluzioni. Si può facilmente intuire come il networking sia un ambito delicato, complesso e in continua evoluzione. Tuttavia, ciò a cui si assiste in molte realtà aziendali è l’ostinazione ad un approccio tradizionale al networking che risulta oggi limitante e poco efficace. In questo articolo vengono elencate le principali sfide di un approccio tradizionale al networking nell’era moderna e vengono riportati alcuni spunti per adottare un approccio differente e per strutturare una network governance efficace.

Le sfide del networking tradizionale nell’era moderna

Entrando nel merito delle sfide principali che i clienti affrontano quotidianamente in ambito networking troviamo:

  • un aumento della complessità e dell’effort di gestione: la rapida proliferazione di ambienti cloud, dei dispositivi mobili e dell’IoT ha di fatto eroso quelli che sono i confini delle reti moderne, rendendole più difficili da gestire e più vulnerabili;
  • l’espansione della superficie di attacco: a questo proposito la domanda alla quale è opportuno saper rispondere è «in che modo è possibile garantire una protezione di rete efficace senza interferire con la crescita e le fluttuazioni dei workload in ambienti cloud e multi-cloud?»;
  • una visibilità ed una integrazione frammentata ed incoerente tra i datacenter locali e gli ambienti cloud: l’aggiunta di prodotti di rete monofunzionali isolati per far fronte a problemi di comunicazione incrementa la complessità, i costi ed il carico di lavoro del personale IT;
  • cambiamenti nella connettività delle sedi periferiche: la tendenza delle realtà aziendali, distribuite geograficamente, vede la sostituzione delle costose connessioni MPLS con connessioni Internet dirette più convenienti, ma che non sempre permettono di raggiungere gli stessi livelli di qualità e di prestazione.

Tutto questo si traduce in specifici punti di criticità che nel tempo ho riscontrato presso i nostri clienti:

  • Costi elevati e molta complessità
  • Molti vendor di soluzioni di rete con una scarsa integrazione
  • Troppi alert con risposte lente e manuali
  • Mancanza di personale IT interno opportunamente formato

L’adozione di un approccio moderno al Networking

Alla luce di queste considerazioni diventa indispensabile adottare un approccio moderno al networking in grado di affrontare al meglio tutte queste sfide, andando a ridurre le complessità e a migliorare l’efficienza. Individuare e realizzare architetture di rete progettate per la trasformazione digitale deve avvenire tramite:

  • Un networking basato sulla sicurezza che garantisce e velocizza l’esperienza di rete e dell’utente.
  • Una gestione dinamica e trasversale di qualsiasi ambiente per proteggere e controllare l’infrastruttura e le applicazioni on-premise, in ambienti ibridi e nei cloud pubblici.
  • Soluzioni integrate per connettere i componenti dell’intera infrastruttura di rete, aiutando le organizzazioni ad adattarsi a un ambiente mutevole e sempre più sfidante.
  • Un ecosistema monitorato e controllato per rilevare e rispondere a malfunzionamenti, alle minacce di sicurezza e per ottimizzare le operazioni, alleggerendo il carico di lavoro sul personale.

Come strutturare la governance del networking

Nell’ambito dell’IT governance merita sicuramente un capitolo dedicato la network governance che deve contemplare un insieme di processi attraverso i quali è possibile garantire ad un’organizzazione un utilizzo efficace ed efficiente delle risorse IT in ambito networking, al fine di poter raggiungere i propri obiettivi.

Anche la network governance deve comprende l’applicazione di:

  • controlli che aiutano l’azienda a mitigare i rischi e a creare «guardrail»
  • misurazioni per verificare la presenza di potenziali problemi

Le principali discipline che emergono in ambito Network Governance sono:

  • Baseline di compliance e di sicurezza
  • Gestione delle vulnerabilità
  • Gestione delle identità e controllo degli accessi
  • Accelerazione, controllo e coerenza nei processi di deployment e change delle soluzioni di rete
  • Ottimizzazione ed efficientamento delle reti wired e wireless

Un aspetto importante è che tutto ciò deve essere fatto per le risorse IT in ambito networking in qualsiasi ambiente, sia on-premise sia in realtà cloud e multi-cloud con un approccio strutturato, consolidato ed olistico.

Microsoft, anche in questo ambito, offre diversi strumenti e soluzioni che permettono di affrontare la sfida della network governance in ambiente Azure, ai quali è necessario affiancare esperienza per mettere in atto processi consolidati ed affidabili.

Conclusioni

Negli ultimi anni l’adozione di architetture ibride ha registrato un notevole interesse da parte di molte aziende, attratte dalle possibilità offerte e dai benefici. Per poter realizzare al meglio questi ambienti e promuovere l’innovazione è indispensabile adeguare anche l’approccio nell’utilizzo delle risorse di rete ed estendere i processi di governance dell’ambiente IT all’ambito networking.

Azure IaaS and Azure Stack: announcements and updates (February 2023 – Weeks: 05 and 06)

This series of blog posts includes the most important announcements and major updates regarding Azure infrastructure as a service (IaaS) and Azure Stack, officialized by Microsoft in the last two weeks.

Azure

Compute

New planned datacenter region in Saudi Arabia (Saudi Arabia Central)

Microsoft will establish a new datacenter region in the country, offering organizations in Saudi Arabia local data residency and faster access to the cloud, delivering advanced data security and cloud solutions. The new datacenter region will also include Availability Zones, providing customers with high availability and additional tolerance to datacenter failures.

Azure Kubernetes Service introduces two pricing tiers: Free and Standard

To better communicate the benefits and use cases for the two control plane management options, today, Azure Kubernetes Service (AKS) is introducing two pricing tiers: Free tier and Standard tier. Previously, few customers were aware of the uptime SLA support, and many did not have the uptime SLA feature enabled for critical production workload. With the Standard tier, Microsoft hopes to help increase customer awareness and allow customers to gain the full benefits of the Standard tier for production workload to minimize disruption.

AKS’s unique Free tier allows you to only pay for the virtual machines, and associated storage and networking resources consumed, and you get the managed Kubernetes control plane for free. This allows you to deploy unlimited free test clusters to decide if AKS is right for your needs and allows you to configure and test your infrastructure set-up before running critical production workloads. The Free tier is recommended for clusters with less than 10 nodes and for experimenting, learning, and simple testing.

The new Standard tier is the recommended control plane management pricing option which comes with greater control plane resources, scalability and the existing uptime SLA support. Customers currently signed up for the uptime SLA support will automatically be moved to the Standard tier with no change in cost or action needed. Standard tier not only includes the uptime SLA, but it will also include additional features such as support for up to 5000 nodes per cluster and API server autoscaling.

Microsoft Azure Load Testing is now Generally Available

Azure Load Testing is a fully managed load-testing service that enables you to generate high-scale load, gain actionable insights, and ensure the resiliency of your applications and services. The service simulates traffic for your applications, regardless of where they’re hosted. Developers, testers, and quality assurance (QA) engineers can use it to optimize application performance, scalability, or capacity.

Trusted launch for Azure VMs in Azure for US Government regions

Trusted launch for Azure virtual machines is available in all Azure for US Government regions: US Gov Virginia, US Gov Arizona US Gov Texas, US DoD East, US DoD Central. Trusted launch for Azure VMs allows you to bolster the security posture of an Azure Virtual Machine.

Storage

Azure File Sync agent v16

The Azure File Sync agent v16 release is being flighted to servers which are configured to automatically update when a new version becomes available.

Improvements and issues that are fixed:

  • Improved Azure File Sync service availability: Azure File Sync is now a zone-redundant service which means an outage in a zone has limited impact while improving the service resiliency to minimize customer impact. To fully leverage this improvement, configure your storage accounts to use zone-redundant storage (ZRS) or Geo-zone redundant storage (GZRS) replication.
  • Sync upload performance improvements: this improvement will mainly benefit file share migrations (initial upload) and high churn events on the server in which a large number of files need to be uploaded.
  • Immediately run server change enumeration to detect files changes that were missed on the server.
  • Miscellaneous reliability and telemetry improvements for cloud tiering and sync.

To obtain and install this update, configure your Azure File Sync agent to automatically update when a new version becomes available or manually download the update from the Microsoft Update Catalog.

More information about this release:

  • This release is available for Windows Server 2012 R2, Windows Server 2016, Windows Server 2019 and Windows Server 2022 installations.
  • The agent version for this release is 16.0.0.0.
  • Installation instructions are documented in KB5013877.

Azure storage access tiers to append blobs and page blobs with blob type conversion

Azure Storage offers different access tiers so that you can store your blob data in the most cost-effective manner based on how it’s being used. Azure Storage access tiers include hot tier, cool tier, and archive tier. Azure Storage access tiers support only block blobs natively. When you need to save cost of storing append blobs or page blobs, you can convert them to block blobs then move them into the most cost-efficient tiers based on your access patterns. Blob type conversion along with tiering is now supported by PowerShell, CLI and AzCopy.

Come preparare l’ambiente IT per affrontare nuovi scenari ibridi e multicloud

Molte realtà aziendali sono impegnate nella diffusione e nell’adozione di applicazioni che possono funzionare in ambienti diversi: on-premises, su più cloud pubblici e negli edge. Tale approccio richiede una preparazione adeguata dell’ambiente IT aziendale per garantire conformità e una gestione efficiente su larga scala dei sistemi server, delle applicazioni e dei dati, mantenendo al contempo una elevata agilità. In questo articolo, vengono introdotti i principali aspetti da tenere in considerazione per l’adozione di tecnologie ibride e multicloud, al fine di soddisfare al meglio le esigenze di business.

Le ragioni che portano all’adozione di soluzioni ibride e multicloud

Sono molte le ragioni per le quali i clienti scelgono di distribuire il loro patrimonio digitale in ambienti ibridi e multicloud. Tra le principali troviamo:

  • Riduzione al minimo oppure rimozione di lock-in dati da un singolo cloud provider
  • Presenza di business unit, aziende sussidiarie o società acquisite che hanno già fatto scelte di adozione di differenti piattaforme cloud
  • Requisiti normativi e di sovranità dei dati differenti nei vari paesi
  • Necessità di migliorare la business continuity ed il disaster recovery andando a distribuire i workload tra due cloud provider differenti
  • Esigenze di massimizzare le prestazioni permettendo di eseguire le applicazioni in prossimità rispetto a dove si trovano gli utenti

Quali aspetti considerare?

Per la preparazione di un ambiente IT idoneo ad ospitare deployment ibridi e multicloud esistono differenti possibilità, motivo per il quale prima di configurare il proprio ambiente Azure o qualsiasi altro cloud pubblico, è importante identificare in che modo l’ambiente cloud dovrà supportare il proprio scenario:

Figura 1 – Diagramma che illustra come diversi clienti distribuiscono i workload tra cloud provider

Nell’immagine sopra riportata ogni punto blu scuro rappresenta un workload ed ogni cerchio di colore azzurro è un processo aziendale, supportato da un ambiente distinto. A seconda del cloud-mix può essere necessaria una diversa configurazione dell’ambiente Azure:

  • Cliente Hybrid-first: la maggior parte dei workload rimane in sede, spesso in una combinazione di modelli di hosting con risorse tradizionali ed ibride. Alcuni workload specifici vengono distribuiti nell’edge, in Azure oppure presso altri provider di servizi cloud.
  • Cliente Azure-first: la maggior parte dei workload risiede in Azure. Alcuni workload rimangono comunque in locale. Inoltre, determinate decisioni strategiche portano alcuni workload a risiedere negli edge oppure in ambienti multicloud.
  • Cliente multicloud-first: la maggior parte dei workload viene ospitata su un cloud pubblico diverso da Azure, come Amazon Web Services (AWS) oppure Google Cloud Platform (GCP). Alcune decisioni strategiche hanno però portato alcuni workload ad essere posizionati in Azure oppure presso gli edge.

A seconda della strategia ibrida e multicloud che si decide di intraprendere per le applicazioni e per i dati, questa dovrà indirizzare determinate scelte.

Come predisporre l’ambiente Azure

Microsoft Azure è un provider di servizi cloud a livello enterprise ed è in grado di supportare al meglio ambienti pubblici, ibridi e multicloud.

Per preparare un ambiente IT e renderlo efficace per qualsiasi deployment ibrido e multicloud è opportuno tenere in considerazione i seguenti aspetti chiave:

  • Topologia e connettività di rete
  • Governance
  • Sicurezza e conformità
  • Discipline di automazione, esperienze di sviluppo e pratiche DevOps

Quando si affronta il tema della preparazione del proprio ambiente IT per nuovi scenari ibridi e multicloud è opportuno definire la “Landing Zone” di Azure che rappresenta, nel percorso di adozione del cloud, il punto di arrivo. Si tratta di un’architettura progettata per consentire di gestire ambienti cloud funzionali, contemplando i seguenti aspetti:

  • Scalabilità
  • Security governance
  • Networking
  • Identità
  • Cost management
  • Monitoring

L’architettura della Landing Zone deve essere definita in base ai requisiti aziendali e tecnici specifici. Risulta quindi necessario valutate le possibili opzioni di implementazione della Landing Zone, grazie alle quali sarà possibile soddisfare le esigenze di deployment ed operatività del portfolio cloud.

Figura 2 – Esempio concettuale di una Azure landing zone

Quali strumenti utilizzare?

Cloud Adoption Framework

Il Cloud Adoption Framework di Microsoft fornisce un ricco set di documentazione, linee guida per l’implementazione, procedure consigliate e strumenti utili per accelerare il percorso di adozione del cloud. Tra queste best practice, che è bene adottare e che è opportuno declinare in modo specifico sui vari clienti in base alle loro esigenze, è presente una sezione specifica riguardante gli ambienti ibridi e multicloud. Questa sezione tratta le diverse best practice che possono aiutare a facilitare vari mix di cloud, che vanno da ambienti totalmente in Azure ad ambienti dove l’infrastruttura presso il cloud pubblico di Microsoft non è presente oppure è limitata.

Azure Arc come acceleratore

Azure Arc consiste in un insieme di differenti tecnologie e di componenti che permettono di disporre di un unico meccanismo di controllo per gestire e governare in modo coerente tutte le tue risorse IT, ovunque si trovino. Inoltre, con i servizi abilitati per Azure Arc, si ha la flessibilità di distribuire servizi completamente gestiti di Azure ovunque, on-premises oppure presso altri cloud pubblici.

Figura 3 –  Azure Arc overview

L’Azure Arc-enabled servers Landing Zone, presente nel Cloud Adoption Framework, consente ai clienti di aumentare più facilmente la sicurezza, la governance e lo stato di conformità dei server distribuiti al di fuori di Azure. Insieme ad Azure Arc, servizi come Microsoft Defender for Cloud, Azure Sentinel, Azure Monitor, Azure Policy e molti altri possono essere estesi a tutti gli ambienti. Per questa ragione Azure Arc lo si deve considerare come un acceleratore per le proprie Landing Zone.

Azure Arc Jumpstart è cresciuto molto e permette di valutare al meglio Azure Arc, con oltre 90 scenari automatizzati, migliaia di visitatori al mese e una community open source molto attiva che condivide le proprie conoscenze su Azure Arc. Come parte di Jumpstart, è stato sviluppato ArcBox, un ambiente sandbox automatizzato per tutto ciò che riguarda Azure Arc, distribuibile nelle sottoscrizioni Azure dei clienti. Come acceleratore per la landing zone dei server abilitati per Azure Arc è stato sviluppato ArcBox per IT pro, che funge da soluzione di automazione sandbox per questo scenario, con servizi come Azure Policy, Azure Monitor, Microsoft Defender for Cloud, Microsoft Sentinel e altro ancora.

Figura 4 – Architettura di ArcBox per IT pro

Conclusioni

L’adozione di pratiche operative coerenti in tutti gli ambienti cloud, associate ad un piano di controllo comune, consente di affrontare in modo efficace le sfide intrinseche nelle strategie ibride e multicloud. Per farlo Microsoft mette a disposizione vari strumenti ed acceleratori, uno tra i quali è Azure Arc che rende più facile per i clienti aumentare la sicurezza, la governance e lo stato di conformità delle risorse IT distribuite al di fuori di Azure.

Azure Management services: le novità di gennaio 2023

Il nuovo anno è iniziato con diversi annunci da parte di Microsoft riguardanti novità relative agli Azure management services. Il rilascio mensile di questo riepilogo consente di avere una panoramica complessiva delle principali novità del mese, in modo da rimanere sempre aggiornati su questi argomenti ed avere i riferimenti necessari per condurre ulteriori approfondimenti.

Il diagramma seguente mostra le diverse aree relative al management, che sono contemplate in questa serie di articoli:

Figura 1 – Overview dei Management services in Azure

Monitor

Azure Monitor

Certificato l’IT Service Management Connector (ITSMC) con ServiceNow versione Tokyo (preview)

L’IT Service Management Connector (ITSMC) risulta certificato sulla versione Tokyo di ServiceNow. Tale connettore fornisce una connessione bidirezionale tra Azure Monitor e ServiceNow, utile per aiutare a tracciare e a risolvere i problemi in modo più rapido.

Govern

Azure Cost Management

Gestione dei billing account per i clienti EA

Per i clienti Enterprise Agreement (EA) “indiretti” è stata introdotta la possibilità di gestire i propri account di fatturazione direttamente da Cost Management and Billing. Tutte le informazioni rilevanti riguardanti department, account e subscription sono disponibili direttamente dal portale Azure. Inoltre, dallo stesso punto è possibile visualizzare le proprietà e gestire le policy degli enrollment EA indiretti.

Aggiornamenti relativi a Microsoft Cost Management

Microsoft è costantemente alla ricerca di nuove metodologie per migliorare Microsoft Cost Management, la soluzione per fornire una maggiore visibilità su dove si stanno accumulando costi nel cloud, identificare e prevenire modelli di spesa errati ed ottimizzare i costi . In questo articolo sono riportati alcuni degli ultimi miglioramenti ed aggiornamenti riguardanti questa soluzione.

Azure Arc

Connettore Active Directory per SQL MI abilitata ad Arc

Per i servizi dati Azure Arc-enabled è stato introdotto il supporto Active Directory (AD) per la gestione dell’Identity e dell’Access Management (IAM). L’istanza SQL Managed abilitata ad Arc può infatti utilizzare un dominio Active Directory (AD) esistente on-premises per l’autenticazione. Per facilitare questo, i servizi dati abilitati ad Azure Arc introducono una nuova Custom Resource Definition (CRD) nativa di Kubernetes chiamata Active Directory Connector. Questo fornisce alle istanze gestite SQL abilitate ad Azure Arc in esecuzione sullo stesso controller dati la possibilità di eseguire l’autenticazione Active Directory.

Visualizzazione dei database di SQL Server tramite Azure Arc (preview)

Oggi clienti e partner gestiscono un numero consistente di database. Per ognuno di questi database, è essenziale poter creare una mappatura accurata delle configurazioni. Ciò può avvenire a scopo di inventario oppure di reporting. La centralizzazione dell’inventario dei database in Azure tramite Azure Arc consente di creare una visione unificata di tutti i database in un unico luogo, indipendentemente dall’infrastruttura in cui si trovano: in Azure, nel datacenter, nei siti periferici o persino in altri cloud.

Secure

Microsoft Defender for Cloud

Nuove funzionalità, correzioni di bug e funzionalità deprecate di Microsoft Defender for Cloud

Lo sviluppo di Microsoft Defender for Cloud è in costante evoluzione e vengono introdotti miglioramenti su base continua. Per rimanere aggiornati sugli sviluppi più recenti, Microsoft aggiorna questa pagina, che fornisce informazioni su nuove funzionalità, correzioni di bug e funzionalità deprecate. In particolare, questo mese le principali novità riguardano:

  • il componente di protezione degli endpoint (Microsoft Defender for Endpoint) è ora accessibile nella pagina Impostazioni e monitor;
  • nuova versione della raccomandazione per trovare gli aggiornamenti di sistema mancanti;
  • pulizia delle macchine Azure Arc eliminate negli account AWS e GCP collegati.

Protect

Azure Backup

Aggiornamenti e miglioramenti rigurdanti SAP HANA

Recentemente sono stati apportati i seguenti aggiornamenti e miglioramenti ad Azure Backup for SAP HANA, la soluzione certificata Backint per la protezione dei database SAP HANA che risiedono nelle macchine virtuali Azure:

  • Conservazione a lungo termine per i backup “adhoc”: risulta ora possibile fornire una retention personalizzata per i backup che avvengono su richiesta, al di fuori delle policy schedulate.
  • Partial restore-as-files: Azure Backup for HANA consente di ripristinare i recovery point come file. Se viene scaricata l’intera catena per un recovery point e si desidera ripetere l’operazione per un altro recovery point adiacente, non è necessario scaricare nuovamente l’intera catena. Risulta inoltre possibile ripristinare solo i file desiderati.
  • Integrazione con i client nativi e con altri strumenti: in precedenza, per determinati scenari, era necessario disattivare backint prima della richiesta e riattivarlo successivamente, aumentando di conseguenza l’RPO. Con i miglioramenti introdotti non risultano più necessari questi passaggi aggiuntivi e sarà sufficiente attivare le richieste dai client nativi oppure dagli altri strumenti utilizzati.

Azure Site Recovery

Possibilità di utilizzare Azure Backup center per il monitor di ASR

Azure Backup center è il punto di riferimento per chi utilizza le funzionalità di backup native della piattaforma Azure e consente di governare, monitorare, gestire e analizzare le attività di backup. Microsoft ha esteso le sue capacità contemplando anche delle funzionalità di monitor per Azure Site Recovery, quali:

  • Visualizzazione dell’inventario degli elementi replicati, da un’unica vista, per tutti i vault.
  • Consultazione tramite un pannello di controllo di tutti i job di replica.

Azure Backup center supporta scenari di replica ASR riguardanti macchine virtuali Azure, VMware e macchine fisiche.

Migrate

Azure Migrate

Nuovi rilasci e funzionalità di Azure Migrate

Azure Migrate è il servizio presente in Azure che comprende un ampio portafoglio di strumenti che è possibile utilizzare, tramite una esperienza di utilizzo guidata, per affrontare in modo efficace i più comuni scenari di migrazione. Per rimanere aggiornati sugli sviluppi più recenti della soluzione è possibile consultare questa pagina, che fornisce informazioni su nuovi rilasci e nuove funzionalità. In particolare, questo mese le principali novità riguardano:

  • Possibilità di prevedete risparmi con l’opzione di risparmio ASP (Azure Savings Plan for compute) con il business case e l’assessment di Azure Migrate.
  • Supporto per l’esportazione del report del business case in una cartella di lavoro .xlsx dal portale.

Valutazione di Azure

Per testare e valutare in modo gratuito i servizi offerti da Azure è possibile accedere a questa pagina.

Azure IaaS and Azure Stack: announcements and updates (January 2023 – Weeks: 03 and 04)

This series of blog posts includes the most important announcements and major updates regarding Azure infrastructure as a service (IaaS) and Azure Stack, officialized by Microsoft in the last two weeks.

Azure

Compute

Classic VM retirement: extending retirement date to September 1st 2023

Microsoft is providing an extended migration period for IaaS VMs from Azure Service Manager to Azure Resource Manager. To avoid service disruption, plan and migrate IaaS VMs from Azure Service Manager to Resource Manager 1 September 2023. There are multiple steps to this transition, so we recommend that you plan your migration promptly to avoid potential system interruption.

Networking

Application security groups support for private endpoints

Private endpoint support for application security groups (ASGs) is now available. This feature enhancement will allow you to add granular controls on top of existing network security group (NSG) rules by attaching an ASG to the private endpoint network interface. This will increase segregation within your subnets without losing security rules. In order to leverage this feature, you will need to set a specific subnet level property, called PrivateEndpointNetworkPolicies, to enabled on the subnet containing private endpoint resources.

Storage

5 GB Put Blob

Azure Storage is announcing the general availability of 5 GB Put Blob. This allows you to upload nearly 20x the previous limit of Put Blob uploads while increasing the maximum size of Put Blob from 256 MiB to 5000 MiB.

Mount Azure Storage as a local share in App Service Windows Code

Mounting Azure Storage File share as a network share in Windows code (non-container) in App Service is now available.

Incremental snapshots for Ultra Disk Storage (preview)

The preview of incremental snapshots for Ultra Disk in the Sweden Central and US West 3 Azure region is available. This new capability is particularly important to customers who want to create a backup copy of their data stored on disks to recover from accidental deletes, or to have a last line of defense against ransomware attacks, or to ensure business continuity. You can now create incremental snapshots for Ultra Disk on Standard HDD. Additionally, snapshot resources can be used to store incremental backups of your disk, create or recover to new disks, or download snapshots to on-premises locations.

Azure Stack

Azure Stack HCI

Software Defined Networking (SDN) with WAC v2211

In this article there are all new features and improvements for SDN in Windows Admin Center 2211 (WAC) for Azure Stack HCI.

Il calcolo del consumo energetico e dell’impatto ambientale del cloud pubblico di Microsoft

Dopo l’Accordo di Parigi, con l’aumento dell’attenzione sui cambiamenti climatici e le misure adottate dai governi per ridurre le emissioni di carbonio, l’impatto ambientale dei sistemi IT è sempre più al centro dell’attenzione. Diversi studi hanno dimostrato che il cloud offre notevoli benefici anche per quanto riguarda la sostenibilità e fornisce alle aziende la possibilità di ridurre l’impatto ambientale dato dai servizi informatici, contribuendo così a un futuro più sostenibile. Per valutare il reale impatto è opportuno applicare delle misurazioni e dei controlli. In questo articolo viene descritta la metodologia progettata per calcolare le emissioni di carbonio associate all’uso delle risorse Azure di Microsoft.

Microsoft mette a disposizione degli strumenti per monitorare e gestire l’impatto ambientale delle emissioni di carbonio, basati sulla metodologia descritta in questo articolo, che risulta essere in continua evoluzione e perfezionamento. Tali strumenti, specifici per il cloud Azure, permettono di:

  • Ottenere la visibilità necessaria per promuovere la sostenibilità, tenendo in considerazione sia le emissioni sia l’utilizzo di carbonio.
  • Semplificare la raccolta dei dati e i calcoli delle emissioni.
  • Analizzare e segnalare in modo più efficiente l’impatto ambientale e i progressi di una azienda in termini di sostenibilità.

Questa metodologia utilizzata da Microsoft viene aggiornata costantemente per includere approcci scientificamente validi non appena diventano disponibili e rilevanti per la valutazione delle emissioni di carbonio associate al cloud Azure.

Standard utilizzati per il calcolo

Microsoft suddivide le proprie emissioni di gas a effetto serra (GHG) in tre categorie (scope), attenendosi al Greenhouse Gas Protocol, uno standard riconosciuto a livello mondiale per la metodologia di calcolo e la rendicontazione delle emissioni di gas a effetto serra (GHG).

Scope 1: emissioni dirette – le emissioni derivanti dalla combustione e dai processi industriali

Le emissioni di gas serra in questa categoria comprendono le emissioni derivanti dalla combustione del gasolio e le emissioni derivanti dall’uso di refrigeranti per il raffreddamento dei data center.

Scope 2: emissioni indirette – le emissioni derivanti dal consumo di elettricità, calore o vapore

Le emissioni di gas serra in questa categoria includono le emissioni derivanti dal consumo di energia elettrica utilizzata per alimentare i data center di Microsoft.

Scope 3: altre emissioni indirette – le emissioni generate durante la fase di produzione e alla fine del ciclo di vita del prodotto

Le emissioni di gas serra comprendono le emissioni derivanti dall’estrazione delle materie prime, dall’assemblaggio dei componenti e dalla gestione della fine del ciclo di vita dei dispositivi hardware (ad esempio: riciclaggio, discarica o compostaggio), come i server e le apparecchiature di rete, utilizzati nei data center Microsoft.

Figura 1 – Esempi di tipologie di emissioni di carbonio di scope 1, 2 e 3 nel cloud di Microsoft

In quest’ambito è opportuno tenere in considerazione che nel 2020 Microsoft ha riaffermato il suo impegno a integrare la sostenibilità in tutte le sue attività. Infatti, ha annunciato un obiettivo ambizioso e un piano per ridurre ed infine eliminare le emissioni di carbonio. Nell’ambito di questo piano, Microsoft si è data l’obiettivo di diventare un’azienda “carbon neutral” entro il 2030, e sta adottando diverse strategie per ridurre le proprie emissioni di carbonio, tra cui l’acquisto di fonti di energia rinnovabili, l’ottimizzazione dell’efficienza energetica dei propri data center e il supporto alla transizione verso un’economia a basse emissioni di carbonio.

Normative

Microsoft basa la sua metodologia di calcolo affidandosi anche a standard ISO ampiamente accettati nel settore:

  • Le emissioni di carbonio legate ai materiali si basano sulla normativa ISO 14067:2018 (Gas a effetto serra – Impronta di carbonio dei prodotti – Requisiti e linee guida per la quantificazione).
  • Le emissioni operative si basano sulla normativa ISO 14064-1:2006 (Gas a effetto serra – Parte 1: Specifiche e linee guida a livello di organizzazione per la quantificazione e la rendicontazione delle emissioni e degli assorbimenti di gas a effetto serra).
  • La verifica e la convalida si basano sulla normativa ISO 14064-3:2006 (Gas a effetto serra – Parte 3: Specifiche con guida per la convalida e la verifica delle asserzioni sui gas a effetto serra).

Metodologie di calcolo

Scope 1 e 2

Le emissioni di gas serra legate all’utilizzo di energia elettrica per gli scope 1 e 2 vengono solitamente suddivise in categorie come Storage, Compute e Network. La quantificazione delle emissioni di questi scope è basata sul tempo di utilizzo delle singole categorie. La metodologia utilizzata per calcolare le emissioni degli Scope 1 e 2 si basa generalmente su un’analisi del ciclo di vita presente in uno studio Microsoft, disponibile a questo indrizzo. Questa metodologia per lo Scope 2 include il calcolo dell’impatto energetico e delle emissioni di carbonio per ogni specifico data center, considerando fattori come l’efficienza del data center e dei server, i fattori di emissione, gli acquisti di energia rinnovabile e l’utilizzo dell’energia dell’infrastruttura nel tempo.

Scope 3

Il calcolo delle emissioni riguardanti lo Scope 3 è sintetizzato nella figura seguente:

Figura 2 – Metodologia di calcolo delle emissioni riguardanti lo Scope 3

Si parte dalla valutazione del ciclo di vita dei materiali utilizzati nell’infrastruttura del data center e si calcolano le relative emissioni di carbonio. Viene poi segmentata questa somma in base all’utilizzo da parte dei clienti di ciascun data center.

Questa metodologia per le emissioni relative allo Scope 3 calcola l’impatto energetico e di carbonio per ogni data center nel tempo, tenendo in considerazione quanto segue:

  • I materiali più comuni utilizzati per la costruzione dell’infrastruttura IT utilizzata nei data center.
  • Le componenti principali che compongono l’infrastruttura cloud.
  • L’elenco completo di tutti gli asset presenti nei data center Microsoft.
  • I fattori legati al carbonio per l’infrastruttura cloud in tutte le fasi del ciclo di vita (estrazione delle materie prime, assemblaggio dei componenti, utilizzo e smaltimento alla fine del ciclo di vita).

La convalida della metodologia Microsoft per lo scope 3 è pubblicata a questo indirizzo.

Definizioni comuni

In questa sezione sono riportate le definizioni dei termini utilizzati più frequentemente in merito all’impatto delle emissioni:

  • mtCO2e: è l’unità di misura utilizzata per esprimere l’impatto delle emissioni di gas serra sull’effetto serra globale. Esso tiene conto non solo delle emissioni di anidride carbonica (CO2), ma anche di altri gas serra come metano (CH4), protossido di azoto (N2O) e gas fluorurati (F-gases). Il mtCO2e è utilizzato per misurare le emissioni di gas serra a livello globale e per stabilire gli obiettivi di riduzione delle emissioni.
  • Emissioni di carbonio (mtCO2e) di Azure: le emissioni di carbonio (mtCO2e) per il cloud Azure si riferiscono alle quantità di gas serra, principalmente anidride carbonica (CO2), emesse nell’atmosfera a causa dell’utilizzo dei servizi di cloud computing di Microsoft Azure. Questo valore include gli Scope Microsoft (1, 2 e/o 3).
  • Carbon intensity (mtCO2e/utilizzo): l’indice di “carbon intensity” fornisce un rapporto tra le emissioni di anidride carbonica e un’altra variabile. Per Green SKU, si tratta delle emissioni totali di anidride carbonica equivalente per le ore di utilizzo, misurate in mtCO2e/ora. Lo scopo di questo indice è fornire visibilità delle emissioni di carbonio in relazione all’utilizzo dei servizi Azure.
  • Emissioni di carbonio previste a fine anno (mtCO2e): l’allocazione prevista delle emissioni di carbonio cumulative di fine anno in base alla proiezione di utilizzo delle risorse cloud per l’anno in corso e alle tendenze dell’anno precedente.

Conclusioni

Per identificare i vantaggi per l’ambiente IT derivanti dalla distribuzione delle applicazioni su Azure, è importante educare i clienti sull’impatto ambientale delle loro risorse IT e fornire loro gli strumenti per governare tale impatto. Questo deve essere fatto con l’intenzione di migliorare, stabilendo obiettivi di sostenibilità specifici e realistici. Un tale approccio è vantaggioso sia per l’azienda sia per la società.

Azure IaaS and Azure Stack: announcements and updates (January 2023 – Weeks: 01 and 02)

This series of blog posts includes the most important announcements and major updates regarding Azure infrastructure as a service (IaaS) and Azure Stack, officialized by Microsoft in the last two weeks.

Azure

Storage

Azure Ultra Disk Storage in Switzerland North and Korea South

Azure Ultra Disk Storage is now available in one zone in Switzerland North and with Regional VMs in Korea South. Azure Ultra Disk Storage offers high throughput, high IOPS, and consistent low latency disk storage for Azure Virtual Machines (VMs). Ultra Disk Storage is well-suited for data-intensive workloads such as SAP HANA, top-tier databases, and transaction-heavy workloads.

Azure Active Directory authentication for exporting and importing Managed Disks

Azure already supports disk import and export locking only from a trusted Azure Virtual Network (VNET) using Azure Private Link. For greater security, the integration with Azure Active Directory (AD) to export and import data to Azure Managed Disks is available. This feature enables the system to validate the identity of the requesting user in Azure AD and verify that the user has the required permissions to export and import that disk.

Migrazione verso Azure: dalle motivazioni ad un business case di successo

Il passaggio al cloud può sicuramente portare a una riduzione dei costi, all’utilizzo più efficace delle risorse e ad un miglioramento delle prestazioni. Tuttavia, la domanda da porsi prima di affrontare un percorso di migrazione è: “perché passare al cloud?”. La risposta a questa domanda non è banale e spesso coincide con: “il nostro consiglio di amministrazione (oppure il CIO) ci ha detto di passare al cloud”. Davanti a una risposta di questo tipo è opportuno accendere un campanello di allarme in quanto potrebbe essere più difficile raggiungere i risultati attesi. Questo articolo illustra alcune delle motivazioni alla base della migrazione al cloud che possono contribuire a produrre risultati aziendali di maggior successo e riporta quali elementi e quali strumenti considerare per supportare la creazione di un business case completo.

Le motivazioni per il passaggio al cloud

Le motivazioni che possono guidare le trasformazioni aziendali supportate dall’adozione del cloud possono essere diverse. Per contribuire a generare idee su quali motivazioni possono essere rilevanti, riporto la seguente tabella, dove è presente una suddivisione tra le principali classificazioni:

Eventi aziendali critici Migrazione Innovazione
Uscita dal data center

Fusioni, acquisizioni o dismissioni

Riduzione delle spese di capitale

Fine del supporto per le tecnologie mission-critical

Risposta alle modifiche di conformità alle normative

Nuovi requisiti di sovranità dei dati

Riduzione delle interruzioni e miglioramento della stabilità dell’ambiente IT

Relazione e gestione dell’impatto ambientale dell’attività

Risparmio sui costi

Riduzione della complessità tecnica o del fornitore

Ottimizzazione delle operazioni interne

Aumento dell’agilità aziendale

Preparazione a nuove capacità tecniche

Scalabilità per soddisfare le richieste del mercato

Scalabilità per soddisfare le esigenze geografiche

Integrazione di un portafoglio IT complesso

Preparazione per nuove capacità tecniche

Creazione di nuove capacità tecniche

Scalabilità per soddisfare le richieste del mercato

Scalabilità per soddisfare le esigenze geografiche

Miglioramento dell’esperienza e del coinvolgimento dei clienti

Trasformazione di prodotti oppure di servizi

Sconvolgimento del mercato con nuovi prodotti o servizi

Democratizzazione e/o ambienti self-service

Tabella 1 – Motivazioni principali per l’adozione del cloud

Può accadere con una buona probabilità che diverse motivazioni per l’adozione del cloud si applichino contemporaneamente e che rientrino in classificazioni differenti.

Per guidare lo sviluppo della propria strategia di adozione del cloud si consiglia di utilizzare la classificazione predominante tra: eventi aziendali critici, migrazione e innovazione. Tali motivazioni devono poi essere condivise e discusse con gli stakeholder, i dirigenti ed i leader aziendali. In questo modo è possibile favorire l’adozione di successo di soluzioni cloud all’interno della realtà aziendale.

Come accelerare la migrazione

Spesso la migrazione è il primo passo che porta all’adozione di soluzioni cloud.  A questo proposito è utile seguire la metodologia “Migrate” definita nel Cloud Adoption Framework, che delinea la strategia per eseguire una migrazione al cloud.

Tale guida, dopo l’allineamento delle parti interessate sulle motivazioni e sui risultati aziendali attesi consiglia ai clienti di stabilire le giuste partnership per ottenere il supporto necessario durante l’intero processo di migrazione.

Lo step successivo prevede la raccolta dei dati e un’analisi degli asset e dei workload da migrare. Questo passaggio deve portare all’elaborazione di un business case riguardante la migrazione nel cloud con l’obiettivo di garantire che tutte le parti interessate siano allineate su una semplice domanda: “sulla base dei dati disponibili, l’adozione del cloud è una decisione aziendale saggia?”.

In caso di risposta affermativa è possibile proseguire con gli step successivi dettagliati nella guida e che prevedono:

  • La creazione di un piano di migrazione
  • La preparazione delle competenze necessarie
  • L’attivazione e la configurazione della Landing Zone
  • La migrazione dei primi workload in Azure
  • L’attuazione della governance del cloud e la gestione delle operations

La creazione di Business Case: elementi chiave, strumenti e calcolatori

Un business case fornisce una visione complessiva sulle tempistiche tecniche e finanziarie dell’ambiente analizzato. Lo sviluppo di un business case deve necessariamente comprendere la creazione di un piano finanziario che tenga conto degli aspetti tecnici e che sia in linea con i risultati aziendali.

Ci sono diversi componenti chiave da considerare quando si deve realizzare un business case, tra questi troviamo:

  • Scope dell’ambiente
  • Dati finanziari di base
  • Scenario dei costi on-premises: deve prevedere quali saranno i costi on-premises se non si migra al cloud.
  • Scenario dei costi Azure: previsione dei costi in caso di migrazione al cloud.
  • Tempistica di migrazione

Un business case non è solo una visione di un dato momento, ma deve essere un piano che copre un periodo temporale definito. Come ultimo passaggio, è utile confrontare l’ambiente cloud con uno scenario on-premises oppure con lo status quo, in modo da poter valutare i vantaggi dati della migrazione al cloud.

Per supportare la preparazione di un business case per la migrazione al cloud è necessario avvalersi di strumenti e calcolatori. Microsoft ne mette a disposizione diversi, descritti nei paragrafi seguenti.

Azure Migrate

Azure Migrate è il servizio presente in Azure che comprende un ampio portafoglio di strumenti che è possibile utilizzare, tramite una esperienza di utilizzo guidata, per affrontare in modo efficace i più comuni scenari di migrazione.

Azure Migrate ha recentemente introdotto la funzionalità per la creazione di Business case che aiuta a costruire proposte per capire come Azure può portare il massimo valore. Infatti, questa soluzione consente di valutare il ritorno sull’investimento per quanto riguarda la migrazione verso Azure dei sistemi server, delle distribuzioni di SQL Server e delle applicazioni web ASP.NET in esecuzione in ambiente VMware. Il business case può essere creato con semplicità e può fornire elementi utili a valutare:

  • Il costo totale di proprietà on-premises confrontandolo con quello Azure.
  • Le informazioni basate sull’utilizzo delle risorse, per identificare i server e i carichi di lavoro ideali per il cloud e le raccomandazioni per il giusto dimensionamento in Azure.
  • I vantaggi per la migrazione e la modernizzazione, compresa la fine del supporto delle versioni di Windows e SQL.
  • I risparmi a lungo termine grazie al passaggio da un modello di spesa in conto capitale a un modello di spesa operativa, pagando solo ciò che si utilizza.

Azure Total Cost of Ownership (TCO) Calculator

Il calcolatore Azure TCO può essere utilizzato per stimare i risparmi sui costi che si possono ottenere migrando i workload su Azure. Inserendo i dettagli dell’infrastruttura on-premise (server, database, storage e rete, nonché le ipotesi di licenza ed i costi) il calcolatore è in grado di creare una corrispondenza con i servizi Azure mostrando un confronto TCO di alto livello. Tuttavia, i risultati del calcolatore Azure TCO devono essere presi in considerazione con attenzione, in quanto adottando Azure si possono adottare misure di ottimizzazione e pertanto può risultare non esaustivo.

Azure Pricing Calculator

Il calcolatore dei prezzi di Azure può essere utilizzato per stimare i costi mensili delle soluzioni Azure.

Azure VM cost estimator

Si tratta di un modello Power BI che consente di stimare i risparmi Azure, rispetto alla tariffa pay-as-you-go, adottando le offerte e i vantaggi di Azure per le macchine virtuali, come Azure Hybrid Benefit e le reserved instance.

Conclusioni

L’individuazione delle motivazioni, la conduzione di un assessment e la creazione di un business case sono elementi indispensabili per costruire una strategia di adozione del cloud funzionale e per adottare un piano di migrazione che abbia successo.