Archive for ottobre 2010

Uscire dalla crisi: riflessioni #2

ottobre 25, 2010

La flessibilità viene spesso identificata con il cambiamento. Se è vero però che ad una mutevole situazione di mercato occorre rispondere rapidamente ed in modo adeguato e che chi per primo riesce a farlo acquisisce un vantaggio competitivo nei confronti dei concorrenti, è anche vero che nella maggior parte dei casi la sovrapposizione dei cambiamenti esterni e di quelli interni manca di produrre i risultati desiderati ed attesi. È un po’ come timonare in mare agitato: non è semplice far corrispondere la reazione desiderata alle correzioni della barra. Questa caratteristica è ben nota agli ingegneri che studiano i sistemi come “sensibilità”. Sistemi molto sensibili fanno corrispondere grandi variazioni negli esiti a variazioni anche piccole degli stimoli. La controreazione è uno dei metodi utilizzati per limitare gli effetti di uno stimolo correggendolo proprio con l’output da esso provocato. Le organizzazioni di vendita complesse che cercano di reagire alle mutevoli situazioni del mercato, costituiscono in genere sistemi sensibili (bastano piccoli cambiamenti nella situazione economica, nelle normative, nella organizzazione, ecc. Per decretare il fallimento delle trattative e, di conseguenza, della performance). Poiché inoltre la qualità del feedback (controreazione) è scarsa per poca tempestività, attendibilità, l’unica soluzione che rimane è quella di calibrare con estrema cautela gli stimoli. Cambiamenti mirati e non generalizzati, graduali e non rivoluzionari, chiaramente guidati dal principio del problem/response. Questo è particolarmente vero per le vendite a valore dove una relazione “trusted” con il cliente è di vitale importanza.

Uscire dalla crisi: riflessioni #1

ottobre 13, 2010

La crisi é nata fuori dall’Italia e i fondamentali delle nostre banche sono solidi. Questo non ha impedito che la nostra economia (legata a quella globale) non risentisse di quanto succedeva nel mondo. Le banche hanno retto ma tutto il resto è rimasto scosso. La capitalizzazione in borsa delle aziende si basa sulla fiducia degli azionisti e questa è venuta a mancare. Inoltre, lo spauracchio della crisi è stato colto da molte organizzazioni come pretesto e occasione per far passare operazioni che, in momenti normali, avrebbero destato allarme e resistenze ben maggiori.
In momenti simili è secondo me particolarmente importante muoversi con intelligenza avendo in mente ciò che si fa, a chi ci si rivolge, contro chi si compete. In sostanza occorre programmare le proprie azioni con grande chiarezza sul proprio ecosistema ed i propri obiettivi.
Come sempre, nelle crisi c’è chi guadagna e chi soccombe. E ricordiamo che questa è una strana crisi, non strutturale come quella del ’29 e quindi, accanto alle schiere che perdono il lavoro e si impoveriscono, alcuni ricchi riescono a speculare e a diventare più ricchi. Semplicemente la linea della ricchezza si sposta verso il vertice della piramide e il divario si amplifica. La classe media diventa più povera e affolla i discount (che fanno molti più affari) ma i beni di lusso non spariscono e continuano ad essere acquistati. Semmai soffrono le attività che erano prima il target medio borghese.
Una operazione intelligente per affrontare questo cambiamento, è quella di non snaturare la propria immagine (che nelle aspirazioni dei consumatori, rimane puntata verso lo status precedente cui non si vuole rinunciare) affiancando però una offerta alternativa a costi più bassi: non si entra al discount ma al negozio abituale comprando però alcuni beni nelle sezioni discount. Quasi tutte le grandi catene di distribuzione hanno agito in questo modo per non perdere terreno. Cedono margini ma non perdono i clienti. A mio avviso questo modello contiene due insegnamenti: flessibilità al cambiamento e continuità dell’identità. Sei diverso e vieni incontro alle mie nuove esigenze ma ti (e mi) riconosco.

Alcuni miei contributi per CA Technologies

ottobre 8, 2010
Blogged with the Flock Browser

La convergenza dell’UC richiede una gestione efficiente

ottobre 8, 2010

Comunicazioni semplificate

 

Le tecnologie Unified Communications (UC) si propongono di instaurare la connettività tra fonia, video e dati in ambito aziendale, aiutando le aziende a realizzare un ambiente molto più uniforme per le comunicazioni e a migliorarne i processi. Il requisito indispensabile, però, è una rete convergente ad alte prestazioni e la gestione efficiente della rete e della sicurezza per garantire un’operatività sicura e ininterrotta.

Michael Jaeger, Senior Principal Product Marketing Manager di CA. Revisione e traduzione di Vincenzo Messina, Customer Solution Architect CA.www.vincenzomessina.it twitter: @vincemessina

 

Qualche anno fa, il sogno di poter disporre facilmente delle informazioni (“information at your fingertips”) costituiva il non plus ultra della nuova frontiera informatica. A quel tempo, il concetto di accesso “on-demand” ai dati e alle informazioni da qualsiasi luogo (o quasi) tramite una serie di dispositivi di fruizione era considerato rivoluzionario. Col passar del tempo, però, la realtà è cambiata, quella visione è diventata obsoleta e oggi lo slogan del momento è “Unified Communications”. Sebbene l’idea che sottende all’accesso illimitato non sia sostanzialmente diversa da quella d’allora, ora comprende non soltanto informazioni e dati, ma anche i vari aspetti della comunicazione. Il nuovo traguardo mira a raggiungere i destinatari e accedere alle informazioni in qualsiasi momento, da qualsiasi luogo e con qualsiasi dispositivo.

 

L’utente può scegliere il metodo di comunicazione più confacente alla sua situazione contingente o personale; ad esempio, sono sufficienti pochi clic del mouse per configurare conferenze audio, video o Web con un numero illimitato di partecipanti. Il software collaborativo consente di lavorare con la stessa applicazione, o persino sugli stessi documenti, all’interno di un team virtuale. Grazie a questo contatto diretto i componenti del team hanno la possibilità di passare in rassegna svariati processi, pianificare/eseguire progetti e prendere decisioni collettive molto più rapidamente di quanto non sarebbe stato possibile in precedenza. Non essendo costretti ad aspettare una vita una mail o una telefonata di risposta, il nuovo sensazionale livello di efficienza nelle comunicazioni finisce con l’incrementare la produttività dei dipendenti, eliminando tutto il tempo e il denaro spesi per spostarsi. I progetti procedono più rapidamente su tutti i fronti, rafforzando la posizione competitiva dell’azienda.

 

Piattaforma centralizzata unica: un bene o un male?

Il tema fondamentale alla base di comunicazioni unificate e continue riguarda la creazione di un’infrastruttura informatica capace di incorporare i diversi (e innumerevoli) dispositivi dell’utenza aziendale e tutte le applicazioni software. La rete dei dati e la rete telematica, un tempo separate, sono ora riunite su un’unica piattaforma. I dipendenti possono scegliere i loro canali di comunicazione preferiti in base alla loro ubicazione o alle circostanze contingenti. La rosa di possibilità è imponente, in quanto comprende la telefonia tradizionale, la posta elettronica, le caselle vocali, il fax, la messaggistica istantanea, le videoconferenze e le conferenze via web. Tutto ciò è disponibile tramite un clic del mouse da un desktop o notebook. Anche gli apparecchi mobili come gli smart phone, i palmari e i BlackBerry possono essere incorporati facilmente, ampliando la sfera operativa di ciascun dipendente.

 

Una rete IP ad alte prestazioni dotata di funzionalità che supportano la trasmissione della voce attraverso il protocollo IP (Voice-over IP o VoIP) è un requisito altrettanto indispensabile per una soluzione UC professionale. Tale rete, però, rischia di diventare il tallone d’Achille nella corsa alle tecnologie UC qualora non sia in grado di sostenere forti carichi di lavoro — oltre all’intenso utilizzo di applicazioni e servizi — propri di una rete di utenti, provocando un decadimento della qualità dei telefoni IP che, in casi estremi, può portare al collasso del sistema di comunicazione. Ecco perché una gestione professionale delle prestazioni dei sistemi con identificazione degli eventuali problemi può aiutare l’organizzazione a evitare tutta una serie di problematiche prima che danneggino il sistema.

 

L’autenticazione crea sicurezza

Un’altra trappola può essere rappresentata dalla sicurezza della rete. La moltitudine di opzioni d’accesso rese possibili dalle tecnologie Unified Communications può creare delle brecce inaspettate da cui utenti non autorizzati possono accedere alla rete aziendale. Per questo motivo, in un ambiente UC è estremamente importante disporre di una gestione integrata delle identità: ogni utente deve autenticarsi prima di poter accedere a dati, informazioni e servizi presenti in rete, i quali vengono resi disponibili solo per un impiego specifico.

 

Non vi è dubbio che le tecnologie UC consentano alle aziende di esplorare varie opzioni (magari impreviste) nel settore, ma non sono certo soluzioni prodotte in serie. L’azienda deve operare un’analisi dei requisiti per stabilire i fabbisogni individuali, mettendo direttamente a raffronto comportamenti comunicativi e obiettivi aziendali. In questa fase è fondamentale valutare l’infrastruttura IT perché nient’altro potrà rivelare se la rete dei dati sia già compatibile con le trasmissioni di video e fonia in tempo reale. In alcuni casi potranno essere necessari ulteriori investimenti per rafforzare la disponibilità della rete e l’ampiezza di banda richiesta da UC.

 

Gestione efficiente per prestazioni ottimali

Una corretta gestione delle performance della rete (insieme alla gestione dei problemi e dei tempi di fermo) costituisce un elemento chiave per l’operatività di una rete convergente. Ad esempio, il Network Performance Management misura continuamente le prestazioni della rete, rilevando e segnalando in automatico eventuali interruzioni del servizio, scostamenti e potenziali fonti di errori, in modo da mettere a disposizione degli amministratori un quadro costantemente aggiornato degli ultimi livelli di qualità della rete. Una rilevazione continua dei valori può mettere in luce eventuali fabbisogni di banda creati dalle soluzioni UC con il passare dei mesi.

 

Sono inoltre disponibili dei tool specializzati che servono a valutare l’efficienza dell’impianto telefonico esistente e che generano dei dati dal valore inestimabile per la pianificazione di un impianto telefonico digitale. Questa tipologia di soluzione facilita altresì la ricerca degli errori in un gran numero di sistemi per le telecomunicazioni e trasmette tali dati al Network Management per consentirne l’ulteriore analisi.

 

Possibilità di identificare ed eliminare gli errori

La presenza di complete funzioni di reporting rende più facile intraprendere delle azioni correttive nel caso di interruzione di un servizio. Per questo motivo possono tornare utili dei moduli aggiuntivi capaci di misurare la qualità di connessione come strumento per gestire la rete convergente. L’analisi integrata dell’origine dei problemi semplifica la ricerca della causa di qualsiasi errore, mettendo a disposizione degli amministratori importanti informazioni sulla vastità di un problema o di un fuori servizio e sulle loro eventuali ricadute sui processi aziendali. Disponendo di tali dati, gli amministratori possono decidere quali provvedimenti adottare, e valutare i tempi necessari per riprendere il controllo della situazione. Inoltre, i valori così misurati possono predire numerosi problemi, consentendo all’azienda di intraprendere delle azioni proattive prima che essi incidano negativamente sull’operatività aziendale.

 

Performance, affidabilità e sicurezza sono le pietre angolari di qualsiasi rete di successo. Una soluzione professionale di Network Management, esemplificata dal concetto di Enterprise IT Management di CA, è essenziale per mantenere lo standard di qualità professionale necessario per un ambiente UC. In ultima analisi, la soluzione deve integrare e gestire tutti i componenti presenti all’interno di una rete convergente, ivi compresi eventuali apparecchi mobili e l’intera gamma di applicativi, processi e servizi aziendali. Un’analisi continua provvederà a controllare che le connessioni eroghino una capacità di rete sufficiente alla trasmissione ad alta velocità delle grandi quantità di dati tipicamente generati dalle applicazioni UC. Equipaggiati in questo modo, gli amministratori potranno identificare ed eliminare rapidamente eventuali problemi prima che essi privino l’azienda della capacità di comunicare in modo efficace.

 

Text Box:

 

Triple Play Alliance

La tecnologia è pronta e matura per il “Triple Play”, sigla che indica la convergenza di televisione, telefonia (IP) e servizi Internet su un’unica connessione. Ciò non toglie che Internet provider, società di TV via cavo e aziende di servizi pubblici si debbano documentare sul Network Management affinché le loro reti soddisfino almeno le specifiche minime di performance e disponibilità richieste da un servizio di qualità.

A partire dal 2005, i provider hanno continuato ad ampliare le offerte di tipo “Triple Play”, formate da un misto di televisione/video, telefonia e servizi Internet. Mentre gli operatori via cavo avevano iniziato già negli anni Novanta a predisporre le loro reti per questa offerta convergente, gli operatori delle telecomunicazioni si apprestano solo ora ad entrare nel mercato con una disponibilità estesa di connessioni IP a banda larga tramite DSL/cavi in fibra ottica e compressione dei dati ad alta capacità. Per usufruire dei servizi Triple Play sono necessarie reti convergenti. Tali reti convergenti non vengono solamente utilizzate per i servizi Triple Play nel mercato delle aziende, ma servono anche a gestire altri dispositivi quali rivelatori antincendio e rivelatori di fumo, telecamere di sorveglianza e pannelli a messaggio variabile utilizzati per gli annunci diffusi tramite altoparlanti nelle stazioni ferroviarie.

La Triple Play Alliance (TPA)

La Triple Play Alliance (TPA) si prefigge di mostrare le tipologie di soluzioni effettivamente disponibili per erogare servizi Triple Play sulle reti di dati già esistenti e le eventuali espansioni e aggiornamenti richiesti per ottenere la qualità e l’affidabilità necessarie. A sostenere questa associazione vi sono noti operatori nel settore delle telecomunicazioni come Extreme Networks e service provider del calibro di Colt Telecom – oltre a CA, il primo partner della TPA sul versante del software.

Dal 2006 la TPA ha un proprio laboratorio dimostrativo vicino a Monaco di Baviera, dove produttori e utenti possono provare in che modo i vari componenti interagiscano fra loro in un contesto reale. Tra l’altro, il centro di collaudo dispone di numerosi ambienti per simulare uffici, sale conferenze, contesti domestici, centri sanitari e alberghi in cui implementare Triple Play con tecnologie già disponibili in commercio.

All’interno del laboratorio, CA è responsabile della gestione delle reti convergenti. Soprattutto quando si tratta di reti Triple Play dove gli standard sono ancora rudimentali, l’interazione armoniosa fra i diversi componenti hardware si fonda su un livello elevato di interoperabilità tra hardware e software. Per il Triple Play Lab, CA gestisce e dirige soluzioni di gestione pienamente collaudate, quali CA eHealth (Performance Management), CA eHealth for Voice (gestione dei sistemi telefonici) e CA SPECTRUM (analisi dell’origine dei problemi), per monitorare le funzioni di molti componenti della rete quali impianti telefonici, switch e server.

Per maggiori informazioni, si prega di visitare la pagina all’indirizzo: http://www.triple-play-lab.com/html/alliance.html

Demand Management. Intervista a Vincenzo Messina

ottobre 8, 2010

Vincenzo Messina, come vede svilupparsi quest’area?

Le organizzazioni devono rispondere a sollecitazioni sempre più forti: alla concorrenza per la conquista del mercato si aggiunge oggi una crisi economica la cui portata è ancora da stabilire.

Rispondere meglio dei concorrenti è l’unica modo per continuare ad esistere e prosperare. Oggi, sempre di più, ciò dipende dalle capacità dei servizi IT poiché essi costituiscono l’ossatura dei servizi di business. Le organizzazioni chiedono dunque ai propri servizi IT di essere efficaci nel soddisfare la domanda di servizi ed efficienti nella loro erogazione, economica e performante.

ITIL ci ricorda che i servizi IT devono essere continuamente verificati a fronte delle esigenze di business in un ciclo di miglioramento continuo, dalla loro ideazione alla loro dismissione. I criteri per decidere quando ogni transizione in questo ciclo vada effettuata non possono essere lasciati all’improvvisazione e al sentimento: si può fare solo ciò che ha un ritorno di investimento adeguato e le decisioni devono quindi rispondere a precisi criteri economici.

Poiché in ogni organizzazione coesistono più interessi – rappresentati da dipartimenti e linee di business – bisogna mediare e prendere decisioni, scontentando magari qualcuno. Meglio disporre quindi di dati oggettivi a supporto.

Per questo si concretizza in un interesse sempre più forte verso i temi dell’IT Governance. Gli sviluppi concreti in questa direzione sono però meno rapidi di come ci si attenderebbe. Poca informazione e timore di intraprendere progetti che hanno portata e importanza strategiche – e sono perciò visti come ad alto rischio – portano ad una certa cautela.

Chi riesce a partire prima, però, si trova poi in una posizione di notevole vantaggio rispetto alla concorrenza.

 

come si deve adeguare il dipartimento IT?

Il management IT spesso non riesce a tenere un approccio di gestione pianificata degli investimenti per l’acquisto di risorse IT e tende a focalizzarsi di più sulla riduzione dei costi, dove investimenti e margini, in capitali e risorse umane, sono più limitati. E’ un approccio conservativo che, se è l’unico ad essere attuato, porta ad impoverire la qualità dei servizi IT, mancando di perseguire le opportunità di business a maggior valore. Occorre focalizzarsi sul “lato domanda” dell’equazione. Si potrebbe partire dalla costruzione e la pubblicazione di un catalogo dei servizi IT per il business che includa opportuni service-level agreement e dalla misura del loro costo di realizzazione e di erogazione; per i servizi in linea sono utili anche meccanismi di sottoscrizione dei servizi in abbinamento agli SLA da associarvi. Si incoraggerebbe così a una più stretta collaborazione e l’allineamento fra il business e l’IT, e aumenterebbe anche l’efficienza, stimolando un uso più oculato delle risorse IT. Il catalogo sarebbe un elemento vivo su cui operare mediante i processi di “Strategia dei Servizi” per decidere se e quando un’idea di servizio debba diventare un progetto, quando debba essere messo in produzione, modificato o dismesso.

 

quali sono gli strumenti tecnologici proposti da CA a supporto dell’IT per la gestione del demand management?

CA propone sistemi avanzati che intervengono nella gestione completa del ciclo di vita dei servizi IT, dalla strategia, al disegno, alla transizione, alla gestione operativa, al loro continuo miglioramento. Alle classiche soluzioni di gestione che intervengono sul fronte della disponibilità, dell’ottimizzazione, dell’automazione, ecc. si affancano quelle che supportano i processi di gestione della domanda. Da quelli per la realizzazione e gestione del catalogo dei servizi (CA Service Catalog), a Clarity, soluzione leader nel settore dell’IT Governance, le organizzazioni IT possono raggiungere risultati prestazionali di alto livello migliorando la qualità del loro contributo al business e massimizzando l’efficienza. Clarity offre funzionalità di pianificazione integrata del portafoglio dei servizi, consente di gestire la domanda e, conseguentemente, i progetti associati, la pianificazione delle risorse e la gestione dei costi e delle tempistiche.

http://www.vincenzomessina.com http://www.vincenzomessina.it http://www.vincenzomessina.eu

twitter: @vincemessina


Sulla strada di un data center “agile”: dieci considerazioni su come sta cambiando l’automazione dei data center

ottobre 8, 2010

Ridurre i costi e migliorare la qualità dei servizi. Raggiungere contemporaneamente questi due obiettivi nell’IT richiede l’implementazione di una amministrazione dinamica e basata su policy che, mediante l’unificazione e semplificazione della gestione di tutte le risorse del data center, abiliti un uso consistente e ottimizzato degli asset. E’ così che CA sta implementando la seconda ondata dell’automazione dei data center e spiega come in dieci punti.

La nuova generazione di soluzioni di automazione dei data center…

  1. . . verifica che l’IT rifletta la strategia aziendale.

Gli strumenti di automazione creano un quadro di riferimento per arrivare ad operazioni IT altamente efficienti in quanto personalizzate per soddisfare esigenze guidate dal business. Essi forniscono, in tempo reale, informazioni dettagliate sul carico di lavoro, le prestazioni, la disponibilità e l’utilizzo degli asset fisici e virtuali necessari alle applicazioni e ai processi. A seconda del carico di lavoro misurato, le attività sono assegnate automaticamente da un motore di regole basate su policy. Questo processo è compiuto senza ritardo, e sempre con un occhio alle priorità aziendali.

  1. . . supera la tradizionale mentalità per “silos”

La nuova generazione di strumenti di automazione dei data center, diversamente da quelli tradizionali, non si limita a un singolo aspetto, come le prestazioni o la disponibilità. Piuttosto integra i sistemi multi-piattaforma, tra cui quelli per la configurazione e la gestione dei cambiamenti, per la gestione delle prestazioni, dei servizi di provisioning, del monitoraggio e lo stato, all’interno di una prospettiva unitaria, con un unico strumento di gestione. Pertanto, la standardizzazione e la semplificazione dei sistemi costituisce il fondamento per una maggiore efficienza ed automazione del data center.

 

  1. . . incorpora le tecnologie di virtualizzazione.

La nuova generazione di strumenti unifica e semplifica la gestione delle risorse all’interno di una infrastruttura IT nel data center, siano esse fisiche o virtuali. Con l’aiuto di questi strumenti, il personale IT può osservare e controllare più da vicino il carico e le prestazioni degli asset. Integrare concetti di virtualizzazione evita il rischio di gestire mondi isolati.

 

  1. . . verifica la continuità del servizio.

La capacità di osservare le prestazioni e il carico di lavoro per l’intero data center, con granularità al livello di ogni singolo server o macchina virtuale, innalza la qualità della disponibilità del servizio. Questo è dovuto al fatto che il personale IT può applicare le misure correttive per le potenziali interruzioni di servizio senza indugio. In tal modo la continuità delle attività è pienamente garantita.

  1. . . offre una maggiore agilità.

Gli strumenti di amministrazione tradizionali nei data-center operano staticamente ed è per questo difficile reagire rapidamente alle mutevoli esigenze aziendali. La nuova generazione di strumenti introduce maggiore flessibilità nella regolazione dell’infrastruttura IT, anche in ambienti sofisticati e altamente automatizzati. Le applicazioni e le risorse possono essere aggiornate in tempo reale per far fronte al mutare delle condizioni.

  1. . . limita le potenziali fonti di errori

Molte delle attività di amministrazione sono ad alta intensità di lavoro. Ciò si può facilmente tradurre in errori e incongruenze. Inoltre, le interdipendenze tra le applicazioni e le risorse sono molteplici ed estremamente complesse. I nuovi strumenti di automazione aiutano a rivelare le fonti potenziali di errori, come ad esempio problemi di configurazione, e può neutralizzarle fin dall’inizio. Inoltre, essi monitorizzano automaticamente il rispetto delle norme e dei regolamenti.

  1. . . crea spazio per attività strategiche

I nuovi strumenti automatizzano le attività di routine, come aggiornare la pianificazione, la gestione della configurazione, la gestione delle patch, il mantenimento della conformità con i regolamenti e le schedulazioni delle operazioni IT. Le organizzazioni IT – in genere a corto di personale – sono così liberate dalla necessità di dedicare risorse allo svolgimento di compiti di routine ma piuttosto ad attività che contribuiscono maggiormente al successo aziendale.

  1. . . supporta le iniziative di energia verde nell’IT.

Le modalità di presentazione e di interpretazione della domanda di carichi di lavoro e consente al personale IT di allocare le risorse in modo ottimizzato ma sempre in modo da poter gestire senza rischio i picchi della domanda. Di conseguenza, il consumo di energia, di condizionamento d’aria e di spazio possono essere ridotti al minimo . In altre parole, i data center diventano più sostenibili e rispettosi dell’ambiente. L’EPA (U.S. Environmental Protection Agency), nel suo rapporto sull’efficienza dei data center, presentato al Congresso degli Stati Uniti nel luglio 2007, ha calcolato che, per ogni server standard che viene spento, si realizza in media un risparmio annuale di 12,5 tonnellate di emissioni di CO2. Ciò equivale alla quantità di CO2 assorbita da 55 alberi nel corso di un anno.

  1. . . pone le basi per verificare la gestione del ciclo di vita dei servizi IT.

La nuova generazione di soluzioni per l’automazione dei data center agisce in maniera simile a quella di un gestore di gestori di risorse. Queste soluzioni supportano tutte le misure necessarie al fine di avviare e migliorare un servizio IT o rimuoverlo dal funzionamento. Il provisioning e il bilanciamento delle risorse disponibili – dinamico, in tempo reale, e basato su policy – permette all’organizzazione IT di migliorare l’erogazione dei servizi e di soddisfare quindi le esigenze del business.

  1. . . rende una realtà la gestione efficace dei costi a lungo termine.

Poter gestire l’allineamento e l’utilizzo delle risorse disponibili nella prospettiva delle esigenze di business delle imprese, aiuta i responsabili dell’IT a fare la cosa giusta e a farla bene. Il risultato è un elevato livello di efficienza e di efficacia che produce risparmi sui costi di investimento e sui costi operativi nel data center.

http://www.vincenzomessina.it

twitter: @vincemessina

I data center diventano adulti

ottobre 8, 2010

L’adolescenza segna la conquista di una nuova autonomia per gli esseri umani.

Certo, i giovani hanno imparato tante cose nel corso dei loro primi anni di vita, ma con l’adolescenza cominciano a non dipendere più dai genitori e si affrancano dal dover essere sempre portati per mano: cominciano a non condividere tutti i week end con i genitori, formano le proprie personali opinioni sulla società, sulla politica, sull’amore ecc.

In altre parole, diventano adulti.

La chiave di questa trasformazione è la conquista di una sempre maggiore indipendenza e autonomia.

Nei datacenter sta succedendo lo stesso.

Essi sono in grado di fare una enormità di cose a supporto del business ma la loro stessa esistenza è stata finora condizionata da una serie di decisioni e di operazioni manuali che implicavano una elevata dipendenza dall’intervento di chi ne doveva avere cura.

Con la nuova ondata di automazione, supportata anche dall’avvento prepotente della virtualizzazione, l’esperienza del’uomo di trasferisce finalmente ai computer che diventano in grado di operare in modo sempre più autonomo e coerente a fronte delle diverse e mutevoli esigenze operative.

Finora l’automazione era confinata a semplici e ripetitive operazioni impostabili secondo schemi prestabiliti negli strumenti di schedulazione.

Oggi siamo in grado di affiancare a tali schemi semplici la possibilità di creare ed eseguire carichi di lavoro in modo dinamico e legato a diversi eventi estemporanei che partano sia dalle condizioni operative sia direttamente dal business. Siamo in grado di definire, eseguire e tracciare processi sempre più complessi che comportano decisioni su come far cooperare diversi servizi elementari pre esistenti, emulando quanto doveva finora essere interpolato da operazioni e decisioni umane. Possiamo infine operare sull’intero datacenter in modo da eseguire, in modo automatico e secondo le politiche di gestione desiderate, tutte le operazioni di aggiustamento della potenza elaborativa secondo le esigenze operative, creando nuove macchine virtuali che supportino i carichi di lavoro dinamici, eliminando quelle ormai inutilizzate, regolando il numero di server virtuali e fisici attivi in funzione delle reali esigenze di elaborazione e in modo da tenere sempre al minimo i consumi energetici.

Tutte le funzioni di automazione (IT Process Automation, Workload Automation, Datacenter Automation), sono oggi in grado di cooperare l’una con l’altra e, ad esempio, il monitoraggio delle prestazioni a fronte di carichi di lavoro dinamici può innescare in modo automatico la creazione di nuova potenza elaborativa mediante i servizi di provisioning automatico e sfruttando processi predefiniti che facciano da collante alle operazioni dei diversi struemnti di rilevazione, esecuzione e tracciamento coinvolti.

Si sollevano così gli operatori da tutte le operazioni esecutive consentendo loro di concentrarsi su quelle ben più importanti di verifica e di definizione delle politiche di gestione.

http://www.vincenzomessina.com

Blogged with the Flock Browser

SaaS sconfigge la depressione Allacciate le cinture di sicurezza!

ottobre 8, 2010

il terreno dell’economia si è fatto accidentato. Vincenzo Messina, Senior Solution Strategist ci dice come il Software come servizio (SaaS) può aiutare a conseguire risparmi sui costi, liberare le scarse risorse IT, accelerare lo sviluppo dell’Enterprise IT Management (EITM) e l’implementazione delle strategie aziendali.

Il vento della recessione è arrivato. Non c’è dubbio che la domanda mondiale di beni e servizi sia caduta rapidamente. Basta sintonizzarsi su un qualunque notiziario per sentire parlare di previsioni al ribasso, rallentamento della crescita, domanda di posti di lavoro in calo, borsa in zona rossa. E’ quindi raro trovare soluzioni che godano di una crescita palese e strategie aziendali che vivano un successo senza precedenti in un clima economico preoccupante. Si presenta in varie forme – ‘on demand’, ‘multi-tenant’, e ‘computing cloud’, per esempio – ma il termine più comune è ‘Software as a Service’ (SaaS). Comunque lo si voglia intendere, le applicazioni SaaS vengono eseguite sui server del provider SaaS, il quale ne gestisce l’accesso, la sicurezza, la disponibilità e le prestazioni.

Secondo IDC, SaaS diverrà un affare da 15 miliardi di dollari entro il 2012, al passo del 30% Compound Annual Growth Rate (CAGR) per i prossimi cinque anni. Uno studio di Forrester Research indica che i fornitori di SaaS battono la depressione economica con una crescita a due cifre delle entrate per le sottoscrizioni dei servizi offerti. Qual’è il mistero? Perché SaaS ha catturato la nostra immaginazione in un momento in cui i bilanci sono stati tagliati in tanti altri settori di IT?

La risposta è nel nome. SaaS è un modello di sfruttamento del software che dà alle imprese una maggiore flessibilità nel modo in cui distribuire, eseguire e finanziare le applicazioni. Molte organizzazioni non vogliono – o mancano delle risorse – per gestire una infrastruttura IT onerosa e non hanno il personale per mantenere nuove applicazioni per la gestione. Ora, ci si può collegare e abbonarsi ai servizi erogati attraverso una infrastruttura costruita per la condivisione tramite Internet. Quindi, perché le organizzazioni sono così entusiaste al riguardo?

In primo luogo, le applicazioni SaaS sono disponibili da qualsiasi computer connesso a Internet o da qualsiasi dispositivo e in qualsiasi momento, ovunque. Poiché la maggior parte delle persone hanno familiarità con l’uso di Internet per trovare ciò di cui hanno bisogno, le applicazioni SaaS tendono ad avere elevati tassi di adozione, con una curva di apprendimento inferiore. La seconda ragione – particolarmente pertinente nel clima economico attuale – è che le applicazioni SaaS sono basate sulla sottoscrizione di un abbonamento. Nessun costo di licenza significa costi iniziali inferiori. Avere il fornitore SaaS a gestire l’infrastruttura IT significa ridurre i costi IT per l’hardware, il software, e il numero di persone necessarie a gestire il tutto.

In terzo luogo, poiché il fornitore SaaS gestisce tutti gli aggiornamenti e la manutenzione, per i clienti non ci sono patch da scaricare o installare. Il fornitore SaaS gestisce anche la disponibilità, per cui non c’è bisogno di aggiungere hardware, software, o larghezza di banda al crescere degli utenti da servire. Infine, si può scalare senza limitazioni per soddisfare le richieste dei clienti. Molti fornitori di SaaS offrono anche funzionalità di personalizzazione per soddisfare esigenze specifiche. Inoltre, sono molti a fornire API che permettono di integrarsi con i sistemi ERP esistenti o con altri sistemi di produttività aziendale.

Un buon modo per capire il modello SaaS è pensare a come agisce una banca, che protegge la privacy di ogni singolo cliente ed eroga servizi affidabili e sicuri su vasta scala. In una banca, i clienti utilizzano tutti la stessa tecnologia e gli stessi sistemi finanziari, senza la preoccupazione che estranei accedano ai loro dati personali senza autorizzazione.

SaaS è la risposta a tutto ciò?

E’ quindi SaaS il miglior meccanismo in assoluto per utilizzare il software in ogni scenario? Probabilmente no. Per alcuni settori, iI modello “in casa” ha più senso, ad esempio, i sistemi di fatturazione utilizzati da fornitori di servizi di telecomunicazioni, o l’autenticazione degli utenti e il controllo degli accessi per gli ambienti mainframe. Inoltre, in alcuni segmenti di mercato, possono essere individuati anche modelli alternativi (né SaaS, né “in casa”) più adeguati.

Qualunque sia lo scenario, SaaS si sta comunque espandendo anche al di là della nicchia delle premesse iniziali di basso costo, facilità di implementazione, e sta diventando un importante motore per il “business computing” completamente integrato con le architatture complessive delle imprese. SaaS è in crescita a livello mondiale, con una crescente focalizzazione su applicazioni core quali la gestione delle risorse finanziarie e umane, dei sistemi di gestione dei “record”, non solo sulle applicazioni con cui è partita, più facilmente immaginabili cone esternalizzabili, quali ad esempio CRM, Sales Force Automation e piattaforme di collaborazione.

Per l’implementazione della strategia di Enterprise IT Management (EITM), SaaS offre un modo alternativo flessibile per ottenere dall’IT valore di business. EITM aiuta i dipartimenti IT, sotto pressione per essere più rispondenti ai requisiti di business e migliorare la qualità del servizio, ma anche per ridurre i costi, gestire il rischio in modo più efficace, e garantire la conformità normativa e allineare meglio gli investimenti IT con le priorità aziendali. Le suite integrate di offerte basate su SaaS riducono il tempo necessario a raggiungere tutti questi obiettivi. Ad esempio, il nuovo CA Clarity PPM on demand consente alle imprese di ottenere rapidamente la visibilità necessaria per migliorare la gestione del portafoglio, della domanda e dei progetti. Il risultato? Attuazione più rapida e costi da anticipare subito più ridotti.

Si tratta certamente di tempi difficili. CIO e responsabili IT sono messi sempre più sotto pressione da parte delle unità di business per fornire tecnologia utilizzabile più velocemente. In un contesto di mercato lento, le imprese non possono permettersi di attendere 18 mesi prima che uno sviluppo software sia rialsciato. SaaS è una alternativa flessibile che si traduce in velocità, facilità di implementazione, nessun investimento in conto capitale e un rapido ROI. Un modello costruito attorno alle esigenze degli utenti, non del software.

http://www.vincenzomessina.it

twitter: @vincemessina

Cosa occorre per un utilizzo maturo della virtualizzazione?

ottobre 8, 2010

I sistemi di virtualizzazione, a dispetto del nome e dell’idea di base che li unifica, non aderiscono ad alcuno standard: ogni fornitore ne da una sua interpretazioni con funzionalità e caratteristiche diverse. La sfida è quella di avvicinarsi al modello ideale di virtualizzazione dove le piattaforme hardware perdono di interesse, diventano commodity e quindi intercambiabili, e gli oggetti fisici diventano software, privi di “peso”, e possono essere creati, modificati, spostati e distrutti senza muovere un dito. L’ostacolo che rimane è proprio quello delle piattaforme di virtualizzazione che non offrono funzionalità omogenee e creano a loro volta dei silos. Prima o poi, la storia lo insegna, queste divisioni cadranno. Nel frattempo, lo sforzo di CA, è quello di fornire funzionalità che omogeneizzino la gestione degli ambienti virtuali indipendentemente dal vendor.

http://www.vincenzomessina.it

la virtualizzazione consente ottimizzazioni d’uso dei sistemi e riduzioni di costo?

ottobre 8, 2010

La virtualizzazione, pur costituendo un potente fattore abilitante per l’ottimizzazione e la flessibilità dei data center, non è di per sè garanzia del raggiungimento di questi obiettivi. La sua “facilità” fa dimenticare che siamo noi a dover gestire la tecnologia, non il contrario. Nessun pilota si sognerebbe di guidare una moderna monoposto con i comandi ed il cruscotto di una vettura d’epoca ma oggi spesso si gestiscono ambienti complessi,  sofisticati e ricchi di automatismi con gli strumenti di ieri rinunciando così a tenerli sotto controllo. Evoluzione significa per noi stare al passo con tutte le tecnologie di virtualizzazione tenendo conto anche delle problematiche che esse introducono. vincenzomessina.com

Blogged with the Flock Browser