digitale, ecommerce, enterprise, Formazione, Google, Imprese 2.0, ISTAT, Marketing, Pubblica Amministrazione, Social Network, Web 2.0, Wordpress, YouTube

Nuovo algoritmo di Google. Come aggiornare i siti? Adattare al mobile friendly con design responsivo.

Da circa un mese Google ha cambiato la classificazione delle ricerche. Cosa cambia? Come migliorare i siti di imprese, professionisti, agenzie, enti ed organizzazioni? 

Mobilegeddon algoritmo Google 2015 - mobile friendly

Gli effetti del nuovo algoritmo andrebbero considerati prima possibile. Infatti, nei risultati di ricerca, cambia il posizionamento di tutti i siti web .

Il cambiamento premi i siti mobile friendly, cioè costruiti e sviluppati con design responsivo. Vuol dire che Google ritiene più validi i siti con grafica adattiva, capaci di adeguarsi automaticamente al dispositivo con i quali vengono visualizzati.

L’adattamento vale per tablet, smartphone, cellulari, web tv. Perciò, per non retrocedere indietro nelle pagine dei risultati di ricerca, ogni sito dovrebbe essere aggiornato ed ottimizzato. Google, attraverso l’agente mobile Googlebot, scansiona il web tutti i giorni e aggiorna i propri data center una volta al mese.

Come migliorare l’efficacia dei siti web?

Per prima cosa abbandonare senza remore i siti realizzati in Flash. Poi fare attenzione la lettura avvenga in modo automatico, cioè senza uso di zoom. Eliminare plug-in obsoleti. Poi, studio baroni suggerisce queste 5 cose.

  1. Fare il test di verifica ottimizzazione con lo strumento online gratuito fornito da Google. Il test analizza il tuo indirizzo URL del sito e ti segnala subito se la pagina associata è ottimizzata per dispositivi mobili www.google.com/webmasters/tools/mobile-friendly.
  2. Pubblicare spesso contenuti, cioè rendere vivo il sito e passare a tecnologie digitali più efficaci, come ad esempio WordPress. Standard web 2.0 e usabilità sempre aggiornati, anche per il nuovo algoritmo di Google. A prezzi convenienti offre molte possibilità di personalizzazione.  Gestione contenuti agile, intuitiva, semplice da utilizzare.
  3. Scegliere agenzie web valide ed affidabili, nonché aggiornarsi con un rapido Corso di Formazione base web 2.0Creare e coltivare la propria rete di relazioni digitali mettendo in coordinamento i propri account nei social network come ad esempio facebook, YouTube, slideshare, Instagram e twitter.
  4. Consultare la Guida Google per la “Visualizzazione ottimale del sito su dispositivi mobili”. Utile per principianti o esperti, contiene una serie di informazioni per realizzare un sito perfetto per i visitatori che utilizzano dispositivi mobili.
  5. Consultare la Guida Google “Usabilità sui dispositivi mobili” .Contiene chiare spiegazioni. Ad esempio come un’area di visualizzazione si adatta alle dimensioni dello schermo del dispositivo e come i contenuti vanno fatti scorrere all’interno della visualizzazione.

Perché Google ha scelto di cambiare?

Il motivo è molto semplice, i dati del report annuale di wearesocial.it parlano chiaro. Da questo grafico si può notare che il traffico da dispositivi mobile sta crescendo in modo esponenziale:

statistiche 2015 crescita globale dati mobile - infografica by wearesocial

Gli utenti web si collegano alla rete con i dispositivi mobili hanno raggiunto livelli importanti e i dati sono in costante ascesa:

statistiche 2015 utilizzo di internet da fisso e mobile - infografica by wearesocial

Le persone connesse alla rete acquistano sempre più tramite i dispositivi mobili:

statistiche 2015 e-commerce da fisso e mobile - infografica by wearesocial

Pubblica Amministrazione e mobile friendly.

La Pubblica Amministrazione italiana è al passo con i tempi che cambiano? A quanto sembra c’è ancora molto da fare e in fretta per recuperare il divario con le altre amministrazioni europee.

Secondo i dati ISTAT disponibili, per quanto riguarda le dotazioni tecnologiche ci sono divari dimensionali e organizzativi. Per i comuni di grandi dimensioni le tecnologie mobili come tablet, smartphone e netbook sono usate nel 70% dei territori. Appena 8% nei piccoli comuni. Basso anche il livello dei dipendenti che utilizzano  dispositivi mobili in servizio.

Modulo online per richieste su questo argomento:

digitale, Eventi, Formazione, Innovazione, ISIPM, ISTAT, Partecipazione, Project Manager, Pubblica Amministrazione, Ricerca, Sistemi gestionali, Società della Conoscenza, Università Tor Vergata

Portfolio Management ICT Pubblica Amministrazione – Eventi ISIPM 2015

“Il Portfolio Management nell’ICT della Pubblica Amministrazione” è un interessante evento di ISIPM che si terrà a Roma il prossimo 21 Aprile.

Conferenza by www.isipm.org presso l’SGM Conference Center. Previa richiesta di iscrizione la partecipazione è libera e gratuita. 

banner Portfolio Management ICT della  PA Pubblica Amministrazione by ISIPM 2015

download PDF

Locandina Conferenza “Il Portfolio Management ICT della PA Pubblica Amministrazione” by ISIPM 2015

L’ICT della Pubblica Amministrazione è un fattore determinante per l’ampliamento ed il miglioramento dei servizi resi (a cittadini, imprese ed alla PA stessa), oltre che per il contenimento della spesa. Attraverso gli approcci adottati, ed i conseguenti risultati ottenuti nelle Direzioni ICT di due importanti Amministrazioni si cercherà di capire come possano essere uno stimolo per l’applicazione anche in altri contesti, sia pubblici che privati.

A tutti i partecipanti verrà rilasciato un attestato valido 4 CFPM – Crediti Formativi di Project Management (I crediti di ISIPM sono validi come CFRP per gli iscritti all’Associazione Professionale ASSIREP e come PDU del PMI Cat. A).

Sul sito di ISIPM è disponibile il follow-up  dell’evento Identificazione ed Analisi degli Stakeholder: Aspetti di Gestione della Complessità, tenutosi lo scorso 26 marzo presso l’Università di Tor Vergata.

Ambiente, BES, CNEL, green economy, ISTAT, Statistiche

Green Economy – Rapporto 2013

new green deal italia studio baroniDopo il Decalogo proposto all’ultima edizione degli Stati Generali sulla Green Economy,  lo scorso 27 febbraio è stato presentato a Roma il Rapporto sulla Green Economy 2013 “Un Green New Deal per l’Italia”. 

Nel Rapporto, curato dalla Fondazione per lo Sviluppo Sostenibile e dall’ENEA, viene dato spazio al progetto BES (Benessere Equo e Sostenibile) sviluppato dall’ISTAT con il CNEL recentemente arricchito con la pubblicazione di un nuovo rapporto sulle città.

 

.

.

Fonte documento: www.ilsole24ore.com

Ambiente, Innovazione, ISTAT, Pubblica Amministrazione, Sanità

Oltre il PIL (Prodotto Interno Lordo) c’è il bes (benessere equo e sostenibile)

BES 2013 Benessere Equo e Sostenibile CNEL ISTAT 12 dimensioni logoISTAT e CNEL, Consiglio Nazionale dell’Economia e del Lavoro, hanno recentemente introdotto il bes. Sono indicatori del benessere equo e sostenibile che consentono di misurare il progresso della società oltre il PIL, Prodotto Interno Lordo.

Il bes parte dal presupposto che il progresso di una società è solo di carattere economico. Ecco le 12 dimensioni del bes basate su un set di 134 indicatori:

  1. Salute
  2. Istruzione e formazione
  3. Lavoro e conciliazione tempi di vita
  4. Benessere economico
  5. Relazioni sociali
  6. Politica e istituzioni
  7. Sicurezza
  8. Benessere soggettivo
  9. Paesaggio e patrimonio culturale
  10. Ambiente
  11. Ricerca e innovazione
  12. Qualità dei servizi

Nel sito www.misuredelbenessere.it sono disponibili strumenti d’informazione sul progetto per consente a cittadini, istituzioni, centri di ricerca, associazioni, imprese di contribuire a definire “che cosa conta davvero per l’Italia”.

download PDFBES 2013 Benessere Equo e Sostenibile CNEL ISTAT

Comunicazione, digitale, Google, Innovazione, ISTAT, Social Network, Statistiche, Web 2.0, wikipedia

Il successo di un sito web? Non solo una questione di traffico: i casi Istat, SIS e Sistan

(Articolo di Daniele Frongia tratto da www.sis-statistica.it)

Il posizionamento e il successo di un sito

Come si analizza il successo o l’insuccesso di un sito web o un blog? Esistono numerosi software per l’analisi del traffico di un sito che si basano, prevalentemente, sul numero dei visitatori. Questi strumenti offrono una serie di informazioni come il numero di visitatori, le pagine più visitate, il tempo di permanenza medio, le pagine che attraggono il maggior numero di clic iniziali, o finali, le parole chiave utilizzate per arrivare al sito e l’analisi della distribuzione dei visitatori per provenienza geografica.

Ma è corretto dire che il successo di un sito è una funzione del solo numero di visitatori? Una nuova generazione di strumenti offre oggi l’opportunità di misurare il successo di un sito tenendo meglio conto della sua natura multidimensionale. In particolare possiamo vedere il successo di un sito in funzione, oltre che del traffico, anche del suo posizionamento nella rete [] ovvero della sua solidità di carattere “infrastrutturale”. Il posizionamento è dunque uno dei presupposti per un successo solido e duraturo del sito.

Se da un lato possiamo affermare che il successo di un sito è funzione del traffico e del suo posizionamento, dall’altro non possiamo pensare che la misura di tale successo sia completamente determinabile: il successo è infatti di natura prevalentemente soggettiva, e il dibattito al riguardo è in continua evoluzione. In questo articolo non proporremo quindi alcuna sintesi di questi due fattori per produrre un unico indice del successo.  Tratteremo invece più specificamente il posizionamento: l’aggiunta di questa dimensione di analisi è un aiuto concreto per migliorare la corrispondenza fra misurazione e percezione.

Possiamo descrivere il posizionamento con una metafora: mentre le classiche analisi quantitative sul traffico ci dicono quanti sono e cosa fanno gli ospiti nella nostra casa, l’analisi del posizionamento prova a dirci come e dove è situata la casa, se è in centro o in periferia, se è collegata ad altre strutture, se è così importante e ben vista da influenzare il vicinato (guarda che bel portone, lo voglio anch’io) e così via.

L’analisi del posizionamento fornisce inoltre indicazioni utili per confrontare siti di categorie diverse (se repubblica.it ricevesse 100.000 visite al giorno sarebbe un flop; di contro, un sito altamente specialistico, ben posizionato e con 1000 visite al giorno sarebbe un successo strepitoso) e su sottoreti specifiche, come vedremo nell’ultimo paragrafo, con risultati più puntuali e significativi. In questo articolo definiamo quindi un sito ben posizionato (o centrale) come influente e rilevante nella rete.

Primi metodi di misura del posizionamento

Per definire meglio il posizionamento occorrono due brevi premesse teoriche: il sistema di punteggio assegnato da Google alle pagine web e i recenti studi sulle reti complesse.

Google PageRank (PR). Google assegna a ciascuna pagina  presente nel suo database un proprio punteggio, il PageRank, che consiste in un numero compreso tra 0 e 10, calcolato sulla base di numerose variabili.

Basato sullo specifico carattere “democratico” del Web, PageRank sfrutta la vastissima rete di collegamenti associati alle singole pagine per determinarne il valore. In pratica, Google interpreta un collegamento dalla pagina A alla pagina B come un “voto” espresso dalla prima in merito alla seconda. Tuttavia, non si limita a calcolare il numero di voti, o collegamenti, assegnati a una pagina. Oltre a effettuare questo calcolo, Google prende in esame la pagina che ha assegnato il voto. I voti espressi da pagine “importanti” hanno più rilevanza e quindi contribuiscono a rendere “importanti” anche le pagine collegate. PageRank assegna ai siti Web importanti e di alta qualità un “voto” più elevato di cui Google tiene conto ogni volta che esegue una ricerca. (Google)

Google PageRank

Analisi delle reti complesse. L’analisi delle reti nasce nel Settecento con il problema dei ponti di Eulero, padre della teoria dei grafi. Da allora l’analisi è stata prevalentemente usata per le reti sociali, con i primi studi di Huber (1802), passando poi per Comte, Galton, Watson, LeBon, Simmel, Marconi (il primo a parlare dei sei gradi di separazione), Moreno e così via dal dopoguerra in poi, con il contributo di molti sociologi e matematici. L’analisi delle reti sociali (social network analysis) ha trovato pieno consolidamento negli anni ’70 per poi trarre nuova linfa dagli studi dei fisici, primi tra tutti quelli di Barabási e della sua equipe alla fine degli anni ‘90. Uno dei risultati più importanti del lavoro di Barabási è l’aver individuato un tratto comune in tutte le reti complesse (WWW, Internet, neuroni-dendriti del cervello, catene alimentari, alleanze aziendali ecc.): la distribuzione del numero di link ricevuti da parte di un nodo segue una legge di potenza. Come noto, infatti, leggi di potenza ricorrono nella distribuzione di probabilità di numerosi fenomeni tra cui il numero di collegamenti ai siti web: le pagine web che ricevono moltissimi link sono pochissime, mentre sono moltissime quelle che ne ricevono zero o uno. 

Legge di potenza

Dunque anche per il PR, che è direttamente proporzionale a numerose variabili tra cui i link in entrata, può essere fatto un discorso analogo. Il punteggio in decimi del PR non va dunque inteso come quello scolastico: la stragrande maggioranza delle pagine ha infatti un PR pari a 0, il valore 3 è già un risultato discreto, 5 è molto buono mentre valori più alti sono generalmente raggiunti da un ristretto sottoinsieme di ottimi blogger, siti di grandi imprese o enti pubblici, oltre che, ovviamente, da giganti come GoogleMicrosoftWikipedia. I siti elitari così ricchi di link e con un alto PR sono chiamati hub.

Per Google il PR è un indicatore necessario e sufficiente a dare un’indicazione del posizionamento. Ma oltre al PR, quali altri indicatori è possibile utilizzare per misurare il posizionamento?

E’ possibile, ad esempio, considerare i seguenti indicatori (il cui contributo è assente o presente in modo marginale nel PR):
- Yahoo backlink: numero di collegamenti ipertestuali indicizzati da Yahoo alle pagine del sito;
- Wikipedia: numero collegamenti esterni negli articoli di Wikipedia alle pagine del sito;
- Delicious: numero segnalibri Delicious in cui viene citato il sito;
- DMOZ: numero collegamenti DMOZ in cui viene citato il sito;
- Twitter: numero tweet di Twitter in cui viene citato il sito;
- Digg: numero articoli su Digg in cui viene citato il sito.

Un sito che presenta valori alti di questi indicatori è ben posizionato nella sua categoria: i suoi contenuti sono sulla bocca di tutti, esso viene “ascoltato”, può influenzare altri siti, insomma è un attore che gode di una posizione (meritatamente) privilegiata nella rete.

Una misura del posizionamento può essere calcolata mediante un’opportuna sintesi di questi indicatori. Vediamo, in pratica, come è possibile procedere.

SIS, Sistan e Istat a confronto

Confrontiamo tre siti che si occupano di statistiche ufficiali e di promozione delle scienze statistiche: l’Istituto Nazionale di Statistica (www.istat.it), il Sistema Statistico Nazionale (www.sistan.it) e la Società Italiana di Statistica (www.sis-statistica.it).

In generale è possibile definire delle misure sintetiche per ciascun sito, seguendo opportune metodologie, ciascuna delle quali prevede la normalizzazione, la standardizzazione e infine l’aggregazione degli indicatori elementari. In questo caso applichiamo il Mazziotta Pareto Index (MPI), un indice sintetico nato in Istat che sopperisce ai fenomeni di compensazione tra indicatori e che varia tra 70 e 130. Per costruire l’indicatore si utilizza una funzione di aggregazione basata sulla non sostituibilità dei caratteri; in questo caso si ritiene infatti che gli indicatori elementari scelti siano egualmente importanti ai fini della valutazione del posizionamento. In particolare, per l’MPI presentato nel prospetto seguente, sono stati presi in considerazione solo il PR e i primi due indicatori (Yahoo e Wikipedia), dal momento che i servizi Delicious, Twitter, DMOZ e Digg sono ancora poco diffusi in Italia.

Per il calcolo del MPI sono stati utilizzati solo i primi tre indicatori. Dati rilevati il 13/09/2009.

Questi risultati indicano che i siti considerati possiedono contenuti di qualità, pertinenti al mondo della statistica ufficiale e che godono di una discreta centralità nella rete. Tuttavia, in un’analisi comparata con altri istituti di statistica europei, la posizione dell’Istat, così come quella della SIS e del Sistan, è certamente migliorabile.

Nuovi metodi di misura del posizionamento

L’approccio precedente presenta alcuni punti deboli tra cui la soggettività della scelta degli indicatori e il fatto che non siano indipendenti. Per queste ragioni, in alternativa, possono essere presi in considerazione nuovi metodi come ad esempio il Coolhunting for Trends on the Web del MIT, che consente di misurare e monitorare il posizionamento di marche, blog o siti sul Web con un approccio basato sia sui database di Google che sulle classiche misure di centralità della social network analysis. L’obiettivo di questo paragrafo è di fornire una prima presentazione di CONDOR, lo strumento software sviluppato nell’ambito progetto del MIT, rispetto ad alcuni risultati ottenuti mediante l’analisi del sito dell’Istat. CONDOR  consente di rappresentare e analizzare le sottoreti tematiche di un sito, ovverosia il sottoinsieme del Web dove il sito viene citato. Di seguito è riportata la blogosfera di riferimento dell’Istat, e cioè l’insieme dei blog dove l’istituto viene citato attraverso un collegamento ipertestuale e i blog ad essi connessi da al più tre gradi di separazione:

Blogosfera Istat.it nel periodo 1-20 settembre 2009
(analisi di Francesca Grippa – UNILE e Daniele Frongia – Istat)

In questo caso l’analisi del posizionamento di un sito può fornire ulteriori informazioni circa le porzioni del Web dove si possono raccogliere e analizzare importanti feedback sul proprio operato e sulla propria immagine.

In conclusione, per l’analisi di un sito occorre tenere in considerazione due fattori: il traffico e il posizionamento nella rete. In questi ultimi anni gli studi di fisici, matematici e sociologi stanno contribuendo a definire nuovi metodi e strumenti per l’analisi del posizionamento. L’argomento non è ancora pienamente maturo ma le potenzialità e le prospettive sono estremamente interessanti, anche per chi produce statistiche ufficiali e diffonde cultura statistica.

Per saperne di più

Analisi delle reti

Freeman L.C. (2007) Lo sviluppo dell’analisi delle reti sociali. Uno studio di sociologia della scienza, FrancoAngeli, Milano

Hanneman R.A., Riddle M. (2005) Introduction to social network methods, University of California, USA

Barabási A.L. (2004) Link. La scienza delle reti, Einaudi, Torino

Frongia, D. (2008), Intervista a Ginestra Bianconi sulle reti complesseSegnalazionIT, Roma

Nuovi metodi di misura del posizionamento

Bennato D. (2009) Vox Internet vox dei! Sarà vero? in Internet Magazine n.134 (gennaio), , pp.26-27, Roma

Gloor P., Krauss J., Nann S., Fischbach K., Schoder D. (2008) Web Science 2.0: Identifying Trends through Semantic Social Network Analysis, USA

Mazziotta Pareto Index

Mazziotta M., Pareto A. (2010) Appendice Metodologia in La dotazione di infrastrutture della sanità, Collana Informazioni, Istat, Roma

L’autore

Daniele Frongia (frongia _at_ istat.it)

Daniele Frongia lavora presso l’Istituto Nazionale di Statistica (Istat) dove si occupa di metodi e strumenti Web 2.0. E’ autore del blog http://segnalazionit.org/.

Città, Industria, ISTAT, Ricerca, Statistiche, Unioncamere, Venezia

Venezia in cifre, la CCIAA pubblica il Rapporto statistico 2009

L’Unità Operativa Studi Statistica e Informazione Economica della Camera di Commercio di Venezia ha realizzato l’edizione 2009 di “Venezia in cifre”, un opuscolo sintetico e di facile consultazione che vuole far conoscere, per mezzo di numeri esposti in tabelle e grafici, la realtà demografica, sociale e culturale e le capacità economiche della provincia di Venezia ad un pubblico, anche di “non addetti ai lavori”, interessato alle caratteristiche e all’evoluzione del territorio provinciale.

I dati provengono da diverse fonti statistiche e amministrative, tra le quali il Sistema Statistico Nazionale e il Sistema camerale, e sono organizzati attraverso quattordici temi che trattano i seguenti aspetti della provincia di Venezia: popolazione residente, condizioni di vita, salute e sanità, cultura, istruzione, mondo del lavoro, agricoltura e ambiente, economia, indici dei prezzi, struttura produttiva, flussi commerciali con l’estero, turismo, trasporti, credito e giustizia.

Venezia in cifre 2009 CCIAA

Fonte: http://www.ve.camcom.it

digitale, ISTAT, Ricerca, Web 2.0

ISTAT/annuario statistico 2009

L’Annuario statistico italiano rappresenta la più importante pubblicazione generalista dell’Istituto nazionale di statistica.

Da oltre 130 anni l’Annuario statistico italiano offre infatti un ritratto completo e aggiornato del Paese, a testimonianza dell’ampiezza del patrimonio informativo prodotto dalla statistica pubblica. Oggi anche in una veste grafica moderna ed elegante.

I dati presentati nei 26 capitoli, generalmente riferiti al 2008, sono accompagnati da un confronto sintetico con i quattro anni precedenti.

Tra i dati emerge  che l’uso di Internet e del computer ha visto un trend crescente nel corso degli ultimi cinque anni:

  • Internet dal 31,8% del 2005 al 44,4% del 2009
  • Computer dal 39,9% del 2005 al 47,5% del 2009

L’uso del computer coinvolge soprattutto i giovani tra i 15 e i 19 anni ed è più diffuso tra gli uomini che lo utilizzano nel 52,8% dei casi contro un 42,5% delle donne.

Sito ISTAT:  http://www.istat.it