Città, Economia, Firenze, Imprese 2.0, Innovazione, Jesolo, Marketing, Pubblica Amministrazione, Regioni, Social Network, Statistiche, Torino, Turismo, Venezia, Web 2.0

TURISMO 2.0, tra innovazione e social network

Dati interessanti sul Turismo 2.0: la quota dei turisti che prenotano online è passata dal 41% del 2009 contro il 36% registrato nel 2008 (dati ISNART) e, secondo una ricerca Nielsen, la fiducia dei consumatori sulle opinioni pubblicate online è del 70%.

A questo riguardo, Studio Baroni ha approfondito il tema del Turismo 2.0  e propone le net innovazioni di cinque territori turistici italiani (Venezia, Firenze, Jesolo, Roseto degli Abruzzi e Torino) e sei social network che mettono in rete viaggiatori, agenzie e operatori (Travel Trade, travel people, treboo, cisonostato, TripAdvisor e trivago).

E secondo l’Osservatorio Amadeus, che conferma i dati del settore travel di Google Italy, tra giugno e settembre oltre il 50% degli italiani viaggerà per vacanza prediligendo il mare nel 65-70% dei casi e le spiagge di Sardegna, Sicilia ed Emilia Romagna. Circa il 64% resterà in Italia, il 24,5% andrà in Europa, il 6% nelle Americhe, il 4% in Asia e Pacifico e circa l’1,5% in Africa (compreso il Sudafrica in occasione dei mondiali di calcio).

Amadeus Italia fornisce tecnologie e servizi che soddisfano le esigenze di marketing, vendita e distribuzione per opera nella filiera dei viaggi e del turismo.

Cultura, digitale, Facebook, Giovani, Pedagogia, Social Network, Statistiche

Giovani su Internet più di 2 ore al giorno (ricerca IARD)

I giovani consumano più di 2 ore al giorno su Internet e le attività preferite sono: chat, telefonate con Skype e relazioni nei social network, Facebook in primis.

Sono i dati che emergono dalla nuova ricerca dell’Istituto  IARD RPS di Milano (opera nel campo della ricerca sociale dal 1961)  su un campione di giovani di età compresa tra 18 e i 34 anni dal titolo “Giovani e Comunicazione”.

I temi che interessano ai giovani sono: cronaca, programmi tv, tecnologie interattive, musica e le attività sul web preferite viaggiano su chat, telefonate con Skype, partecipazione ai social network come, Facebook, Twitter.

Gli argomenti meno cliccati:  scuola, università, formazione professionale, volontariato, servizio civile, lavoro, borse di studio, moda, gossip, religione e notizie riguardanti il vissuto sociale e della propria comunità.

Mentre Internet e i siti dei quotidiani sono frequentati tutti i giorni, sono inferiori le frequentazioni per tv nazionali, tv locali, pay tv, stampa locale, radio nazionali e locali, “passaparola”.

Economia, Industria, Regioni, Statistiche, Unioncamere

Economia, tenuta e segnali di ripresa nel Rapporto Unioncamere 2010

Buone notizie per l’economia nel Rapporto Unioncamere 2010 Tenuta, vitalità del sistema imprenditoriale e primi segnali di ripresa.

Il documento redatto dall’Unione delle Camere di Commercio italiane è articolato in sette capitoli:

  1. Performance e strategie delle imprese e dei sistemi territoriali tra il 2009 e il 2010
  2. I fattori competitivi del Sistema Italia alla luce dell’evoluzione del modello di sviluppo economico
  3. L’evoluzione attesa della domanda e le ricadute sulle economie locali
  4. Mercato del lavoro e strategie organizzative delle imprese italiane
  5. Gli immigrati nel mondo del lavoro
  6. Dalla creazione di benessere economico al benessere delle famiglie: alcune evidenze su scala territoriale
  7. Competitività e dinamiche settoriali
Città, Energia, Statistiche, Treviso, Turismo, Veneto

Riparte l’economia a Nordest, crescono domanda di energia e turismo

Primi segnali di crescita dell’economia a Nordest. In aprile, la domanda di energia segna un +5,1% rispetto allo stesso mese del 2009. Gli arrivi turistici della Marca Trevigiana registrano un + 8%.

Nel mese di aprile 2010 la quantità di energia elettrica richiesta in Italia, è risultata in aumento del 3% rispetto ad aprile 2009. Il dato diffuso da Terna assegna al Triveneto il +5,1% che segue il trend di crescita del Nord con Piemonte e Val d’Aosta al +5,5% e la Lombardia in testa al +8,2%.

Riparte anche il turismo, principale punto di forza del Nordest. Il segnale arriva dalla Marca Trevigiana. I primi tre mesi del 2010 hanno fatto registrare un notevole incremento sullo stesso periodo del 2009: +8% sugli arrivi e +4,6% sulle presenze.  Il dato complessivo del Veneto statistiche turismo 2009 aveva fatto emergere un -0,3% sul 2008 (Treviso -12,6%).

I fattori di successo della formula trevigiana sembrano essere la cooperazione territoriale (vedi progetto di sviluppo “Piave TVB”) l’abbinata enogastronomia e cultura. Da segnalare anche l’orientamento strategico dato dalla Provincia di Treviso agli operatori economici finalizzato a “trasformare il turista in un ambasciatore”.

Turismo in Provincia di Treviso statistiche 2009 2010

TERNA statistiche energia aprile 2010

fonti:

Comunicazione, digitale, Google, Innovazione, ISTAT, Social Network, Statistiche, Web 2.0, wikipedia

Il successo di un sito web? Non solo una questione di traffico: i casi Istat, SIS e Sistan

(Articolo di Daniele Frongia tratto da www.sis-statistica.it)

Il posizionamento e il successo di un sito

Come si analizza il successo o l’insuccesso di un sito web o un blog? Esistono numerosi software per l’analisi del traffico di un sito che si basano, prevalentemente, sul numero dei visitatori. Questi strumenti offrono una serie di informazioni come il numero di visitatori, le pagine più visitate, il tempo di permanenza medio, le pagine che attraggono il maggior numero di clic iniziali, o finali, le parole chiave utilizzate per arrivare al sito e l’analisi della distribuzione dei visitatori per provenienza geografica.

Ma è corretto dire che il successo di un sito è una funzione del solo numero di visitatori? Una nuova generazione di strumenti offre oggi l’opportunità di misurare il successo di un sito tenendo meglio conto della sua natura multidimensionale. In particolare possiamo vedere il successo di un sito in funzione, oltre che del traffico, anche del suo posizionamento nella rete [] ovvero della sua solidità di carattere “infrastrutturale”. Il posizionamento è dunque uno dei presupposti per un successo solido e duraturo del sito.

Se da un lato possiamo affermare che il successo di un sito è funzione del traffico e del suo posizionamento, dall’altro non possiamo pensare che la misura di tale successo sia completamente determinabile: il successo è infatti di natura prevalentemente soggettiva, e il dibattito al riguardo è in continua evoluzione. In questo articolo non proporremo quindi alcuna sintesi di questi due fattori per produrre un unico indice del successo.  Tratteremo invece più specificamente il posizionamento: l’aggiunta di questa dimensione di analisi è un aiuto concreto per migliorare la corrispondenza fra misurazione e percezione.

Possiamo descrivere il posizionamento con una metafora: mentre le classiche analisi quantitative sul traffico ci dicono quanti sono e cosa fanno gli ospiti nella nostra casa, l’analisi del posizionamento prova a dirci come e dove è situata la casa, se è in centro o in periferia, se è collegata ad altre strutture, se è così importante e ben vista da influenzare il vicinato (guarda che bel portone, lo voglio anch’io) e così via.

L’analisi del posizionamento fornisce inoltre indicazioni utili per confrontare siti di categorie diverse (se repubblica.it ricevesse 100.000 visite al giorno sarebbe un flop; di contro, un sito altamente specialistico, ben posizionato e con 1000 visite al giorno sarebbe un successo strepitoso) e su sottoreti specifiche, come vedremo nell’ultimo paragrafo, con risultati più puntuali e significativi. In questo articolo definiamo quindi un sito ben posizionato (o centrale) come influente e rilevante nella rete.

Primi metodi di misura del posizionamento

Per definire meglio il posizionamento occorrono due brevi premesse teoriche: il sistema di punteggio assegnato da Google alle pagine web e i recenti studi sulle reti complesse.

Google PageRank (PR). Google assegna a ciascuna pagina  presente nel suo database un proprio punteggio, il PageRank, che consiste in un numero compreso tra 0 e 10, calcolato sulla base di numerose variabili.

Basato sullo specifico carattere “democratico” del Web, PageRank sfrutta la vastissima rete di collegamenti associati alle singole pagine per determinarne il valore. In pratica, Google interpreta un collegamento dalla pagina A alla pagina B come un “voto” espresso dalla prima in merito alla seconda. Tuttavia, non si limita a calcolare il numero di voti, o collegamenti, assegnati a una pagina. Oltre a effettuare questo calcolo, Google prende in esame la pagina che ha assegnato il voto. I voti espressi da pagine “importanti” hanno più rilevanza e quindi contribuiscono a rendere “importanti” anche le pagine collegate. PageRank assegna ai siti Web importanti e di alta qualità un “voto” più elevato di cui Google tiene conto ogni volta che esegue una ricerca. (Google)

Google PageRank

Analisi delle reti complesse. L’analisi delle reti nasce nel Settecento con il problema dei ponti di Eulero, padre della teoria dei grafi. Da allora l’analisi è stata prevalentemente usata per le reti sociali, con i primi studi di Huber (1802), passando poi per Comte, Galton, Watson, LeBon, Simmel, Marconi (il primo a parlare dei sei gradi di separazione), Moreno e così via dal dopoguerra in poi, con il contributo di molti sociologi e matematici. L’analisi delle reti sociali (social network analysis) ha trovato pieno consolidamento negli anni ’70 per poi trarre nuova linfa dagli studi dei fisici, primi tra tutti quelli di Barabási e della sua equipe alla fine degli anni ‘90. Uno dei risultati più importanti del lavoro di Barabási è l’aver individuato un tratto comune in tutte le reti complesse (WWW, Internet, neuroni-dendriti del cervello, catene alimentari, alleanze aziendali ecc.): la distribuzione del numero di link ricevuti da parte di un nodo segue una legge di potenza. Come noto, infatti, leggi di potenza ricorrono nella distribuzione di probabilità di numerosi fenomeni tra cui il numero di collegamenti ai siti web: le pagine web che ricevono moltissimi link sono pochissime, mentre sono moltissime quelle che ne ricevono zero o uno. 

Legge di potenza

Dunque anche per il PR, che è direttamente proporzionale a numerose variabili tra cui i link in entrata, può essere fatto un discorso analogo. Il punteggio in decimi del PR non va dunque inteso come quello scolastico: la stragrande maggioranza delle pagine ha infatti un PR pari a 0, il valore 3 è già un risultato discreto, 5 è molto buono mentre valori più alti sono generalmente raggiunti da un ristretto sottoinsieme di ottimi blogger, siti di grandi imprese o enti pubblici, oltre che, ovviamente, da giganti come GoogleMicrosoftWikipedia. I siti elitari così ricchi di link e con un alto PR sono chiamati hub.

Per Google il PR è un indicatore necessario e sufficiente a dare un’indicazione del posizionamento. Ma oltre al PR, quali altri indicatori è possibile utilizzare per misurare il posizionamento?

E’ possibile, ad esempio, considerare i seguenti indicatori (il cui contributo è assente o presente in modo marginale nel PR):
- Yahoo backlink: numero di collegamenti ipertestuali indicizzati da Yahoo alle pagine del sito;
- Wikipedia: numero collegamenti esterni negli articoli di Wikipedia alle pagine del sito;
- Delicious: numero segnalibri Delicious in cui viene citato il sito;
- DMOZ: numero collegamenti DMOZ in cui viene citato il sito;
- Twitter: numero tweet di Twitter in cui viene citato il sito;
- Digg: numero articoli su Digg in cui viene citato il sito.

Un sito che presenta valori alti di questi indicatori è ben posizionato nella sua categoria: i suoi contenuti sono sulla bocca di tutti, esso viene “ascoltato”, può influenzare altri siti, insomma è un attore che gode di una posizione (meritatamente) privilegiata nella rete.

Una misura del posizionamento può essere calcolata mediante un’opportuna sintesi di questi indicatori. Vediamo, in pratica, come è possibile procedere.

SIS, Sistan e Istat a confronto

Confrontiamo tre siti che si occupano di statistiche ufficiali e di promozione delle scienze statistiche: l’Istituto Nazionale di Statistica (www.istat.it), il Sistema Statistico Nazionale (www.sistan.it) e la Società Italiana di Statistica (www.sis-statistica.it).

In generale è possibile definire delle misure sintetiche per ciascun sito, seguendo opportune metodologie, ciascuna delle quali prevede la normalizzazione, la standardizzazione e infine l’aggregazione degli indicatori elementari. In questo caso applichiamo il Mazziotta Pareto Index (MPI), un indice sintetico nato in Istat che sopperisce ai fenomeni di compensazione tra indicatori e che varia tra 70 e 130. Per costruire l’indicatore si utilizza una funzione di aggregazione basata sulla non sostituibilità dei caratteri; in questo caso si ritiene infatti che gli indicatori elementari scelti siano egualmente importanti ai fini della valutazione del posizionamento. In particolare, per l’MPI presentato nel prospetto seguente, sono stati presi in considerazione solo il PR e i primi due indicatori (Yahoo e Wikipedia), dal momento che i servizi Delicious, Twitter, DMOZ e Digg sono ancora poco diffusi in Italia.

Per il calcolo del MPI sono stati utilizzati solo i primi tre indicatori. Dati rilevati il 13/09/2009.

Questi risultati indicano che i siti considerati possiedono contenuti di qualità, pertinenti al mondo della statistica ufficiale e che godono di una discreta centralità nella rete. Tuttavia, in un’analisi comparata con altri istituti di statistica europei, la posizione dell’Istat, così come quella della SIS e del Sistan, è certamente migliorabile.

Nuovi metodi di misura del posizionamento

L’approccio precedente presenta alcuni punti deboli tra cui la soggettività della scelta degli indicatori e il fatto che non siano indipendenti. Per queste ragioni, in alternativa, possono essere presi in considerazione nuovi metodi come ad esempio il Coolhunting for Trends on the Web del MIT, che consente di misurare e monitorare il posizionamento di marche, blog o siti sul Web con un approccio basato sia sui database di Google che sulle classiche misure di centralità della social network analysis. L’obiettivo di questo paragrafo è di fornire una prima presentazione di CONDOR, lo strumento software sviluppato nell’ambito progetto del MIT, rispetto ad alcuni risultati ottenuti mediante l’analisi del sito dell’Istat. CONDOR  consente di rappresentare e analizzare le sottoreti tematiche di un sito, ovverosia il sottoinsieme del Web dove il sito viene citato. Di seguito è riportata la blogosfera di riferimento dell’Istat, e cioè l’insieme dei blog dove l’istituto viene citato attraverso un collegamento ipertestuale e i blog ad essi connessi da al più tre gradi di separazione:

Blogosfera Istat.it nel periodo 1-20 settembre 2009
(analisi di Francesca Grippa – UNILE e Daniele Frongia – Istat)

In questo caso l’analisi del posizionamento di un sito può fornire ulteriori informazioni circa le porzioni del Web dove si possono raccogliere e analizzare importanti feedback sul proprio operato e sulla propria immagine.

In conclusione, per l’analisi di un sito occorre tenere in considerazione due fattori: il traffico e il posizionamento nella rete. In questi ultimi anni gli studi di fisici, matematici e sociologi stanno contribuendo a definire nuovi metodi e strumenti per l’analisi del posizionamento. L’argomento non è ancora pienamente maturo ma le potenzialità e le prospettive sono estremamente interessanti, anche per chi produce statistiche ufficiali e diffonde cultura statistica.

Per saperne di più

Analisi delle reti

Freeman L.C. (2007) Lo sviluppo dell’analisi delle reti sociali. Uno studio di sociologia della scienza, FrancoAngeli, Milano

Hanneman R.A., Riddle M. (2005) Introduction to social network methods, University of California, USA

Barabási A.L. (2004) Link. La scienza delle reti, Einaudi, Torino

Frongia, D. (2008), Intervista a Ginestra Bianconi sulle reti complesseSegnalazionIT, Roma

Nuovi metodi di misura del posizionamento

Bennato D. (2009) Vox Internet vox dei! Sarà vero? in Internet Magazine n.134 (gennaio), , pp.26-27, Roma

Gloor P., Krauss J., Nann S., Fischbach K., Schoder D. (2008) Web Science 2.0: Identifying Trends through Semantic Social Network Analysis, USA

Mazziotta Pareto Index

Mazziotta M., Pareto A. (2010) Appendice Metodologia in La dotazione di infrastrutture della sanità, Collana Informazioni, Istat, Roma

L’autore

Daniele Frongia (frongia _at_ istat.it)

Daniele Frongia lavora presso l’Istituto Nazionale di Statistica (Istat) dove si occupa di metodi e strumenti Web 2.0. E’ autore del blog http://segnalazionit.org/.

Città, Industria, ISTAT, Ricerca, Statistiche, Unioncamere, Venezia

Venezia in cifre, la CCIAA pubblica il Rapporto statistico 2009

L’Unità Operativa Studi Statistica e Informazione Economica della Camera di Commercio di Venezia ha realizzato l’edizione 2009 di “Venezia in cifre”, un opuscolo sintetico e di facile consultazione che vuole far conoscere, per mezzo di numeri esposti in tabelle e grafici, la realtà demografica, sociale e culturale e le capacità economiche della provincia di Venezia ad un pubblico, anche di “non addetti ai lavori”, interessato alle caratteristiche e all’evoluzione del territorio provinciale.

I dati provengono da diverse fonti statistiche e amministrative, tra le quali il Sistema Statistico Nazionale e il Sistema camerale, e sono organizzati attraverso quattordici temi che trattano i seguenti aspetti della provincia di Venezia: popolazione residente, condizioni di vita, salute e sanità, cultura, istruzione, mondo del lavoro, agricoltura e ambiente, economia, indici dei prezzi, struttura produttiva, flussi commerciali con l’estero, turismo, trasporti, credito e giustizia.

Venezia in cifre 2009 CCIAA

Fonte: http://www.ve.camcom.it