Comunicazione, Cultura, digitale, Economia, enterprise, Facebook, Formazione, Google, Imprese 2.0, Innovazione, libri, Marketing, Ricerca, Sistemi gestionali, Social Network, Società della Conoscenza, Twitter, Web 2.0, wikipedia, YouTube

Come fare business con i social network? Imperdibile collana del Sole 24 Ore dal 10 febbraio

Dal 10 febbraio 2011 esce un’imperdibile collana del Sole 24 Ore dal titolo «Come fare business con i social network».

Il primo volume è dedicato a Facebook, il social network che, con oltre 16 milioni di italiani e 600 milioni di utenti nel mondo, rappresenta una grande piazza virtuale dove condividere informazioni per cui ogni azienda può trarre benefici dalla relazione con i clienti, potenziali e reali.

Il volume dedicato a Twitter spiega come il linguaggio dei 140 caratteri sia diventato una piattaforma straordinaria per il marketing dell’ascolto e per puntare sul passaparola.

«Personal branding», è invece rivolto a chi vuole puntare sulla rete per rafforzare la propria immagine e il proprio brand e aumentare così le opportunità di business.

Con il volume «E-mail marketing» si impara a realizzare strategie di marketing utilizzando la posta elettronica come canale di comunicazione con i clienti per sviluppare il business.

In «Search engine marketing» vengono svelati i segreti per farsi trovare in modo facile e veloce dai propri clienti attraverso i motori di ricerca.

La collana si chiude con «Web analytics», ovvero ogni azione sul web è misurabile e proprio nell’interpretazione delle statistiche c’è una miniera di opportunità di business

Tutti i volumi saranno in edicola ogni giovedì con Il Sole 24 Ore, a 9,90 € oltre al prezzo del quotidiano.

fonti:

Comunicazione, digitale, Economia, enterprise, Etica, Facebook, Google, Imprese 2.0, Industria, Innovazione, Marketing, Partecipazione, Privacy, Pubblica Amministrazione, Ricerca, Social Network, Società della Conoscenza, Web 2.0, wikipedia

Newsletter aziendali e la FIAT con il caso “eco DriveGP”

Quasi tutte le aziende, più o meno grandi che siano, comunicano con il loro mercato di riferimento. Anche con i propri pubblici interni ed esterni con relazioni in ottica stakeholder (o multistakeholder)*

Come possiamo leggere dalla  più consultata e autorevole enciclopedia libera qual’è Wikipedia, per newsletter si intende un notiziario scritto o per immagini diffuso periodicamente per posta elettronica. Oggi è prevalentemente in formato HTML, che permette di gestire anche immagini.

Ma le newsletter sono spesso invasive e talvolta invadono le caselle di posta elettronica in modo spropositato. Parecchi operatori e privati manifestano fastidio di tale invasività e fanno clic su “rimuovi iscrizione! per annullare l’iscrizione alla ricezione (autorizzata ai sensi del D.Lgs 196/2003 detto anche “Codice Privacy”).

Le segnalazioni degli utenti infastiditi o quelle degli studi legali arrivano al Garante Privacy il quale esegue spesso richiami, esprime pareri oppure può anche attivare autonome procedure con procedimenti legali.

Tra i vari operatori di servizi newsletter sul mercato, come il Gruppo SEAT Pagine Gialle (giusto per fare un esempio con le sue controllate Kompass e Consodata) è importante scegliere tra quelli che hanno un CODICE ETICO e soprattutto dichiarino pubblicamente quanto previsto dalla legislazione italiane ed europea. Nel senso che è preferibile scegliere la fornitura di servizi da società affidabili perchè certificate e con chiare regole legali comunicate all’atto dell’invio e nel testo stesso della newsletter.

Nel panorama dei servizi newsletter è preferibile anche scegliere chi opera con formati HTML perché, come dice ancora Wikipedia, il formato testuale permette l’adattamento visuale con strumenti diversi dal personal computer, dotati di monitor più piccoli e di software incapace di interpretare l’HTML in maniera corretta, ovvero strumenti che via via vanno diventando di uso comune e pian piano vengono forniti di software sempre più capaci di leggere lo standard HTML.

L’oggetto della newsletter può spaziare dall’informazione all’intrattenimento, anche se diversi portali e provider spesso usano questo canale in modo invadente e con fini prettamente pubblicitari, che si collocano fra il mailing e lo spam vero e proprio.

La frequenza di invio è varia, può essere giornaliera o mensile-saltuaria. La ricezione in genere è gratuita, anche se talune newsletter divulgative, che trattano argomenti di nicchia, possono essere a pagamento, ma se ne incontrano ben poche.

Le newsletter devono sottostare alla normativa relativa a privacy e vita privata, della quale si occupa il Garante Privacy che afferma come sia vietato inviare messaggi informativi o pubblicitari non sollecitati. La newsletter è caratterizzata da un singolo utente o un gruppo editoriale che invia messaggi unilateralmente verso la massa di iscritti, mentre questi ultimi possono inviare messaggi email al solo mittente originario e non anche a tutta la massa o a qualcuno degli iscritti, che restano vicendevolmente anonimi.

Quest’ultimo aspetto segna la differenza sostanziale fra newsletter e mailing list. Stante che, in quest’ultima, ogni iscritto può inviare messaggi all’intera massa di iscritti, creando discussioni di sorta, private o pubbliche. Come mezzi analoghi alla newsletter c’è la E-zine, ma anche la Webzine e il Giornale on-line.

Per capire cosa significa fare una buona newsletter, vediamo un attimo anche un’interessante caso che aprirebbe una riflessione sulla qualità dei contenuti newsletter (di questo ne parleremo una prossima volta).

La newsletter di FIAT con il caso  “eco DriveGP” propone una comunicazione semplice. In grande evidenza c’è un’unica e accattivante immagine stile vignetta. FIAT invita a partecipare e offre la possibilità di vincere la partecipazione al Motor Show.

bimbiambiente FIAT

Il testo della newsletter è essenziale, asciutto in poche righe e dice:

“Allaccia la cintura, controlla gli specchietti e metti alla prova le tua abilità di guida con eco:DriveGP. Dal 28 ottobre al 22 novembre non perderti la grande sfida che ti premia con il Motor Show di Bologna. Partecipare è semplice come usare eco:Drive: guida nel modo più efficiente possibile per scalare la classifica e diventare il miglior eco:Driver in Italia. Così potrai sfidare i campioni degli altri paesi europei a Bologna”.

Ci sono anche due link e un collegamento al “the king of network” dei social network occidentali, ovvero facebook. Nelle informazioni legali FIAT scrive correttamente: “Ricevi questa newsletter in quanto iscritto ai siti Fiat. Se non desideri piu’ ricevere la newsletter, clicca qui. Questa e-mail e’ generata automaticamente, non rispondere al mittente, ma collegati al sito www.fiat.it e clicca sulla sezione Contattaci.

Per ultimo, ma ne parleremo ancora prossimamente, ci sono altri interessanti casi. La newsletter di Facebook è senza immagini e fa riferimento alle iniziative marketing di “Facebook Ads”.  Le newsletter di Google sono altrettanto interessanti poichè c’è una “Comunità Google” che ci lavora e qui si può leggere un esempio della “qualità relazionale 2.0” con utenti esterni alla “Comunità Google”.

.

* stakeholder o multistakeholder

Fonti:

Arte, Città, Comunicazione, Concorsi, Cultura, Eventi, Google, Innovazione, Nordest, Pubblica Amministrazione, Società della Conoscenza, Sostenibilità, Veneto, Venezia, YouTube

Venezia, Spazio THETIS all’Arsenale (dal 15/10 al 5/11/2010): Felicity change your city change yout life

interessante concorso di grafica internazionale a Venezia

esposizione allo spazio THETIS Venezia / Italia

15 ottobre / 5 novembre, 2010

apertura: da lunedì a venerdì 10 – 18
dove: Spazio THETISGoogleMap

L’ingresso della sede di Thetis si trova presso la fermata BACINI delle linee circolari Actv 41, 42, 51, 52 (Giracittà).

Hotel convenzionato: Hotel Rigel

Fonte: www.felicityproject.it

Coorganizzazione:

Città di Venezia – Direzione attività e produzioni culturali,  dello spettacolo e della comunicazione.

Obiettivo del progetto è promuovere riflessioni sul tema della vita nella società urbana e su come possa essere migliorata. Un’occasione per i grafici provenienti da tutto il mondo di esprimere e immaginare soluzioni per una città capace di accogliere e migliorare la vita dei suoi abitanti. Verrà pubblicato un catalogo che ospiterà, oltre ai poster selezionati dalla giuria, delle riflessioni relative ad alcuni Temi sensibili:

  • Integrazione delle diverse culture e religioni
  • Le esigenze dei cittadini: Giovani, Disabili, Bambini, Anziani, Emarginati…
  • Le innovazioni tecnologiche
  • Protagonismo delle comunità
  • Interazione tra aree urbane e natura
  • Sicurezza

La giuria

  • David Carson
  • Fortunato D’Amico
  • Chaz Maviyane Davies
  • Ann Harakawa
  • Andreas Kipar
  • Yossi Lemel
  • Armando e Maurizio Milani
  • Marco Navarra
  • Woody Pirtle
  • Maria Alessandra Segantini
  • Raymundo Sesma
  • David Tartakover
  • Maurizio Varratta

Patrocinio

  • ORDINE DEGLI ARCHITETTI PIANIFICATORI, PAESAGGISTI E CONSERVATORI DELLA PROVINCIA DI VENEZIA
  • ALA ASSOARCHITETTI
  • CONFINDUSTRIA VENEZIA
  • COMUNE DI GROSSETO

Sponsor tecnici:

  • Business Press
  • Ditre Group
  • Favini
  • Gruppofallani
  • QWERTY Studio
  • SiteBySite

Supporter

  • Fondazione Italia Cina
  • Scuola Internazionale di Grafica di Venezia
  • ADC ArtDirectorsClub New York

Guarda i video di alcuni interessanti eventi realizzati allo Spazio THETIS e sull’Arsenale di Venezia:

digitale, Economia, Facebook, Google, Social Network, Software libero, Web 2.0, wikipedia

Googled il romanzo del 70 enne Ken Auletta diventa un film sul fenomeno Google

La notizia è uscita giovedì scorso in esclusiva su screenweek e sta rimbalzando in ogni parte del pianeta: presto uscirà un film su Google.

I diritti di “Googled”, il romanzo scritto dal quasi 70 enne Ken Auletta, sono passati alla Groundswell Prods (carino il loro sito, ma nella sezione “press” non hanno ancora dato la news) e il produttore Michael London viaggerà in tandem con il collega John Morris.

E dopo il film di David Fincher su Facebook Social Network, anche la più importante azienda della new economy (Google fattura 20 miliardi di dollari in pubblicità e a giugno 2010 i suoi servizi sono stati usati dal 75% degli Internauti mondiali, pari a 944 milioni di persone) si appresta agli onori del grande schermo.

Con il sogno (e la mission) di Organizzare le informazioni di tutto il mondo nel 2010 Google ha lanciato la sfida al libro elettronico con Google Editions e avviato prove di accordo con Facebook confermando particolare attenzione verso i social network.

Per capire dove sta andando Google, Studio Baroni propone la lettura del libro Pianeta Google” di Randall Stross, edito lo scorso anno da Sperling & Kupfer e suggerisce di dare un’occhiata a “Google Zeitgeist” e al nuovo servizio chiamato “Google goggles“.

P.S.

A proposito di Google, c’è una notizia interessante pubblicata nelle ultime righe in questo articolo del Corriere della Sera. Si parla di un accordo tra Google e Verizon (il documento originale è stato pubblicato da Google il 9 agosto 2010). Se l’operazione verrà accettata dal Congresso degli Stati Uniti e dalla Commissione Federale delle Comunicazioni l’accordo potrebbe trasformare l’internet libero e gratuito in una piattaforma chiusa simile alla televisione via cavo.

Verizon Communications è un fornitore di banda larga americano e di telecomunicazioni. Con il Gruppo Vodafone ha fondato Verizon Wireless che si basa esclusivamente sul mercato dei clienti senza fili. E proprio con Verizon, dal novembre 2009, Google distribuisce i cellulari con il suo sistema operativo Android (i più venduti al momento negli Usa).

Creative Commons License studio baroniArticolo è pubblicato con Licenza Creative Commons. Come fonte citare questo testo e link: Studio Baroni.


digitale, Google, Social Network, Web 2.0, YouTube

YouTube festeggia 5 anni, ma a Google non tornano i conti

YouTube festeggia oggi il quinto compleanno, nel logo una candela a forma di 5.

Oggi conta due miliardi di contatti al giorno, chissà se Chad Hurley, Steve Chen e Jawed Karim fondatori di YouTube immaginavano un traguardo così straordinario.

Se YouTube festeggia, il boss di internet guarda ai conti… che non tornano. Era il 10 ottobre 2006 quando Google raggiunse l’accordo per acquistare YouTube al prezzo di 1,30 miliardi di €.

Secondo quanto riportato lo scorso aprile da Elsa Negri su oneweb2.0,  Spencer Wang, analista di Credit Suisse, ha realizzato un’analisi economica su YouTube. Da quando il sito per la condivisione di video è stato acquisito da Mountain View, il bilancio finale è sempre stato particolarmente negativo. Le previsioni per il 2009 non permettono di ipotizzare un’inversione di tendenza: YouTube infatti comporterà spese per ben 711 milioni di dollari, mentre le entrate previste raggiungono solamente i 240 milioni di dollari.

Buon compleanno YouTube e la comunità del web ringrazia Google per renderlo fruibile a costo zero 😉

Abruzzo, Città, digitale, Google, Innovazione, Jesolo, Pubblica Amministrazione, QR code, Venezia

Nelle città turistiche il marketing si fa geo

Nelle città turistiche il marketing si fa geo in Comunicatori Pubblici

Nelle città turistiche il marketing si fa geo

.

Google, Software libero

Google Editions lancia la sfida al mercato del libro elettronico

Centinaia di migliaia di libri pronti ad essere messi online con Google Editions. La notizia pubblicata su “The Wall Street Journal” è una chiara sfida ai principali operatori del libro elettronico come Amazon ed Apple.

Dalla prossima estate Google userà un sistema aperto per consentire agli utenti di accedere alla lista libri di una vasta gamma di siti web. Questo potrebbe essere il vantaggio che differenzia Google dai competitors, concentrati su dispositivi e software proprietari (Amazon, ad esempio, è incentrato su Kindle).

Secondo l’edizione inglese di Wikipedia, Google Editions sarà guidata da Dan Clancy, attuale direttore tecnico di Google Libri.

Abruzzo, Città, Comunicazione, digitale, Firenze, Google, Innovazione, Jesolo, Pubblica Amministrazione, QR code, Social Network, Società della Conoscenza, Venezia, Web 2.0

Marketing Territoriale città turistiche. Firenze coinvolge turisti e cittadini: emozioni taggate su mappa Google Earth

(sul tema v. editoriale di Vittorio Baroni in Comunicatori Pubblici)

Ecco un’altra interessante sperimentazione italiana di successo mirata al coinvolgimento dei turisti e cittadini.  Permette di valutare lo stato emotivo di una città. Dal sito di URBANOcreativo arriva la notizia che Firenze ci prova con la Emomapper di Florence emotional map, una sperimentazione che associa gli strumenti dell’informazione geografica e gli spazi di comunicazione e interazione del web 2.0 per dar vita a micro-comunità fondate da abitanti e utenti di uno spazio comune.

Così Firenze entra a pieno titolo nel gruppo dei comuni turistici italiani innovatori. E tra i principali casi di successo meritano di essere citati: Venice Connected presentato nel 2008 dal Comune di Venezia e ora in funzione a pieno regime; l’introduzione della tecnologia QR-CODE al Comune di Roseto degli Abruzzi avvenuta nel giugno 2009; la recente guida virtuale lanciata nel marzo 2010 dal Comune di Jesolo per iPhone e iPod.

E ancora una volta emerge l’usabilità di Google Earth, cioè l’applicazione grafica tridimensionale gratuita che permette di visualizzare fotografie aeree e satellitari della Terra con un dettaglio molto elevato. Google Earth consente al singolo utente di immettere delle informazioni aggiuntive che vengono visualizzate dal programma e che possono essere condivise con gli altri utilizzatori del programma sparsi per il pianeta. Può essere utilizzato fornendogli coordinate geografiche, indirizzi o semplicemente navigando sul pianeta con il mouse.

Gusto vista tatto olfatto udito e… sesto senso, per Comunicatori Pubblici i sensi si mettono in gioco anche visitando una città. E fanno scattare emozioni. Emomapper vuole raccogliere le sensazioni di chi visita la città di Firenze: piazze, vie, ponti e parchi ma anche nuovi luoghi di architettura contemporanea e idee sul loro possibile migliore utilizzo.

Tutti sono invitati a raccontare la loro Florence Emotional Map. Ma cosa accade esattamente? Che i racconti georiferiti degli utenti vengono raccolti, interrelati e rappresentati attraverso la nube: una mappa emozionale che rappresenta il sensore dello stato emotivo della città, in altre parole anche le zone con più alta concentrazione di felicità.

Il blog associa in uno stesso framework le tecnologie dell’informazione geografica e le piattaforme di comunicazione web 2.0. Il suo obiettivo è funzionare come un ambiente di relazione delle esperienze georiferite dei suoi ospiti: raccogliere racconti localizzati e mettere in relazione abitanti e utenti dello spazio costruendo reti.

p.s.

Approfondisci il tema delle CITTA’ DIGITALI. Leggi l’articolo: “Glocal, vivere la città nell’era digitale

fonti:

Comunicazione, digitale, Facebook, Google, Social Network, Società della Conoscenza, Web 2.0

Google e Facebook… prove di accordo?

Dopo aver integrato aggiornamenti in tempo reale provenienti da Twitter e FriendFeed, Google ha da poco avviato una nuova iniziativa per includere nei risultati in real-time le informazioni di stato degli utenti di Facebook.

La nuova strategia potrebbe consentire al motore di ricerca di arricchire sensibilmente la propria offerta di contenuti in tempo reale, rendendo maggiormente dinamica l’esperienza d’uso per le decine di milioni di utenti che ogni giorno fanno affidamento su Google Search.

Per comunicare l’introduzione del nuovo servizio, la società di Mountain View ha deciso di mantenere un profilo basso, affidando a un breve post su Twitter la notizia. L’aggiunta di Facebook costituisce un importante passo in avanti per i risultati in tempo reale di Google, ma al tempo stesso comporta solamente una lieve modifica al sistema messo in campo alcuni mesi or sono. Al momento, infatti, il servizio sarà in grado di fornire solamente i risultati ottenuti attraverso le Pagine di Facebook e non dai profili dei singoli utenti. Tale condizione riduce sensibilmente le fonti per il motore di ricerca, che analizzerà circa 3 milioni di Pagine ignorando – per ora – le centinaia di milioni di profili presenti sul trafficato social network.

Il numero di informazioni per il real-time proveniente da Facebook sarà dunque estremamente limitato. Le Pagine sono solitamente utilizzate da società, celebrità, istituzioni e politici a scopo promozionale per far conoscere le proprie attività e costruirvi intorno una comunità di utenti, disposti a condividere opinioni ed esperienze. Saranno dunque queste le informazioni indicizzate in tempo reale da Google, mentre gli aggiornamenti di stato personali degli oltre 400 milioni di iscritti al servizio non saranno ancora disponibili.

Stando alle prime indiscrezioni, Facebook non avrebbe avanzato alcuna richiesta nei confronti di Google in cambio della possibilità di indicizzare parte dei propri contenuti nella pagina dei risultati per il real-time. L’iniziativa potrebbe infatti consentire al celebre social network di ampliare ulteriormente il proprio bacino di utenti, conquistando nuove fonti di traffico utili per incrementare gli introiti derivanti dall’advertising. Verificato l’andamento di questa prima apertura nei confronti di Mountain View, i responsabili di Facebook potrebbero decidere in un secondo momento di estendere la collaborazione con il motore di ricerca.

Il destino di Facebook su Google dipenderà probabilmente dai rapporti con Bing, il motore di ricerca targato Microsoft. Nato dalle ceneri di Live Search, il sistema per effettuare le ricerche online ha da poco avviato l’indicizzazione degli aggiornamenti di stato degli iscritti al portale che hanno deciso di rendere pubblico il loro status. Al momento, però, il processo di indicizzazione non avviene in real-time e non consente dunque di visualizzare immediatamente gli aggiornamenti formulati dagli utenti, spesso utili per reperire informazioni su importanti eventi in corso o notizie dell’ultimo minuto da tutto il mondo.

La decisione di Google di compiere un nuovo passo verso la raccolta dei contenuti proposti su Facebook conferma la particolare attenzione della società di Mountain View per i social network. L’interesse è duplice e riguarda da un lato la possibilità di ottenere maggiori informazioni in tempo reale per migliorare precisione e qualità dei risultati delle ricerche, mentre dall’altro lato interessa la possibilità di essere parte attiva nel social networking attraverso una propria piattaforma. Lo strumento social Google Buzz, da poco introdotto in Gmail, mira a soddisfare tale esigenza, ma al momento risulta essere ancora acerbo per poter sfidare realtà ormai radicate come Twitter e Facebook.

Emanuele Menietti

26 Febbraio 2010

***

Fonti:

.

Comunicazione, digitale, Google, Innovazione, ISTAT, Social Network, Statistiche, Web 2.0, wikipedia

Il successo di un sito web? Non solo una questione di traffico: i casi Istat, SIS e Sistan

(Articolo di Daniele Frongia tratto da www.sis-statistica.it)

Il posizionamento e il successo di un sito

Come si analizza il successo o l’insuccesso di un sito web o un blog? Esistono numerosi software per l’analisi del traffico di un sito che si basano, prevalentemente, sul numero dei visitatori. Questi strumenti offrono una serie di informazioni come il numero di visitatori, le pagine più visitate, il tempo di permanenza medio, le pagine che attraggono il maggior numero di clic iniziali, o finali, le parole chiave utilizzate per arrivare al sito e l’analisi della distribuzione dei visitatori per provenienza geografica.

Ma è corretto dire che il successo di un sito è una funzione del solo numero di visitatori? Una nuova generazione di strumenti offre oggi l’opportunità di misurare il successo di un sito tenendo meglio conto della sua natura multidimensionale. In particolare possiamo vedere il successo di un sito in funzione, oltre che del traffico, anche del suo posizionamento nella rete [] ovvero della sua solidità di carattere “infrastrutturale”. Il posizionamento è dunque uno dei presupposti per un successo solido e duraturo del sito.

Se da un lato possiamo affermare che il successo di un sito è funzione del traffico e del suo posizionamento, dall’altro non possiamo pensare che la misura di tale successo sia completamente determinabile: il successo è infatti di natura prevalentemente soggettiva, e il dibattito al riguardo è in continua evoluzione. In questo articolo non proporremo quindi alcuna sintesi di questi due fattori per produrre un unico indice del successo.  Tratteremo invece più specificamente il posizionamento: l’aggiunta di questa dimensione di analisi è un aiuto concreto per migliorare la corrispondenza fra misurazione e percezione.

Possiamo descrivere il posizionamento con una metafora: mentre le classiche analisi quantitative sul traffico ci dicono quanti sono e cosa fanno gli ospiti nella nostra casa, l’analisi del posizionamento prova a dirci come e dove è situata la casa, se è in centro o in periferia, se è collegata ad altre strutture, se è così importante e ben vista da influenzare il vicinato (guarda che bel portone, lo voglio anch’io) e così via.

L’analisi del posizionamento fornisce inoltre indicazioni utili per confrontare siti di categorie diverse (se repubblica.it ricevesse 100.000 visite al giorno sarebbe un flop; di contro, un sito altamente specialistico, ben posizionato e con 1000 visite al giorno sarebbe un successo strepitoso) e su sottoreti specifiche, come vedremo nell’ultimo paragrafo, con risultati più puntuali e significativi. In questo articolo definiamo quindi un sito ben posizionato (o centrale) come influente e rilevante nella rete.

Primi metodi di misura del posizionamento

Per definire meglio il posizionamento occorrono due brevi premesse teoriche: il sistema di punteggio assegnato da Google alle pagine web e i recenti studi sulle reti complesse.

Google PageRank (PR). Google assegna a ciascuna pagina  presente nel suo database un proprio punteggio, il PageRank, che consiste in un numero compreso tra 0 e 10, calcolato sulla base di numerose variabili.

Basato sullo specifico carattere “democratico” del Web, PageRank sfrutta la vastissima rete di collegamenti associati alle singole pagine per determinarne il valore. In pratica, Google interpreta un collegamento dalla pagina A alla pagina B come un “voto” espresso dalla prima in merito alla seconda. Tuttavia, non si limita a calcolare il numero di voti, o collegamenti, assegnati a una pagina. Oltre a effettuare questo calcolo, Google prende in esame la pagina che ha assegnato il voto. I voti espressi da pagine “importanti” hanno più rilevanza e quindi contribuiscono a rendere “importanti” anche le pagine collegate. PageRank assegna ai siti Web importanti e di alta qualità un “voto” più elevato di cui Google tiene conto ogni volta che esegue una ricerca. (Google)

Google PageRank

Analisi delle reti complesse. L’analisi delle reti nasce nel Settecento con il problema dei ponti di Eulero, padre della teoria dei grafi. Da allora l’analisi è stata prevalentemente usata per le reti sociali, con i primi studi di Huber (1802), passando poi per Comte, Galton, Watson, LeBon, Simmel, Marconi (il primo a parlare dei sei gradi di separazione), Moreno e così via dal dopoguerra in poi, con il contributo di molti sociologi e matematici. L’analisi delle reti sociali (social network analysis) ha trovato pieno consolidamento negli anni ’70 per poi trarre nuova linfa dagli studi dei fisici, primi tra tutti quelli di Barabási e della sua equipe alla fine degli anni ‘90. Uno dei risultati più importanti del lavoro di Barabási è l’aver individuato un tratto comune in tutte le reti complesse (WWW, Internet, neuroni-dendriti del cervello, catene alimentari, alleanze aziendali ecc.): la distribuzione del numero di link ricevuti da parte di un nodo segue una legge di potenza. Come noto, infatti, leggi di potenza ricorrono nella distribuzione di probabilità di numerosi fenomeni tra cui il numero di collegamenti ai siti web: le pagine web che ricevono moltissimi link sono pochissime, mentre sono moltissime quelle che ne ricevono zero o uno. 

Legge di potenza

Dunque anche per il PR, che è direttamente proporzionale a numerose variabili tra cui i link in entrata, può essere fatto un discorso analogo. Il punteggio in decimi del PR non va dunque inteso come quello scolastico: la stragrande maggioranza delle pagine ha infatti un PR pari a 0, il valore 3 è già un risultato discreto, 5 è molto buono mentre valori più alti sono generalmente raggiunti da un ristretto sottoinsieme di ottimi blogger, siti di grandi imprese o enti pubblici, oltre che, ovviamente, da giganti come GoogleMicrosoftWikipedia. I siti elitari così ricchi di link e con un alto PR sono chiamati hub.

Per Google il PR è un indicatore necessario e sufficiente a dare un’indicazione del posizionamento. Ma oltre al PR, quali altri indicatori è possibile utilizzare per misurare il posizionamento?

E’ possibile, ad esempio, considerare i seguenti indicatori (il cui contributo è assente o presente in modo marginale nel PR):
- Yahoo backlink: numero di collegamenti ipertestuali indicizzati da Yahoo alle pagine del sito;
- Wikipedia: numero collegamenti esterni negli articoli di Wikipedia alle pagine del sito;
- Delicious: numero segnalibri Delicious in cui viene citato il sito;
- DMOZ: numero collegamenti DMOZ in cui viene citato il sito;
- Twitter: numero tweet di Twitter in cui viene citato il sito;
- Digg: numero articoli su Digg in cui viene citato il sito.

Un sito che presenta valori alti di questi indicatori è ben posizionato nella sua categoria: i suoi contenuti sono sulla bocca di tutti, esso viene “ascoltato”, può influenzare altri siti, insomma è un attore che gode di una posizione (meritatamente) privilegiata nella rete.

Una misura del posizionamento può essere calcolata mediante un’opportuna sintesi di questi indicatori. Vediamo, in pratica, come è possibile procedere.

SIS, Sistan e Istat a confronto

Confrontiamo tre siti che si occupano di statistiche ufficiali e di promozione delle scienze statistiche: l’Istituto Nazionale di Statistica (www.istat.it), il Sistema Statistico Nazionale (www.sistan.it) e la Società Italiana di Statistica (www.sis-statistica.it).

In generale è possibile definire delle misure sintetiche per ciascun sito, seguendo opportune metodologie, ciascuna delle quali prevede la normalizzazione, la standardizzazione e infine l’aggregazione degli indicatori elementari. In questo caso applichiamo il Mazziotta Pareto Index (MPI), un indice sintetico nato in Istat che sopperisce ai fenomeni di compensazione tra indicatori e che varia tra 70 e 130. Per costruire l’indicatore si utilizza una funzione di aggregazione basata sulla non sostituibilità dei caratteri; in questo caso si ritiene infatti che gli indicatori elementari scelti siano egualmente importanti ai fini della valutazione del posizionamento. In particolare, per l’MPI presentato nel prospetto seguente, sono stati presi in considerazione solo il PR e i primi due indicatori (Yahoo e Wikipedia), dal momento che i servizi Delicious, Twitter, DMOZ e Digg sono ancora poco diffusi in Italia.

Per il calcolo del MPI sono stati utilizzati solo i primi tre indicatori. Dati rilevati il 13/09/2009.

Questi risultati indicano che i siti considerati possiedono contenuti di qualità, pertinenti al mondo della statistica ufficiale e che godono di una discreta centralità nella rete. Tuttavia, in un’analisi comparata con altri istituti di statistica europei, la posizione dell’Istat, così come quella della SIS e del Sistan, è certamente migliorabile.

Nuovi metodi di misura del posizionamento

L’approccio precedente presenta alcuni punti deboli tra cui la soggettività della scelta degli indicatori e il fatto che non siano indipendenti. Per queste ragioni, in alternativa, possono essere presi in considerazione nuovi metodi come ad esempio il Coolhunting for Trends on the Web del MIT, che consente di misurare e monitorare il posizionamento di marche, blog o siti sul Web con un approccio basato sia sui database di Google che sulle classiche misure di centralità della social network analysis. L’obiettivo di questo paragrafo è di fornire una prima presentazione di CONDOR, lo strumento software sviluppato nell’ambito progetto del MIT, rispetto ad alcuni risultati ottenuti mediante l’analisi del sito dell’Istat. CONDOR  consente di rappresentare e analizzare le sottoreti tematiche di un sito, ovverosia il sottoinsieme del Web dove il sito viene citato. Di seguito è riportata la blogosfera di riferimento dell’Istat, e cioè l’insieme dei blog dove l’istituto viene citato attraverso un collegamento ipertestuale e i blog ad essi connessi da al più tre gradi di separazione:

Blogosfera Istat.it nel periodo 1-20 settembre 2009
(analisi di Francesca Grippa – UNILE e Daniele Frongia – Istat)

In questo caso l’analisi del posizionamento di un sito può fornire ulteriori informazioni circa le porzioni del Web dove si possono raccogliere e analizzare importanti feedback sul proprio operato e sulla propria immagine.

In conclusione, per l’analisi di un sito occorre tenere in considerazione due fattori: il traffico e il posizionamento nella rete. In questi ultimi anni gli studi di fisici, matematici e sociologi stanno contribuendo a definire nuovi metodi e strumenti per l’analisi del posizionamento. L’argomento non è ancora pienamente maturo ma le potenzialità e le prospettive sono estremamente interessanti, anche per chi produce statistiche ufficiali e diffonde cultura statistica.

Per saperne di più

Analisi delle reti

Freeman L.C. (2007) Lo sviluppo dell’analisi delle reti sociali. Uno studio di sociologia della scienza, FrancoAngeli, Milano

Hanneman R.A., Riddle M. (2005) Introduction to social network methods, University of California, USA

Barabási A.L. (2004) Link. La scienza delle reti, Einaudi, Torino

Frongia, D. (2008), Intervista a Ginestra Bianconi sulle reti complesseSegnalazionIT, Roma

Nuovi metodi di misura del posizionamento

Bennato D. (2009) Vox Internet vox dei! Sarà vero? in Internet Magazine n.134 (gennaio), , pp.26-27, Roma

Gloor P., Krauss J., Nann S., Fischbach K., Schoder D. (2008) Web Science 2.0: Identifying Trends through Semantic Social Network Analysis, USA

Mazziotta Pareto Index

Mazziotta M., Pareto A. (2010) Appendice Metodologia in La dotazione di infrastrutture della sanità, Collana Informazioni, Istat, Roma

L’autore

Daniele Frongia (frongia _at_ istat.it)

Daniele Frongia lavora presso l’Istituto Nazionale di Statistica (Istat) dove si occupa di metodi e strumenti Web 2.0. E’ autore del blog http://segnalazionit.org/.