Imprese 2.0, Innovazione, Marketing, Partecipazione, Social Network, Società della Conoscenza, Web 2.0, wikipedia

Social marketing: consigli pratici per orientare le aziende (e i comuni) al Web 2.0

La pratica del Social Marketing o Marketing sociale si sta diffondendo con grande rapidità nelle aziende (vedi qui la TOP List Aziende 2.0).

Anche le amministrazioni pubbliche guardano con interesse, soprattutto i comuni turistici (v. ad esempio i casi di Jesolo, Roseto degli Abruzzi, Venezia, Firenze…) dei quali parleremo in un prossimo articolo a breve.

Ormai è un fattore che fa la differenza ed è un vantaggio competitivo che porta al cosiddetto Enterprise 2.0, ovvero quell’insieme di approcci organizzativi e tecnologici orientati all’abilitazione di nuovi modelli organizzativi basati sul coinvolgimento diffuso, la collaborazione emergente, la condivisione della conoscenza e lo sviluppo e valorizzazione di reti sociali interne ed esterne all’organizzazione.

Per fare un esempio – tra le aziende 2.0 più interessanti – la veneta Lago (produce arredamento di design, 145 dipendenti, di cui circa il 25% assunti nell’ultimo anno, 30 milioni € fatturato 2008) ha introdotto una piattaforma Web 2.0 a disposizione di tutti i dipendenti, ma anche aperta ai collaboratori esterni. Le funzionalità principali sono relative ad una piattaforma di Social Network aziendale, Blog aziendali, Wiki e un applicativo per la gestione integrata dei progetti. Con il Blog, viene comunicata in modo trasparente e informale la strategia aziendale e ciò ha permesso di ridurre del 90% il tempo delle riunioni, a migliorare il clima e a facilitare l’integrazione tra le diverse unità di business.

In Wikipedia il Marketing sociale cita gli studi di Philip Kotler e può definirsi come l’utilizzo delle strategie e delle tecniche del marketing per influenzare un gruppo target ad accettare, modificare o abbandonare un comportamento in modo volontario, al fine di ottenere un vantaggio per i singoli individui o la società nel suo complesso. Il Marketing sociale nasce nel 1971 e trova le proprie radici in molteplici discipline (es. la psicologia, la sociologia, l’antropologia, le teorie economiche e della comunicazione) che contribuiscono a esaminare e comprendere cosa determina il comportamento umano, inteso quale risultante di fattori ambientali, sociali e individuali.

Enzo Santagata, nell’inquadrare il Social marketing nel contesto del Web 2.0, parla di prosumer cioè dei consumatori che producono contenuti e propone 7 consigli pratici e condivisi che possano dare un’idea definita anche a chi si occupa di altri tipi di business e vuole cominciare ad approcciare al social media marketing senza ombre e con le idee nitide:

  1. Non parlare ai consumatori. Non vogliono ascoltarti, vogliono essere ascoltati.
  2. Offri una ragione per partecipare. Se le persone non percepiscono di ottenere un valore aggiunto dal condividere le loro opinioni, non verranno da te (magari vanno dal tuo diretto concorrente, che ha saputo soddisfarli meglio).
  3. Resisti alla tentazione di vendere a tutti i costi.
  4. Sperimenta e tieniti aggiornato. Ma soprattutto sperimenta, e se sbagli sperimenta ancora.
  5. Ascolta le conversazioni che avvengono anche al di fuori del tuo sito. E partecipa anche lì indicando chiaramente chi sei e perchè stai partecipando. Chi ha provato a fare il furbo è stato smascherato prima che potesse rendersene conto.
  6. Cedi il controllo della comunicazione. Non aver paura di aprire le tue porte alle critiche. Quando una community si sente controllata e forzata verso una direzione a senso unico imposta dall’azienda, non dura molto.
  7. Fai in modo che nella tua organizzazione ci siano quante più persone possibili che abbiano un background composto dal pensiero pragmatico da uomo di marketing, dalla curiosità incosciente di un sociologo e che siano grandi appassionati di social network.

-v

Per approfondire il tema del Marketing nel Web 2.0, Studio Baroni suggerisce di sfogliare le slide realizzate da Enrico Giubertoni:

Facebook, Imprese 2.0, Marketing, Social Network, Web 2.0

Facebook sostituirà “Diventa fan” con “Mi piace”

Nuova, piccola rivoluzione in vista per Facebook. Anziché cliccare sull’ormai conosciutissimo pulsante “Diventa fan” per dare il proprio sostegno virtuale e restare aggiornati sulle attività di aziende, gruppi, artisti o associazioni, gli utenti troveranno un link “Mi piace“, come già accade per messaggi di stato, video, immagini e altri contenuti caricati sul social network.

Quale sono i motivi che hanno spinto i vertici dell’azienda verso tale decisione? A quanto pare, consci che gli iscritti al portale sono più propensi al click su “Mi piace” anziché a quello su “Diventa fan”, Facebook spera, in questo modo, di favorire i legami tra i singoli utenti e i brand.

Questo porterà inevitabilmente a un incremento nel numero delle aziende che scelgono di aprire una pagina ufficiale e, di conseguenza, di quello delle realtà pronte a investire in pubblicità per la loro promozione. L’altro lato della medaglia riguarda il rischio, almeno in una prima fase, di generare confusione negli utenti meno esperti.

Con oltre 400 milioni di iscritti, la metà dei quali effettuano l’accesso al proprio profilo quotidianamente, ogni mossa di Facebook è ormai destinata a far discutere, soprattutto nel caso in cui, in modo decisamente poco velato, le modifiche introdotte hanno il fine unico di monetizzare le attività dei netizen sulle proprie pagine.

.

Fonte: http://www.oneweb20.it

Autore: Cristiano Ghidotti

Comunicazione, digitale, Facebook, Google, Social Network, Società della Conoscenza, Web 2.0

Google e Facebook… prove di accordo?

Dopo aver integrato aggiornamenti in tempo reale provenienti da Twitter e FriendFeed, Google ha da poco avviato una nuova iniziativa per includere nei risultati in real-time le informazioni di stato degli utenti di Facebook.

La nuova strategia potrebbe consentire al motore di ricerca di arricchire sensibilmente la propria offerta di contenuti in tempo reale, rendendo maggiormente dinamica l’esperienza d’uso per le decine di milioni di utenti che ogni giorno fanno affidamento su Google Search.

Per comunicare l’introduzione del nuovo servizio, la società di Mountain View ha deciso di mantenere un profilo basso, affidando a un breve post su Twitter la notizia. L’aggiunta di Facebook costituisce un importante passo in avanti per i risultati in tempo reale di Google, ma al tempo stesso comporta solamente una lieve modifica al sistema messo in campo alcuni mesi or sono. Al momento, infatti, il servizio sarà in grado di fornire solamente i risultati ottenuti attraverso le Pagine di Facebook e non dai profili dei singoli utenti. Tale condizione riduce sensibilmente le fonti per il motore di ricerca, che analizzerà circa 3 milioni di Pagine ignorando – per ora – le centinaia di milioni di profili presenti sul trafficato social network.

Il numero di informazioni per il real-time proveniente da Facebook sarà dunque estremamente limitato. Le Pagine sono solitamente utilizzate da società, celebrità, istituzioni e politici a scopo promozionale per far conoscere le proprie attività e costruirvi intorno una comunità di utenti, disposti a condividere opinioni ed esperienze. Saranno dunque queste le informazioni indicizzate in tempo reale da Google, mentre gli aggiornamenti di stato personali degli oltre 400 milioni di iscritti al servizio non saranno ancora disponibili.

Stando alle prime indiscrezioni, Facebook non avrebbe avanzato alcuna richiesta nei confronti di Google in cambio della possibilità di indicizzare parte dei propri contenuti nella pagina dei risultati per il real-time. L’iniziativa potrebbe infatti consentire al celebre social network di ampliare ulteriormente il proprio bacino di utenti, conquistando nuove fonti di traffico utili per incrementare gli introiti derivanti dall’advertising. Verificato l’andamento di questa prima apertura nei confronti di Mountain View, i responsabili di Facebook potrebbero decidere in un secondo momento di estendere la collaborazione con il motore di ricerca.

Il destino di Facebook su Google dipenderà probabilmente dai rapporti con Bing, il motore di ricerca targato Microsoft. Nato dalle ceneri di Live Search, il sistema per effettuare le ricerche online ha da poco avviato l’indicizzazione degli aggiornamenti di stato degli iscritti al portale che hanno deciso di rendere pubblico il loro status. Al momento, però, il processo di indicizzazione non avviene in real-time e non consente dunque di visualizzare immediatamente gli aggiornamenti formulati dagli utenti, spesso utili per reperire informazioni su importanti eventi in corso o notizie dell’ultimo minuto da tutto il mondo.

La decisione di Google di compiere un nuovo passo verso la raccolta dei contenuti proposti su Facebook conferma la particolare attenzione della società di Mountain View per i social network. L’interesse è duplice e riguarda da un lato la possibilità di ottenere maggiori informazioni in tempo reale per migliorare precisione e qualità dei risultati delle ricerche, mentre dall’altro lato interessa la possibilità di essere parte attiva nel social networking attraverso una propria piattaforma. Lo strumento social Google Buzz, da poco introdotto in Gmail, mira a soddisfare tale esigenza, ma al momento risulta essere ancora acerbo per poter sfidare realtà ormai radicate come Twitter e Facebook.

Emanuele Menietti

26 Febbraio 2010

***

Fonti:

.

Concorsi, Creative Commons, Innovazione, Società della Conoscenza, Web 2.0

A scuola di innovazione con Garamond partner e sponsor editoriale

Le nuove tecnologie e i prodotti multimediali possono essere di grande aiuto sui banchi di scuola e questo concorso vuole promuoverne l’utilizzo, diffondendo le migliori esperienze realizzate in Italia. Rivolto alle scuole primarie e secondarie, il premio è aperto fino al prossimo 18 marzo 2010

La tecnologia fornisce oggi un’occasione storica, che permette alla scuola di uscire dal suo tradizionale isolamento e di modellarsi in forme diversamente distribuite. E’ in quest’ottica che nasce il premio A scuola di innovazione – organizzato da Ministero per la Pubblica Amministrazione e l’InnovazioneMinistero dell’Istruzione, dell’Università e della Ricerca, in collaborazione con ForumPa – dedicato agli innovatori di domani, con l’obiettivo di favorire l’apprendimento collaborativo e lo scambio di esperienze.

Gli amici di Garamond sono partner ed unico sponsor editoriale. Garamond è una casa editrice di Roma nata nel 1989 specializzata sull’uso didattico delle tecnologie digitali e di rete. Produce contenuti (libri, e-book, learning object) e strumenti (programmi autore, piattaforme di rete, sistemi hardware e software). Garamond cura la formazione e l’aggiornamento dei docenti che viene svolta soprattutto in modalità e-learning.

una costante azione di ricerca e sperimentazione sul campo, dalla quale origina ogni nuova iniziativa.

Il premio è rivolto alle scuole primarie e secondarie di primo e secondo grado che abbiano prodotto o abbiano intenzione di produrre oggetti digitali per la didattica e che siano interessate a condividerli con il mondo della scuola.
La candidature possono essere presentate esclusivamente on line, utilizzando l’apposita scheda di candidatura, disponibile sul sito www.premioscuolainnovazione.it. L’inoltro on line delle candidature sarà possibile fino alle ore 24 del 18 marzo 2010.

Le scuole si possono candidare presentando Contenuti Didattici Digitali (CDD) appartenenti a  queste categorie:

  • Giochi educativi
  • Lezioni ed esercizi multimediali su specifiche discipline o ambiti disciplinari
  • Simulazioni ed esperimenti
  • Oggetti a sostegno della didattica per i diversamente abili
  • Oggetti per la sensibilizzazione su tematiche sociali, interculturali, ambientali, pari opportunità e di attualità

Cardine dell’iniziativa è lo spirito di condivisione: i contenuti digitali, infatti, devono essere distribuiti secondo le licenze Creative Commons, che permettono agli autori di mantenere la paternità delle proprie opere e, allo stesso tempo, ne consentono l’uso simultaneo, la distribuzione o l’eventuale rielaborazione a tutti coloro aderiscono a questo modello di licenze.
I migliori oggetti proposti saranno pubblicati all’interno della Libreria Digitale del portale InnovaScuola.

.

Cos’è Creative Commons?

Licenze Creative Commons (CC) è la denominazione di alcune licenze di diritto d’autore redatte e messe a disposizione del pubblico a partire dal 16 dicembre 2002 dalla Creative Commons, un ente non-profit statunitense fondato nel 2001. Sono state quindi tradotte in italiano e adattate al nostro sistema giuridico da un gruppo di lavoro del Dipartimento di Scienze Giuridiche dell’Università di Torino.

La filosofia su cui è fondato lo strumento giuridico delle licenze CC si basa sullo slogan “Some Rights Reserved” (alcuni diritti riservati), una graduale sfumatura intermedia fra il modello “tutti i diritti riservati” tipico del copyright tradizionale e il modello “nessun diritto riservato” tipico del pubblico dominio integrale o di una sorta di no-copyright. In sostanza l’autore può decidere quali diritti riservarsi e quali cedere a terzi, riguardo l’utilizzo dei contenuti originali da lui creati.

Una curiosità sull’origine del nome Creative Commons Nell’articolo The tragedy of the commons del 1968 (“La tragedia dei benicomuni”) l’economista Garret Hardin sosteneva che i beni comuni, ovvero quelli di proprietà di nessuno ma di cui tutti possono beneficiare, sono sempre destinati alla rovina: «La rovina è la destinazione verso la quale tutti gli uomini si affrettano, ciascuno perseguendo il proprio massimo interesse in una società che crede nella libertà di accesso ai beni comuni. Questa libertà porta la rovina a tutti quanti.» (Breve estratto della versione italiana disponibile alla pagina web www.oilcrash.com)

I teorici di Creative Commons sostengono invece che i beni come i prodotti della creatività e dell’ingegno umano non sono soggetti a deperimento poiché ogni creazione aumenta il suo valore sociale quante più sono le persone che ne possono beneficiare (oltretutto la creatività umana, a differenza di altre risorse naturali, non ha limiti).  Per questo possiamo parlare di una “comedy of the commons”, dove però i beni comuni sono beni comuni creativi, appunto dei “creative commons”.

.

Bando Premio Scuola Innovazione

.

Fonti:

.

.

.

Comunicazione, digitale, Facebook, Imprese 2.0, Innovazione, Marketing, Social Network, Web 2.0

Facebook festeggia i 400 milioni di utenti e lancia la nuova home page personale

Festeggia il sesto compleanno e 400 milioni di utenti nel mondo, così Facebook coglie l’occasione per cambiare look e funzionalità.

Da questa mattina gran restyling nell’home page personale di 80 milioni di persone e aziende. L’operazione dovrebbe chiudersi in giornata

I cambiamenti più rilevanti riguardano la disposizione dei contenuti in homepage. In alto a sinistra, vicino al logo del social network, si possono vedere le nuove  icone relative a notifiche (più grandi e stilizzate in riga), messaggi non letti e richieste di amicizia. Con un click appare l’anteprima del contenuto, così è più veloce e si guadagna in tempo dedicato.

Nella fascia a sinistra del layout è visibile un sintetico elenco degli amici che sono online, come prima vale la regola “ti vedo se mi faccio vedere”. Invece, in alto a destra, alla voce “account” sono visibili i link per gestire il profilo, visualizzazione foto, privacy, eventi… gli album degli amici assumono rilevante centralità in mezzo alla pagina.

Interessante la soluzione adottata per spiegare le modifiche, sembra un cruscotto:

Comunicazione, digitale, Facebook, libri, Marketing, Partecipazione, Social Network, Software libero, Twitter, Web 2.0

Facebook e Twitter: 2 libri di Federico Guerrini

Studio Baroni riceve e pubblica volentieri news su due libri dell’amico autore Federico Guerrini.

Per gli utenti italiani di Facebook, il social network più famoso al mondo, è il momento dei bilanci. Dopo l’ondata di entusiasmo dello scorso anno, che ha decuplicato in pochi mesi il numero di iscritti alla piattaforma, per molti è l’ora dei dubbi e dei ripensamenti. Un atteggiamento di diffidenza generato spesso da una scarsa conoscenza del mezzo. Quanti dei milioni di membri di Facebook, infatti, sanno davvero come sfruttarne tutte le potenzialità ed evitare i principali rischi?

Questo libro di Federico Guerrini, facebookiano della prima ora e autore di numerose pubblicazioni su Internet e sulle nuove tecnologie, analizza a fondo il fenomeno Facebook: dai suoi riflessi sul mondo del lavoro e sulle storie sentimentali, ai problemi di privacy e tecnodipendenza che affollano le cronache di tutti i giornali. Grande attenzione viene dedicata all’uso consapevole di Facebook e alle applicazioni più utili per trasformare e potenziare l’esperienza di social networking. C’è anche lo spazio per azzardare qualche previsione sugli scenari futuri del Web, in cui Facebook potrebbe recitare sempre più un ruolo da protagonista.

Argomenti trattati nel libro:

  • In continua evoluzione
  • La nuovissima interfaccia utente
  • Applicazioni “Must”
  • Il lato oscuro di Facebook: rischi e precauzioni
  • Per un utilizzo consapevole e sicuro
  • Strategie e scenari futuri
  • Partnership, alleanze e integrazioni

IL MONDO SEGRETO DI TWITTER, recensione di Danilo Ruocco

Twitter è il luogo in cui si comunica a botta di messaggi non superiori a 140 caratteri. Molti non lo amano proprio per la brevità che impone. Altri lo amano proprio per questo. Tanti non vedono l’utilità di usare il microblogging, altri lo usano e basta, senza chiedersi a cosa realmente possa essere utile.

A cosa sia utile Twitter lo decide solo chi Twitter usa. Ogni utente – si può quasi dire senza tema di smentita – fa storia a sé, pur entrando in una enorme community di users.

La nota semplicità di Twitter che consiste non solo nella brevità dei messaggi da postare, ma nel fatto che tutto ruoti attorno a un’unica domanda (“Che c’è di nuovo?”), può trarre in inganno sulle molteplici possibilità che il microblogging creato tramite la piattaforma apre e offre. Esse, infatti, sono tali e tante che per gestirle al meglio la piattaforma Twitter da sola non basta. A venire in soccorso degli utenti ci sono le applicazioni di terze parti, ognuna delle quali si occupa di allargare e monitorare uno o più servizi e opzioni di Twitter.

Di applicazioni ne esistono davvero tantissime e delle più svariate, usabili sia scaricandole sul proprio computer, sia direttamente tramite il browser, sia con il cellulare.

A dare una panoramica di quello che è possibile ottenere e fare da e con Twitter e le varie applicazioni terze ci pensa un libretto di 144 pagine scritto da Federico Guerrini per la collana “I grandi libri di PCWorld” titolato assai correttamente Alla scoperta di Twitter (acquistabile in edicola oppure online, sul sito shop.nuovaperiodici.it).

Il libro è agile e approfondito e spiega in modo chiaro non solo la piattaforma “madre”, ma anche le varie applicazioni terze (loro utilizzo e finalità). Spiega anche come integrare il proprio “cinguettio” con gli altri social network come Facebook, FriendFeed e LinkedIn o come integrarlo con il proprio account GMail.

Un volumetto che vale la pena di essere letto anche dagli utenti “base” di Twitter, al fine di rendersi conto delle possibilità cui si può accedere e, magari, decidere di variare e/o integrare l’utilizzo che fin qui si è fatto del microblogging.

Per alcuni, Twitter è solo un mezzo per i malati di esibizionismo per far sapere a tutti ogni più piccolo dettaglio della loro vita quotidiana in tempo reale: da quando si alzano al mattino al menù del pranzo o della cena; per altri, è uno strumento straordinario, capace di raccontare in diretta rivoluzioni e organizzare i soccorsi in caso di catastrofi naturali o prodotte dall’uomo. Comunque sia, Twitter, il social network del “cinguettìo” lanciato nel 2006 da Jack Dorsey, Biz Stone, Evan Williams e altri, è un fenomeno con cui fare i conti. Capace di contendere a Facebook il primato di miglior social network del mondo…

Federico Guerrini è nato a Milano nel 1972. Giornalista e scrittore, si è occupato di cronaca, cultura e automotive e ha lavorato come traduttore, lettore e valutatore di manoscritti, creatore di prodotti multimediali e addetto stampa. Da qualche anno si dedica al settore delle nuove tecnologie, collaborando con PCWorld Italia e scrivendo libri, concentrandosi in particolare sull’argomento dei social network e sull’uso consapevole di Internet. Ha pubblicato finora: “Tutto su Facebook” (Hoepli, 2008), “Trovare lavoro in Rete” (Hoepli, 2009), “Proteggi la tua privacy”, “Internet Utile”, “Alla scoperta di Twitter”, “facebook reloaded”.

Comunicazione, digitale, Google, Innovazione, ISTAT, Social Network, Statistiche, Web 2.0, wikipedia

Il successo di un sito web? Non solo una questione di traffico: i casi Istat, SIS e Sistan

(Articolo di Daniele Frongia tratto da www.sis-statistica.it)

Il posizionamento e il successo di un sito

Come si analizza il successo o l’insuccesso di un sito web o un blog? Esistono numerosi software per l’analisi del traffico di un sito che si basano, prevalentemente, sul numero dei visitatori. Questi strumenti offrono una serie di informazioni come il numero di visitatori, le pagine più visitate, il tempo di permanenza medio, le pagine che attraggono il maggior numero di clic iniziali, o finali, le parole chiave utilizzate per arrivare al sito e l’analisi della distribuzione dei visitatori per provenienza geografica.

Ma è corretto dire che il successo di un sito è una funzione del solo numero di visitatori? Una nuova generazione di strumenti offre oggi l’opportunità di misurare il successo di un sito tenendo meglio conto della sua natura multidimensionale. In particolare possiamo vedere il successo di un sito in funzione, oltre che del traffico, anche del suo posizionamento nella rete [] ovvero della sua solidità di carattere “infrastrutturale”. Il posizionamento è dunque uno dei presupposti per un successo solido e duraturo del sito.

Se da un lato possiamo affermare che il successo di un sito è funzione del traffico e del suo posizionamento, dall’altro non possiamo pensare che la misura di tale successo sia completamente determinabile: il successo è infatti di natura prevalentemente soggettiva, e il dibattito al riguardo è in continua evoluzione. In questo articolo non proporremo quindi alcuna sintesi di questi due fattori per produrre un unico indice del successo.  Tratteremo invece più specificamente il posizionamento: l’aggiunta di questa dimensione di analisi è un aiuto concreto per migliorare la corrispondenza fra misurazione e percezione.

Possiamo descrivere il posizionamento con una metafora: mentre le classiche analisi quantitative sul traffico ci dicono quanti sono e cosa fanno gli ospiti nella nostra casa, l’analisi del posizionamento prova a dirci come e dove è situata la casa, se è in centro o in periferia, se è collegata ad altre strutture, se è così importante e ben vista da influenzare il vicinato (guarda che bel portone, lo voglio anch’io) e così via.

L’analisi del posizionamento fornisce inoltre indicazioni utili per confrontare siti di categorie diverse (se repubblica.it ricevesse 100.000 visite al giorno sarebbe un flop; di contro, un sito altamente specialistico, ben posizionato e con 1000 visite al giorno sarebbe un successo strepitoso) e su sottoreti specifiche, come vedremo nell’ultimo paragrafo, con risultati più puntuali e significativi. In questo articolo definiamo quindi un sito ben posizionato (o centrale) come influente e rilevante nella rete.

Primi metodi di misura del posizionamento

Per definire meglio il posizionamento occorrono due brevi premesse teoriche: il sistema di punteggio assegnato da Google alle pagine web e i recenti studi sulle reti complesse.

Google PageRank (PR). Google assegna a ciascuna pagina  presente nel suo database un proprio punteggio, il PageRank, che consiste in un numero compreso tra 0 e 10, calcolato sulla base di numerose variabili.

Basato sullo specifico carattere “democratico” del Web, PageRank sfrutta la vastissima rete di collegamenti associati alle singole pagine per determinarne il valore. In pratica, Google interpreta un collegamento dalla pagina A alla pagina B come un “voto” espresso dalla prima in merito alla seconda. Tuttavia, non si limita a calcolare il numero di voti, o collegamenti, assegnati a una pagina. Oltre a effettuare questo calcolo, Google prende in esame la pagina che ha assegnato il voto. I voti espressi da pagine “importanti” hanno più rilevanza e quindi contribuiscono a rendere “importanti” anche le pagine collegate. PageRank assegna ai siti Web importanti e di alta qualità un “voto” più elevato di cui Google tiene conto ogni volta che esegue una ricerca. (Google)

Google PageRank

Analisi delle reti complesse. L’analisi delle reti nasce nel Settecento con il problema dei ponti di Eulero, padre della teoria dei grafi. Da allora l’analisi è stata prevalentemente usata per le reti sociali, con i primi studi di Huber (1802), passando poi per Comte, Galton, Watson, LeBon, Simmel, Marconi (il primo a parlare dei sei gradi di separazione), Moreno e così via dal dopoguerra in poi, con il contributo di molti sociologi e matematici. L’analisi delle reti sociali (social network analysis) ha trovato pieno consolidamento negli anni ’70 per poi trarre nuova linfa dagli studi dei fisici, primi tra tutti quelli di Barabási e della sua equipe alla fine degli anni ‘90. Uno dei risultati più importanti del lavoro di Barabási è l’aver individuato un tratto comune in tutte le reti complesse (WWW, Internet, neuroni-dendriti del cervello, catene alimentari, alleanze aziendali ecc.): la distribuzione del numero di link ricevuti da parte di un nodo segue una legge di potenza. Come noto, infatti, leggi di potenza ricorrono nella distribuzione di probabilità di numerosi fenomeni tra cui il numero di collegamenti ai siti web: le pagine web che ricevono moltissimi link sono pochissime, mentre sono moltissime quelle che ne ricevono zero o uno. 

Legge di potenza

Dunque anche per il PR, che è direttamente proporzionale a numerose variabili tra cui i link in entrata, può essere fatto un discorso analogo. Il punteggio in decimi del PR non va dunque inteso come quello scolastico: la stragrande maggioranza delle pagine ha infatti un PR pari a 0, il valore 3 è già un risultato discreto, 5 è molto buono mentre valori più alti sono generalmente raggiunti da un ristretto sottoinsieme di ottimi blogger, siti di grandi imprese o enti pubblici, oltre che, ovviamente, da giganti come GoogleMicrosoftWikipedia. I siti elitari così ricchi di link e con un alto PR sono chiamati hub.

Per Google il PR è un indicatore necessario e sufficiente a dare un’indicazione del posizionamento. Ma oltre al PR, quali altri indicatori è possibile utilizzare per misurare il posizionamento?

E’ possibile, ad esempio, considerare i seguenti indicatori (il cui contributo è assente o presente in modo marginale nel PR):
- Yahoo backlink: numero di collegamenti ipertestuali indicizzati da Yahoo alle pagine del sito;
- Wikipedia: numero collegamenti esterni negli articoli di Wikipedia alle pagine del sito;
- Delicious: numero segnalibri Delicious in cui viene citato il sito;
- DMOZ: numero collegamenti DMOZ in cui viene citato il sito;
- Twitter: numero tweet di Twitter in cui viene citato il sito;
- Digg: numero articoli su Digg in cui viene citato il sito.

Un sito che presenta valori alti di questi indicatori è ben posizionato nella sua categoria: i suoi contenuti sono sulla bocca di tutti, esso viene “ascoltato”, può influenzare altri siti, insomma è un attore che gode di una posizione (meritatamente) privilegiata nella rete.

Una misura del posizionamento può essere calcolata mediante un’opportuna sintesi di questi indicatori. Vediamo, in pratica, come è possibile procedere.

SIS, Sistan e Istat a confronto

Confrontiamo tre siti che si occupano di statistiche ufficiali e di promozione delle scienze statistiche: l’Istituto Nazionale di Statistica (www.istat.it), il Sistema Statistico Nazionale (www.sistan.it) e la Società Italiana di Statistica (www.sis-statistica.it).

In generale è possibile definire delle misure sintetiche per ciascun sito, seguendo opportune metodologie, ciascuna delle quali prevede la normalizzazione, la standardizzazione e infine l’aggregazione degli indicatori elementari. In questo caso applichiamo il Mazziotta Pareto Index (MPI), un indice sintetico nato in Istat che sopperisce ai fenomeni di compensazione tra indicatori e che varia tra 70 e 130. Per costruire l’indicatore si utilizza una funzione di aggregazione basata sulla non sostituibilità dei caratteri; in questo caso si ritiene infatti che gli indicatori elementari scelti siano egualmente importanti ai fini della valutazione del posizionamento. In particolare, per l’MPI presentato nel prospetto seguente, sono stati presi in considerazione solo il PR e i primi due indicatori (Yahoo e Wikipedia), dal momento che i servizi Delicious, Twitter, DMOZ e Digg sono ancora poco diffusi in Italia.

Per il calcolo del MPI sono stati utilizzati solo i primi tre indicatori. Dati rilevati il 13/09/2009.

Questi risultati indicano che i siti considerati possiedono contenuti di qualità, pertinenti al mondo della statistica ufficiale e che godono di una discreta centralità nella rete. Tuttavia, in un’analisi comparata con altri istituti di statistica europei, la posizione dell’Istat, così come quella della SIS e del Sistan, è certamente migliorabile.

Nuovi metodi di misura del posizionamento

L’approccio precedente presenta alcuni punti deboli tra cui la soggettività della scelta degli indicatori e il fatto che non siano indipendenti. Per queste ragioni, in alternativa, possono essere presi in considerazione nuovi metodi come ad esempio il Coolhunting for Trends on the Web del MIT, che consente di misurare e monitorare il posizionamento di marche, blog o siti sul Web con un approccio basato sia sui database di Google che sulle classiche misure di centralità della social network analysis. L’obiettivo di questo paragrafo è di fornire una prima presentazione di CONDOR, lo strumento software sviluppato nell’ambito progetto del MIT, rispetto ad alcuni risultati ottenuti mediante l’analisi del sito dell’Istat. CONDOR  consente di rappresentare e analizzare le sottoreti tematiche di un sito, ovverosia il sottoinsieme del Web dove il sito viene citato. Di seguito è riportata la blogosfera di riferimento dell’Istat, e cioè l’insieme dei blog dove l’istituto viene citato attraverso un collegamento ipertestuale e i blog ad essi connessi da al più tre gradi di separazione:

Blogosfera Istat.it nel periodo 1-20 settembre 2009
(analisi di Francesca Grippa – UNILE e Daniele Frongia – Istat)

In questo caso l’analisi del posizionamento di un sito può fornire ulteriori informazioni circa le porzioni del Web dove si possono raccogliere e analizzare importanti feedback sul proprio operato e sulla propria immagine.

In conclusione, per l’analisi di un sito occorre tenere in considerazione due fattori: il traffico e il posizionamento nella rete. In questi ultimi anni gli studi di fisici, matematici e sociologi stanno contribuendo a definire nuovi metodi e strumenti per l’analisi del posizionamento. L’argomento non è ancora pienamente maturo ma le potenzialità e le prospettive sono estremamente interessanti, anche per chi produce statistiche ufficiali e diffonde cultura statistica.

Per saperne di più

Analisi delle reti

Freeman L.C. (2007) Lo sviluppo dell’analisi delle reti sociali. Uno studio di sociologia della scienza, FrancoAngeli, Milano

Hanneman R.A., Riddle M. (2005) Introduction to social network methods, University of California, USA

Barabási A.L. (2004) Link. La scienza delle reti, Einaudi, Torino

Frongia, D. (2008), Intervista a Ginestra Bianconi sulle reti complesseSegnalazionIT, Roma

Nuovi metodi di misura del posizionamento

Bennato D. (2009) Vox Internet vox dei! Sarà vero? in Internet Magazine n.134 (gennaio), , pp.26-27, Roma

Gloor P., Krauss J., Nann S., Fischbach K., Schoder D. (2008) Web Science 2.0: Identifying Trends through Semantic Social Network Analysis, USA

Mazziotta Pareto Index

Mazziotta M., Pareto A. (2010) Appendice Metodologia in La dotazione di infrastrutture della sanità, Collana Informazioni, Istat, Roma

L’autore

Daniele Frongia (frongia _at_ istat.it)

Daniele Frongia lavora presso l’Istituto Nazionale di Statistica (Istat) dove si occupa di metodi e strumenti Web 2.0. E’ autore del blog http://segnalazionit.org/.

digitale, Facebook, Google, Imprese 2.0, Innovazione, Marketing, Social Network, Software libero, Twitter, Web 2.0, wikipedia, YouTube

Il futuro del lavoro

Interessante presentazione di From Jbrenman che parte da alcune considerazioni su cos’era il web 10 anni fa.

Comunicazione, digitale, Facebook, Imprese 2.0, Marketing, Partecipazione, Social Network, Web 2.0, wikipedia

Marketing virale: ecco sei regole chiave

fonte: http://www.masternewmedia.org

Il marketing virale o viral marketing è un’evoluzione del passaparola, ma se ne distingue per il fatto di avere un’intenzione volontaria da parte dei promotori della campagna.

Il principio del viral marketing si basa sull’originalità di un’idea: qualcosa che, a causa della sua natura o del suo contenuto, riesce a espandersi molto velocemente in una data popolazione. Come un virus, l’idea che può rivelarsi interessante per un utente, viene passata da questo ad altri contatti, da questi ad altri e così via. In questo modo si espande rapidamente, tramite il principio del “passaparola”, la conoscenza dell’idea.

1. A nessuno interessa dei tuoi prodotti…

Viral_marketing_principles_dont_care_products_id283595.jpg

…eccetto te. A nessuno interessa dei tuoi prodotti ed è difficile che le persone ne parlino. Purtroppo è vero. Se parli dei tuoi prodotti, le persone penseranno subito: “Quant’è noioso, passiamo avanti”.

2. Non obbligare le persone a condividere

Viral_marketing_principles_dont_coerce_people_id16913911.jpg

Lo fanno perché a loro piace. Non devi convincerli a condividere le tue cose, facendo una specie di gioco o organizzando un qualche concorso o qualsiasi altra cosa per cui le persone pensino : “Voglio condividere questa cosa perché potrei vincere quel premio”. No, non c’è bisogno di obbligare nessuno.

3. Perdi il controllo delle tue informazioni

Viral_marketing_principles_lose_control_information_id139498.jpg

La terza cosa è davvero illogica per molte persone: devi perdere il controllo delle informazioni. Una volta che viene diffuso in giro per il mondo, le persone lo vorranno condividere come più gli piace e tu non devi controllare nulla di tutto questo.

Non hai nessun controllo su ciò si dirà e molte volte ai capi delle aziende non piace questa cosa, perché sono abituati a mantenere il totale controllo sulle informazioni. Ancora, ciò che permette alle cose di essere condivise è l’assenza di controllo e il permesso esplicito di condivisione.

4. Metti le radici

Viral_marketing_principles_put_roots_id25482331.jpg

Devi crearti una base da qualche parte nel Web, un posto in cui ti possano trovare come ad esempio un blog.

5. Crea un stimolo

Viral_marketing_principles_trigger_id1335581.jpg

La quinta cosa: crea uno stimolo che incoraggi le persone a condividere. Crea qualcosa che sia così avvincente e di valore che le persone dicano: “Cavolo, devo condividerlo!”, ecco, questo è uno stimolo.

Uno stimolo potrebbe un video di YouTube, un post davvero interessante, anche una semplice informazione fuori dal comune.

6. Indirizza il mondo verso la tua porta virtuale

Viral_marketing_principles_doorstep_id843008.jpg

Se indirizzi le persone verso il luogo in cui fornisci qualcosa, dopodiché invitali anche a guardare i tuoi prodotti. Fondamentalmente, quando condividi qualcosa, desideri trovare un modo grazie al quale i tuoi lettori possano tornare nel luogo in cui tu possa fare affari con loro. Per imparare di più su di te, per leggere qualcosa su di te, comprare il tuo prodotto se hai un’attività di e-commerce o se hai un’attività di consulenza, fornisci le informazioni per contattarti in maniera privata.

Queste sono le regole. Se le seguirai, aumenterai vertiginosamente le probabilità di diffusione dei tuoi contenuti. Se non le seguirai, non significa che la tua creazione non si diffonderà, ma di sicuro incontrerà molti più ostacoli.

fonti:

digitale, ISTAT, Ricerca, Web 2.0

ISTAT/annuario statistico 2009

L’Annuario statistico italiano rappresenta la più importante pubblicazione generalista dell’Istituto nazionale di statistica.

Da oltre 130 anni l’Annuario statistico italiano offre infatti un ritratto completo e aggiornato del Paese, a testimonianza dell’ampiezza del patrimonio informativo prodotto dalla statistica pubblica. Oggi anche in una veste grafica moderna ed elegante.

I dati presentati nei 26 capitoli, generalmente riferiti al 2008, sono accompagnati da un confronto sintetico con i quattro anni precedenti.

Tra i dati emerge  che l’uso di Internet e del computer ha visto un trend crescente nel corso degli ultimi cinque anni:

  • Internet dal 31,8% del 2005 al 44,4% del 2009
  • Computer dal 39,9% del 2005 al 47,5% del 2009

L’uso del computer coinvolge soprattutto i giovani tra i 15 e i 19 anni ed è più diffuso tra gli uomini che lo utilizzano nel 52,8% dei casi contro un 42,5% delle donne.

Sito ISTAT:  http://www.istat.it