Comunicazione, digitale, Economia, enterprise, Etica, Facebook, Google, Imprese 2.0, Industria, Innovazione, Marketing, Partecipazione, Privacy, Pubblica Amministrazione, Ricerca, Social Network, Società della Conoscenza, Web 2.0, wikipedia

Newsletter aziendali e la FIAT con il caso “eco DriveGP”

Quasi tutte le aziende, più o meno grandi che siano, comunicano con il loro mercato di riferimento. Anche con i propri pubblici interni ed esterni con relazioni in ottica stakeholder (o multistakeholder)*

Come possiamo leggere dalla  più consultata e autorevole enciclopedia libera qual’è Wikipedia, per newsletter si intende un notiziario scritto o per immagini diffuso periodicamente per posta elettronica. Oggi è prevalentemente in formato HTML, che permette di gestire anche immagini.

Ma le newsletter sono spesso invasive e talvolta invadono le caselle di posta elettronica in modo spropositato. Parecchi operatori e privati manifestano fastidio di tale invasività e fanno clic su “rimuovi iscrizione! per annullare l’iscrizione alla ricezione (autorizzata ai sensi del D.Lgs 196/2003 detto anche “Codice Privacy”).

Le segnalazioni degli utenti infastiditi o quelle degli studi legali arrivano al Garante Privacy il quale esegue spesso richiami, esprime pareri oppure può anche attivare autonome procedure con procedimenti legali.

Tra i vari operatori di servizi newsletter sul mercato, come il Gruppo SEAT Pagine Gialle (giusto per fare un esempio con le sue controllate Kompass e Consodata) è importante scegliere tra quelli che hanno un CODICE ETICO e soprattutto dichiarino pubblicamente quanto previsto dalla legislazione italiane ed europea. Nel senso che è preferibile scegliere la fornitura di servizi da società affidabili perchè certificate e con chiare regole legali comunicate all’atto dell’invio e nel testo stesso della newsletter.

Nel panorama dei servizi newsletter è preferibile anche scegliere chi opera con formati HTML perché, come dice ancora Wikipedia, il formato testuale permette l’adattamento visuale con strumenti diversi dal personal computer, dotati di monitor più piccoli e di software incapace di interpretare l’HTML in maniera corretta, ovvero strumenti che via via vanno diventando di uso comune e pian piano vengono forniti di software sempre più capaci di leggere lo standard HTML.

L’oggetto della newsletter può spaziare dall’informazione all’intrattenimento, anche se diversi portali e provider spesso usano questo canale in modo invadente e con fini prettamente pubblicitari, che si collocano fra il mailing e lo spam vero e proprio.

La frequenza di invio è varia, può essere giornaliera o mensile-saltuaria. La ricezione in genere è gratuita, anche se talune newsletter divulgative, che trattano argomenti di nicchia, possono essere a pagamento, ma se ne incontrano ben poche.

Le newsletter devono sottostare alla normativa relativa a privacy e vita privata, della quale si occupa il Garante Privacy che afferma come sia vietato inviare messaggi informativi o pubblicitari non sollecitati. La newsletter è caratterizzata da un singolo utente o un gruppo editoriale che invia messaggi unilateralmente verso la massa di iscritti, mentre questi ultimi possono inviare messaggi email al solo mittente originario e non anche a tutta la massa o a qualcuno degli iscritti, che restano vicendevolmente anonimi.

Quest’ultimo aspetto segna la differenza sostanziale fra newsletter e mailing list. Stante che, in quest’ultima, ogni iscritto può inviare messaggi all’intera massa di iscritti, creando discussioni di sorta, private o pubbliche. Come mezzi analoghi alla newsletter c’è la E-zine, ma anche la Webzine e il Giornale on-line.

Per capire cosa significa fare una buona newsletter, vediamo un attimo anche un’interessante caso che aprirebbe una riflessione sulla qualità dei contenuti newsletter (di questo ne parleremo una prossima volta).

La newsletter di FIAT con il caso  “eco DriveGP” propone una comunicazione semplice. In grande evidenza c’è un’unica e accattivante immagine stile vignetta. FIAT invita a partecipare e offre la possibilità di vincere la partecipazione al Motor Show.

bimbiambiente FIAT

Il testo della newsletter è essenziale, asciutto in poche righe e dice:

“Allaccia la cintura, controlla gli specchietti e metti alla prova le tua abilità di guida con eco:DriveGP. Dal 28 ottobre al 22 novembre non perderti la grande sfida che ti premia con il Motor Show di Bologna. Partecipare è semplice come usare eco:Drive: guida nel modo più efficiente possibile per scalare la classifica e diventare il miglior eco:Driver in Italia. Così potrai sfidare i campioni degli altri paesi europei a Bologna”.

Ci sono anche due link e un collegamento al “the king of network” dei social network occidentali, ovvero facebook. Nelle informazioni legali FIAT scrive correttamente: “Ricevi questa newsletter in quanto iscritto ai siti Fiat. Se non desideri piu’ ricevere la newsletter, clicca qui. Questa e-mail e’ generata automaticamente, non rispondere al mittente, ma collegati al sito www.fiat.it e clicca sulla sezione Contattaci.

Per ultimo, ma ne parleremo ancora prossimamente, ci sono altri interessanti casi. La newsletter di Facebook è senza immagini e fa riferimento alle iniziative marketing di “Facebook Ads”.  Le newsletter di Google sono altrettanto interessanti poichè c’è una “Comunità Google” che ci lavora e qui si può leggere un esempio della “qualità relazionale 2.0” con utenti esterni alla “Comunità Google”.

.

* stakeholder o multistakeholder

Fonti:

Arte, Comunicazione, Concorsi, Cultura, Eventi, Film, Innovazione, Partecipazione, Social Network, Venezia, Web 2.0, wikipedia, YouTube

Anche Venezia partecipa al “YouTube Play”, Biennale di video creativi. Grande evento ieri al Museo Solomon R. Guggenheim di News York. 23.000 candidature da tutto il mondo

Il Museo Solomon R. Guggenheim e YouTube, in collaborazione con HP e Intel, hanno annunciato i migliori video di YouTube Play, ovvero la Biennale internazionale dei  video creativi YT. Si tratta di 25 opere selezionate tra oltre 23 mila candidature provenienti da tutto il mondo. L’annuncio é stato ufficializzato ieri sera nel corso dell’evento YouTube Play.

Live from the Guggenheim’ si è svolto presso la sede newyorkese del celebre museo ed è stato trasmesso in live streaming mondiale su www.youtube.com/play.

Dallo scorso 20 settembre, la rosa dei 125 finalisti è stata visibile sul canale di YouTube Play e nei chioschi dei musei Guggenheim di New York, Berlino, Bilbao e Venezia.

YouTube non è solo un social network internet tra i più popolari al mondo, ma la condivisione di video e i progetti di partecipazione creativa a livello musicale, artistico, scientifico… sta posizionando il brand YT su un orizzonte del tutto sorprendente e di grande attesa per le prossime news. Tecnologie e brand sono di proprietà di Google Inc. ed è il terzo sito più visitato al mondo dopo Google e Facebook.

.

Fonti:

Comunicazione, digitale, Google, Innovazione, ISTAT, Social Network, Statistiche, Web 2.0, wikipedia

Il successo di un sito web? Non solo una questione di traffico: i casi Istat, SIS e Sistan

(Articolo di Daniele Frongia tratto da www.sis-statistica.it)

Il posizionamento e il successo di un sito

Come si analizza il successo o l’insuccesso di un sito web o un blog? Esistono numerosi software per l’analisi del traffico di un sito che si basano, prevalentemente, sul numero dei visitatori. Questi strumenti offrono una serie di informazioni come il numero di visitatori, le pagine più visitate, il tempo di permanenza medio, le pagine che attraggono il maggior numero di clic iniziali, o finali, le parole chiave utilizzate per arrivare al sito e l’analisi della distribuzione dei visitatori per provenienza geografica.

Ma è corretto dire che il successo di un sito è una funzione del solo numero di visitatori? Una nuova generazione di strumenti offre oggi l’opportunità di misurare il successo di un sito tenendo meglio conto della sua natura multidimensionale. In particolare possiamo vedere il successo di un sito in funzione, oltre che del traffico, anche del suo posizionamento nella rete [] ovvero della sua solidità di carattere “infrastrutturale”. Il posizionamento è dunque uno dei presupposti per un successo solido e duraturo del sito.

Se da un lato possiamo affermare che il successo di un sito è funzione del traffico e del suo posizionamento, dall’altro non possiamo pensare che la misura di tale successo sia completamente determinabile: il successo è infatti di natura prevalentemente soggettiva, e il dibattito al riguardo è in continua evoluzione. In questo articolo non proporremo quindi alcuna sintesi di questi due fattori per produrre un unico indice del successo.  Tratteremo invece più specificamente il posizionamento: l’aggiunta di questa dimensione di analisi è un aiuto concreto per migliorare la corrispondenza fra misurazione e percezione.

Possiamo descrivere il posizionamento con una metafora: mentre le classiche analisi quantitative sul traffico ci dicono quanti sono e cosa fanno gli ospiti nella nostra casa, l’analisi del posizionamento prova a dirci come e dove è situata la casa, se è in centro o in periferia, se è collegata ad altre strutture, se è così importante e ben vista da influenzare il vicinato (guarda che bel portone, lo voglio anch’io) e così via.

L’analisi del posizionamento fornisce inoltre indicazioni utili per confrontare siti di categorie diverse (se repubblica.it ricevesse 100.000 visite al giorno sarebbe un flop; di contro, un sito altamente specialistico, ben posizionato e con 1000 visite al giorno sarebbe un successo strepitoso) e su sottoreti specifiche, come vedremo nell’ultimo paragrafo, con risultati più puntuali e significativi. In questo articolo definiamo quindi un sito ben posizionato (o centrale) come influente e rilevante nella rete.

Primi metodi di misura del posizionamento

Per definire meglio il posizionamento occorrono due brevi premesse teoriche: il sistema di punteggio assegnato da Google alle pagine web e i recenti studi sulle reti complesse.

Google PageRank (PR). Google assegna a ciascuna pagina  presente nel suo database un proprio punteggio, il PageRank, che consiste in un numero compreso tra 0 e 10, calcolato sulla base di numerose variabili.

Basato sullo specifico carattere “democratico” del Web, PageRank sfrutta la vastissima rete di collegamenti associati alle singole pagine per determinarne il valore. In pratica, Google interpreta un collegamento dalla pagina A alla pagina B come un “voto” espresso dalla prima in merito alla seconda. Tuttavia, non si limita a calcolare il numero di voti, o collegamenti, assegnati a una pagina. Oltre a effettuare questo calcolo, Google prende in esame la pagina che ha assegnato il voto. I voti espressi da pagine “importanti” hanno più rilevanza e quindi contribuiscono a rendere “importanti” anche le pagine collegate. PageRank assegna ai siti Web importanti e di alta qualità un “voto” più elevato di cui Google tiene conto ogni volta che esegue una ricerca. (Google)

Google PageRank

Analisi delle reti complesse. L’analisi delle reti nasce nel Settecento con il problema dei ponti di Eulero, padre della teoria dei grafi. Da allora l’analisi è stata prevalentemente usata per le reti sociali, con i primi studi di Huber (1802), passando poi per Comte, Galton, Watson, LeBon, Simmel, Marconi (il primo a parlare dei sei gradi di separazione), Moreno e così via dal dopoguerra in poi, con il contributo di molti sociologi e matematici. L’analisi delle reti sociali (social network analysis) ha trovato pieno consolidamento negli anni ’70 per poi trarre nuova linfa dagli studi dei fisici, primi tra tutti quelli di Barabási e della sua equipe alla fine degli anni ‘90. Uno dei risultati più importanti del lavoro di Barabási è l’aver individuato un tratto comune in tutte le reti complesse (WWW, Internet, neuroni-dendriti del cervello, catene alimentari, alleanze aziendali ecc.): la distribuzione del numero di link ricevuti da parte di un nodo segue una legge di potenza. Come noto, infatti, leggi di potenza ricorrono nella distribuzione di probabilità di numerosi fenomeni tra cui il numero di collegamenti ai siti web: le pagine web che ricevono moltissimi link sono pochissime, mentre sono moltissime quelle che ne ricevono zero o uno. 

Legge di potenza

Dunque anche per il PR, che è direttamente proporzionale a numerose variabili tra cui i link in entrata, può essere fatto un discorso analogo. Il punteggio in decimi del PR non va dunque inteso come quello scolastico: la stragrande maggioranza delle pagine ha infatti un PR pari a 0, il valore 3 è già un risultato discreto, 5 è molto buono mentre valori più alti sono generalmente raggiunti da un ristretto sottoinsieme di ottimi blogger, siti di grandi imprese o enti pubblici, oltre che, ovviamente, da giganti come GoogleMicrosoftWikipedia. I siti elitari così ricchi di link e con un alto PR sono chiamati hub.

Per Google il PR è un indicatore necessario e sufficiente a dare un’indicazione del posizionamento. Ma oltre al PR, quali altri indicatori è possibile utilizzare per misurare il posizionamento?

E’ possibile, ad esempio, considerare i seguenti indicatori (il cui contributo è assente o presente in modo marginale nel PR):
- Yahoo backlink: numero di collegamenti ipertestuali indicizzati da Yahoo alle pagine del sito;
- Wikipedia: numero collegamenti esterni negli articoli di Wikipedia alle pagine del sito;
- Delicious: numero segnalibri Delicious in cui viene citato il sito;
- DMOZ: numero collegamenti DMOZ in cui viene citato il sito;
- Twitter: numero tweet di Twitter in cui viene citato il sito;
- Digg: numero articoli su Digg in cui viene citato il sito.

Un sito che presenta valori alti di questi indicatori è ben posizionato nella sua categoria: i suoi contenuti sono sulla bocca di tutti, esso viene “ascoltato”, può influenzare altri siti, insomma è un attore che gode di una posizione (meritatamente) privilegiata nella rete.

Una misura del posizionamento può essere calcolata mediante un’opportuna sintesi di questi indicatori. Vediamo, in pratica, come è possibile procedere.

SIS, Sistan e Istat a confronto

Confrontiamo tre siti che si occupano di statistiche ufficiali e di promozione delle scienze statistiche: l’Istituto Nazionale di Statistica (www.istat.it), il Sistema Statistico Nazionale (www.sistan.it) e la Società Italiana di Statistica (www.sis-statistica.it).

In generale è possibile definire delle misure sintetiche per ciascun sito, seguendo opportune metodologie, ciascuna delle quali prevede la normalizzazione, la standardizzazione e infine l’aggregazione degli indicatori elementari. In questo caso applichiamo il Mazziotta Pareto Index (MPI), un indice sintetico nato in Istat che sopperisce ai fenomeni di compensazione tra indicatori e che varia tra 70 e 130. Per costruire l’indicatore si utilizza una funzione di aggregazione basata sulla non sostituibilità dei caratteri; in questo caso si ritiene infatti che gli indicatori elementari scelti siano egualmente importanti ai fini della valutazione del posizionamento. In particolare, per l’MPI presentato nel prospetto seguente, sono stati presi in considerazione solo il PR e i primi due indicatori (Yahoo e Wikipedia), dal momento che i servizi Delicious, Twitter, DMOZ e Digg sono ancora poco diffusi in Italia.

Per il calcolo del MPI sono stati utilizzati solo i primi tre indicatori. Dati rilevati il 13/09/2009.

Questi risultati indicano che i siti considerati possiedono contenuti di qualità, pertinenti al mondo della statistica ufficiale e che godono di una discreta centralità nella rete. Tuttavia, in un’analisi comparata con altri istituti di statistica europei, la posizione dell’Istat, così come quella della SIS e del Sistan, è certamente migliorabile.

Nuovi metodi di misura del posizionamento

L’approccio precedente presenta alcuni punti deboli tra cui la soggettività della scelta degli indicatori e il fatto che non siano indipendenti. Per queste ragioni, in alternativa, possono essere presi in considerazione nuovi metodi come ad esempio il Coolhunting for Trends on the Web del MIT, che consente di misurare e monitorare il posizionamento di marche, blog o siti sul Web con un approccio basato sia sui database di Google che sulle classiche misure di centralità della social network analysis. L’obiettivo di questo paragrafo è di fornire una prima presentazione di CONDOR, lo strumento software sviluppato nell’ambito progetto del MIT, rispetto ad alcuni risultati ottenuti mediante l’analisi del sito dell’Istat. CONDOR  consente di rappresentare e analizzare le sottoreti tematiche di un sito, ovverosia il sottoinsieme del Web dove il sito viene citato. Di seguito è riportata la blogosfera di riferimento dell’Istat, e cioè l’insieme dei blog dove l’istituto viene citato attraverso un collegamento ipertestuale e i blog ad essi connessi da al più tre gradi di separazione:

Blogosfera Istat.it nel periodo 1-20 settembre 2009
(analisi di Francesca Grippa – UNILE e Daniele Frongia – Istat)

In questo caso l’analisi del posizionamento di un sito può fornire ulteriori informazioni circa le porzioni del Web dove si possono raccogliere e analizzare importanti feedback sul proprio operato e sulla propria immagine.

In conclusione, per l’analisi di un sito occorre tenere in considerazione due fattori: il traffico e il posizionamento nella rete. In questi ultimi anni gli studi di fisici, matematici e sociologi stanno contribuendo a definire nuovi metodi e strumenti per l’analisi del posizionamento. L’argomento non è ancora pienamente maturo ma le potenzialità e le prospettive sono estremamente interessanti, anche per chi produce statistiche ufficiali e diffonde cultura statistica.

Per saperne di più

Analisi delle reti

Freeman L.C. (2007) Lo sviluppo dell’analisi delle reti sociali. Uno studio di sociologia della scienza, FrancoAngeli, Milano

Hanneman R.A., Riddle M. (2005) Introduction to social network methods, University of California, USA

Barabási A.L. (2004) Link. La scienza delle reti, Einaudi, Torino

Frongia, D. (2008), Intervista a Ginestra Bianconi sulle reti complesseSegnalazionIT, Roma

Nuovi metodi di misura del posizionamento

Bennato D. (2009) Vox Internet vox dei! Sarà vero? in Internet Magazine n.134 (gennaio), , pp.26-27, Roma

Gloor P., Krauss J., Nann S., Fischbach K., Schoder D. (2008) Web Science 2.0: Identifying Trends through Semantic Social Network Analysis, USA

Mazziotta Pareto Index

Mazziotta M., Pareto A. (2010) Appendice Metodologia in La dotazione di infrastrutture della sanità, Collana Informazioni, Istat, Roma

L’autore

Daniele Frongia (frongia _at_ istat.it)

Daniele Frongia lavora presso l’Istituto Nazionale di Statistica (Istat) dove si occupa di metodi e strumenti Web 2.0. E’ autore del blog http://segnalazionit.org/.

CENSIS, Comunicazione, digitale, Facebook, Innovazione, Ricerca, Società della Conoscenza, Twitter, wikipedia, YouTube

8° RAPPORTO CENSIS/Ucsi sulla comunicazione «I media tra crisi e metamorfosi»

Presentato l’8° Rapporto Censis/Ucsi sulla comunicazione «I media tra crisi e metamorfosi». Contagiati dai social network più di 19 milioni di italiani

Facebook il più popolare (conosciuto dal 90,3% dei giovani), YouTube il più utilizzato (dal 67,8%). Ma si teme per la privacy

Fenomeni di massa. Sono cinque i social network più popolari: Facebook, conosciuto dal 61,6% degli italiani, YouTube (60,9%), Messenger (50,5%), Skype (37,6%) e MySpace (31,8%). Le percentuali raggiungono valori ancora più elevati tra i giovani di 14-29 anni. Per nove ragazzi su dieci Facebook (90,3%), YouTube (89,2%) e Messenger (89,1%) rappresentano mondi ben noti, con le loro regole e i loro «contatti». Nell’universo giovanile hanno una popolarità considerevole, sebbene inferiore, anche MySpace (68,8%) e Skype (62,9%). I giovani hanno preso l’abitudine a «vivere connessi», dato che l’uso congiunto dei cellulari e di Internet li ha messi nella condizione di essere continuamente in rapporto con tutti quelli che condividono la loro esperienza di vita quotidiana. Complessivamente, si può stimare che poco meno di 33 milioni di italiani conoscano almeno un social network e che gli effettivi utilizzatori siano 19,8 milioni.

Facebook il più popolare, YouTube il più utilizzato. Gli utenti di YouTube sono pari al 28,3% della popolazione (il 67,8% nella fascia 14-29 anni, il 39,5% tra le persone più istruite), quelli di Facebook il 22,9% (il 56,8% dei giovani, il 34,4% dei soggetti con titolo di studio più elevato). Il web 2.0 ha avuto uno sviluppo esponenziale grazie all’impiego di Internet per costruire insieme agli altri una conoscenza diffusa (come Wikipedia), trovare opportunità di lavoro e di carriera (LinkedIn), scambiarsi merci (eBay), ma anche notizie, confidenze e pettegolezzi (Messenger, Facebook, Twitter), oppure video (YouTube) e ogni altro prodotto audiovisivo, quand’anche protetto dal diritto d’autore (eMule). Grazie a smartphone, lettori mp3, e-reader, il centro di gravità dei consumi digitali si sposta sempre più dal computer ai piccoli apparecchi portatili, che consentono di accedere a informazioni, musica, libri, giochi, utilities in un rapporto di piena complementarietà con la rete, con forme e tempi di fruizione sempre più personalizzati.

Cosa si fa su Facebook. La principale motivazione che ha spinto gli utenti a iscriversi a Facebook è il desiderio di mantenere i contatti con gli amici (70,5%) e di ritrovare vecchi compagni di scuola ed ex colleghi (57,8%), mentre la speranza di intrecciare una relazione intima ha spinto all’iscrizione appena l’1,8% degli utenti, in particolare i maschi (2,6%). La maggioranza (il 68,4%) preferisce accedere a Facebook nelle ore serali, il 36,5% si connette solitamente nelle ore diurne, il 15,3% durante l’orario di lavoro o di studio, e solo uno su dieci accede al sito esclusivamente nel weekend. Le attività preferite dagli utenti di Facebook sono: guardare cosa c’è nelle bacheche degli amici (41,2%), inviare messaggi personali (40,5%), inserire commenti nelle bacheche degli amici (37,2%), chattare con chi è in linea (35,7%), utilizzare le applicazioni disponibili come test e giochi (24,6%), inserire foto, video o file musicali (21,3%). Il 54,6% degli utenti fa parte di gruppi di interesse o ha sottoscritto citazioni apparse su Facebook, e il 10% ha effettivamente partecipato a eventi sociali, manifestazioni politiche, spettacoli di cui è venuto a conoscenza tramite il social network.

Luci e ombre su Fb. Poco più di un utente su quattro (il 26,8%) constata che da quando si è iscritto a Facebook tende a dedicare meno tempo ad altro. L’attività più penalizzata è la lettura di libri, per il 42,4% degli iscritti a Facebook che avvertono di dedicare meno tempo ad altre attività. Segue la consultazione di altri siti Internet (40%), guardare la televisione (26,5%), studiare o lavorare (21,7%), sentire gli amici al telefono (14,4%), uscire con gli amici (11,5%), andare al cinema (11%). C’è anche, seppure in misura minoritaria (per l’8,5% degli iscritti), il timore che dalla presenza su Facebook possano derivare dei rischi. Quello che preoccupa di più è la violazione della privacy: il 72,1% degli utenti che nutrono preoccupazioni è di questo avviso, il 35,1% teme l’eventualità di conoscere persone pericolose, il 23,4% indica l’indebolimento delle relazioni dirette con i familiari e gli amici, il 13,4% l’abbassamento del rendimento nel lavoro o nello studio, e il 9,3% teme che dall’uso di Facebook possano derivare problemi per la propria reputazione (ad esempio, che il profilo personale venga controllato dal datore di lavoro).

L’evoluzione dei consumi mediatici. In crescita la diffusione di tutti i mezzi di comunicazione tra il 2001 e il 2009. Aumentano gli utenti di Internet (+26,9%) e dei telefoni cellulari (+12,2%), ma anche la radio – che ormai si può ascoltare anche dal lettore mp3, dal telefonino e dal web – fa un grande balzo in avanti (+12,4%), così come crescono, anche se di poco, i lettori di libri (+2,5%) e di giornali (+3,6%), e la stessa televisione raggiunge praticamente la quasi totalità degli italiani (+2%). Gli utenti della Tv arrivano a quota 97,8% della popolazione, il cellulare sale all’85%, la radio all’81,2% (in particolare, l’ascolto della radio dal lettore mp3 è tipico del 46,7% dei giovani tra 14 e 29 anni), i giornali al 64,2%, i libri al 56,5%, Internet al 47%. La diffusione dei nuovi media non ha penalizzato quelli già esistenti: nella società digitale i nuovi mezzi di comunicazione non sostituiscono i vecchi, anzi, affiancandosi ad essi, creano nuovi stimoli al loro impiego secondo la logica della moltiplicazione e integrazione.

I riflessi della crisi. La crisi che stiamo attraversando – che è anche la prima grande crisi conosciuta dalla società digitale – ha accelerato il processo di trasformazione del sistema dei media già in atto, sospinto dalle innovazioni tecnologiche, determinando con notevole rapidità un riposizionamento dei diversi mezzi. Si rileva l’espansione dei media gratuiti e la sostanziale battuta d’arresto di quelli a pagamento (ad eccezione della Tv digitale). Mentre l’uso complessivo del telefono cellulare rimane pressoché stabile tra il 2007 e il 2009 (con un leggero calo dall’86,4% all’85% della popolazione), a crescere notevolmente è stato l’uso del cellulare nelle sue funzioni di base (dal 48,3% al 70%), mentre quelle più sofisticate – e costose – sono diminuite: l’uso dello smartphone è sceso dal 30,1% al 14,3%, il videofonino dall’8% allo 0,8%. Questi dati non verificano il possesso dell’apparecchio, bensì ne misurano l’uso effettivo. Il telefonino è dunque un bene a cui non si può rinunciare, neanche in tempi di crisi, però qualcosa si può risparmiare, magari inviando qualche sms in più ed evitando di connettersi a Internet con i costosissimi servizi wap.

Le nuove Tv. Le nuove forme di televisione sono entrate a far parte delle abitudini degli italiani. Negli ultimi due anni, tra il 2007 e il 2009, l’utenza della Tv satellitare passa dal 27,3% al 35,4% della popolazione e il digitale terrestre raddoppia il suo pubblico (dal 13,4% al 28%), benché lo switch over del segnale analogico abbia interessato finora solo alcune zone del territorio nazionale. La Tv via Internet triplica la sua utenza, passando dal 4,6% al 15,2%, e la mobile Tv interessa già l’1,7% della popolazione. In tempi di crisi, dovendo fare delle scelte, gli italiani si sono orientati verso l’investimento nei media che forniscono più servizi, di diverso genere e cumulabili tra i membri della famiglia, come i pacchetti delle pay Tv: oggi il 60,7% di chi guarda la Tv digitale (satellitare o terrestre) ha sottoscritto un abbonamento, soprattutto per guardare le partite di calcio e gli eventi sportivi in esclusiva (31,2%), i film in prima visione (24,8%), i cartoni animati per i bambini (13%).

Si rinuncia alla carta stampata. Negli ultimi due anni la lettura dei quotidiani a pagamento passa dal 67% al 54,8%, invertendo la tendenza leggermente positiva che si era registrata negli anni immediatamente precedenti al 2007. Questo è il dato dell’utenza complessiva, cioè chi legge un quotidiano almeno una volta la settimana. L’utenza abituale, cioè chi lo legge almeno tre volte la settimana, passa dal 51,1% del 2007 al 34,5% del 2009. Se prima della crisi la metà degli italiani aveva un contatto stabile con i quotidiani, adesso questa porzione si è ridotta a un terzo. Se si pensa che in questa quota sono compresi anche i quotidiani sportivi, si può capire quanto la crisi abbia reso ancora più marginale il ruolo della carta stampata nel processo di formazione dell’opinione pubblica nel nostro Paese. La flessione non è neanche compensata dall’aumento della diffusione della free press, che rimane pressoché stabile (l’utenza passa dal 34,7% al 35,7%). La lettura, anche occasionale, dei settimanali coinvolge nel 2009 il 26,1% degli italiani (-14,2% rispetto al 2007) e quella dei mensili il 18,6% (-8,1%). In leggera flessione anche la lettura dei libri, che era cresciuta per tutto il decennio, raggiungendo il 59,4% della popolazione nel 2007, per ripiegare poi al 56,5% nel 2009.

Verso la saturazione dell’utenza di Internet. L’impiego di Internet tra gli italiani è passato dal 45,3% del 2007 al 47% della popolazione nel 2009. Quando ormai il web è diventato familiare per l’80,7% dei giovani e il 67,2% delle persone più istruite, il dato complessivo potrà aumentare solo di poco nel breve periodo. Per quanto riguarda i quotidiani on line, si registra una flessione dell’utenza (dal 21,1% al 17,7%) che non è certo riconducibile a motivi economici, bensì all’evoluzione degli impieghi della rete: si pensi ai portali che pubblicano anche notizie di cronaca e di costume, a link e finestre informative aperte nei blog e nei social network abitualmente frequentati, ai motori di ricerca e agli aggregatori che rintracciano automaticamente le notizie in rete.

Nasce il press divide. Il numero delle persone che hanno un rapporto esclusivo con i media audiovisivi (radio e Tv) rimane praticamente stabile (26,4%), mentre diminuiscono quanti hanno una «dieta mediatica» basata al tempo stesso su mezzi audiovisivi e mezzi a stampa (dal 42,8% al 24,9% tra il 2006 e il 2009). La somma di questi due gruppi rappresenta il totale di quanti non hanno ancora colmato il digital divide, la cui soglia si collocava nel 2006 al 71% e scende oggi al 51,3% della popolazione. Nasce però un nuovo divario tra quanti contemplano nelle proprie diete i media a stampa (insieme a radio, Tv e Internet) e quanti non li hanno ancora o non li hanno più. Se il digital divide si sta attenuando, il press divide invece aumenta, visto che nel 2006 era il 33,9% degli italiani a non avere contatti con i mezzi a stampa, mentre nel 2009 si è arrivati al 39,3% (+5,4%). Ad aumentare negli ultimi anni l’estraneità ai mezzi a stampa, e in misura rilevante, sono stati i giovani (+10%), gli uomini (+9,9%) e i più istruiti (+8,2%), cioè i soggetti da sempre ritenuti il traino della modernizzazione del Paese.

.

Questi sono alcuni dei principali risultati dell’8° Rapporto Censis/Ucsi sulla comunicazione, promosso da H3G, Mediaset, Mondadori, Rai e Telecom Italia, presentato oggi a Roma presso la Sala Zuccari di Palazzo Giustiniani da Giuseppe De Rita e Giuseppe Roma, Presidente e Direttore Generale del Censis, e discusso da Renato Schifani, Presidente del Senato, Andrea Melodia, Presidente dell’Ucsi, Fedele Confalonieri, Presidente di Mediaset, Maurizio Costa, Amministratore Delegato di Mondadori, Roberto Forte, Direttore Mobile Tv di H3G Italia, e Carlo Malinconico, Presidente della Fieg.

Fonte: http://www.censis.it

Uncategorized

Nobel Economia 2009: premio alla governance dei sistemi collettivi

Nobel Economia 2009 premiati Ostrom e Williamson Studio Baroni

Il premio Nobel per l’economia è stato assegnato a Elinor Ostrom che lo divide a pari merito con Oliver Williamson per i loro studi sulla governance economica. Un riconoscimento che verrà ricordato per essere stato assegnato per la prima volta in questo campo a una donna.

La Ostrom, spiega il comitato del premio Nobel, “ha dimostrato come le comproprietà possono essere gestite in maniera efficace delle associazioni di utenti“. Con i suoi studi, spiega la motivazione per Williamson, “ha mostrato che i mercati e le organizzazioni gerarchiche, a riflesso di quanto avviene nelle aziende, hanno delle strutture di governance alternative che si differenziano per il modo diverso di risolvere i conflitti di interesse“.

Elinor Olstrom, 76 anni, insegna alla Indiana University di Bloomington ed è considerata infatti tra i principali studiosi del pool di risorse comuni. In particolare, il lavoro della Ostrom, che in Italia ha pubblicato il libro Governare i sistemi collettivi, si è soffermato sulle interazioni tra gli esseri umani e gli ecosistemi per arrivare ad un equilibrio che sia di lungo periodo e sostenibile per l’uso delle risorse. Secondo il pensiero della Ostrom, le foreste, la pesca, il petrolio, l’acqua rappresentano il pool di beni comuni che gli esseri umani attraverso la creazione di accordi istituzionali sono riusciti a sfruttare senza però arrivare al collasso degli ecosistemi. Ma nonostante i successi ottenuti siano tanti, gli esseri umani sono anche responsabili di innumerevoli sfasci di ecosistemi diversi, per questo il suo lavoro attuale sottolinea la necessità di indagare la natura dell’interazione uomo-ecosistema per risolvere i problemi che questa pone. Il riconoscimento del nobel all’economia alla Ostrom, spiega il comitato, è perché «ha dimostrato come le comproprietà possono essere gestite in maniera efficace delle associazioni di utenti».

Oliver Williamson, di anni ne ha 77 anni, insegna a Berkeley, nella University of California, ed è il creatore della cosiddetta economia neo-istituzionalista, conosciuta anche come economia dei costi di transazione, in cui si sostiene che ogni organizzazione economica nasce dal tentativo di minimizzare costi di transazione in contesti caratterizzati da contratti incompleti, investimenti specifici, razionalità limitata e opportunismo. Per Williamson l’obiettivo di ogni organizzazione economica è quello di ridurre i costi di transazione sia ex-ante sia ex-post e la loro interdipendenza. Da cui la motivazione dell’assegnazione del premio da parte della Commissione di Oslo: «per la sua analisi della governance economica, in particolare i confini di un’impresa». Con i suoi studi, si spiega nella motivazione, Williamson «ha mostrato che i mercati e le organizzazioni gerarchiche, a riflesso di quanto avviene nelle aziende, hanno delle strutture di governance alternative che si differenziano per il modo diverso di risolvere i conflitti di interesse».

Mettendo assieme le motivazioni per le quali il Comitato di Oslo ha scelto i due economisti americani per assegnare questo che è considerato un Nobel spurio, dal momento che non era stato previsto dall’ideatore Alfred Nobel nel 1895, ma inserito solo a partire dal 1969, sembra di leggere un’attenzione verso la necessità di trovare la strada per raggiungere un sistema di governance a livello globale per trovare un equilibrio tra lo sviluppo umano e l’uso delle risorse.

Un altro segnale, insomma, dopo l’assegnazione del premio per la pace a Barack Obama, come interprete di una risposta globale alle sfide globali, che queste sfide hanno al centro il rapporto tra economia e risorse naturali e che la strada per affrontarle è quella di individuare un sistema di governance che sia anch’esso globale.

.

Premi Nobel 2009

Fonti: