Comunicazione, Innovazione, QR code, sicurezza, Società della Conoscenza

Il QR-CODE etichetta l’alta qualità 100% dell’olio extra vergine made in Italy

Buone notize da ARGAV: il QR-CODE è stato adottato da Unaprol come sistema di comunicazione digitale dell’olio di oliva di qualità 100% italiano.

Uno dei prodotti più importanti della filiera agroalimentare italiana ha scelto di adottare la nuova tecnologia con letichetta che parla al consumatore. Il progetto, oltre a presentare grandi potenzialità di marketing per i prodotti italiani, è un efficace mezzo di controllo della tracciabilità.

Ogni bottiglia, una carta d’identità elettronica. L’etichettatura innovativa adottata da Unaprol – Consorzio Olivicolo Italiano, guarda al mercato, parla al consumatore ed è la novità dell’edizione 2010 del SOL, il salone internazionale dell’olio extra vergine di oliva di qualità appena concluso a Verona.

Questo sistema di etichettatura permette di dotare le bottiglie di olio extra vergine di oliva di una carta di identità elettronica, costituita da una semplice etichetta intelligente adesiva. L’etichetta è capace di ospitare e veicolare a consumatori, distributori, ristoratori, numerose e più complete informazioni sull’ olio extra vergine di oliva contenuto nella bottiglia.

Approfondisci e vedi gli esempi con le applicazione del QR-CODE in un precedente articolo di Studio Baroni (in fondo al post c’è il link per generare gratuitamente il QR-CODE.

Innovazione, Pedagogia, Pubblica Amministrazione, Scuola, Società della Conoscenza

SCUOLA: Guida alla Riforma della secondaria di secondo grado

Pubblicato dal Ministero dell’Istruzione un vademecum sul nuovo impianto organizzativo che vedrà la sua realizzazione a partire dal prossimo anno scolastico 2010/2011. Sei licei, istituti tecnici suddivisi in due settori con undici indirizzi, istituti professionali suddivisi in due settori e sei indirizzi.

Quattro dei sei diplomi liceali (classico, scientifico, linguistico, delle scienze umane) si pongono in continuità – per durata, numero e tipo di materie e orari (allineati sulle 30 ore settimanali, 27 nel biennio iniziale, ad eccezione del liceo classico che prevede 31 ore nel secondo biennio e nel quinto anno) – con i tradizionali corsi di ordinamento. Ad essi si affiancano il nuovissimo liceo musicale e coreutico (32 ore settimanali) e i percorsi artistici che, da oltre quaranta, si ridurranno a sei, con un orario settimanale di 34 ore al biennio iniziale e di 35 ore nei tre anni successivi.

Link:

Concorsi, Creative Commons, Innovazione, Società della Conoscenza, Web 2.0

A scuola di innovazione con Garamond partner e sponsor editoriale

Le nuove tecnologie e i prodotti multimediali possono essere di grande aiuto sui banchi di scuola e questo concorso vuole promuoverne l’utilizzo, diffondendo le migliori esperienze realizzate in Italia. Rivolto alle scuole primarie e secondarie, il premio è aperto fino al prossimo 18 marzo 2010

La tecnologia fornisce oggi un’occasione storica, che permette alla scuola di uscire dal suo tradizionale isolamento e di modellarsi in forme diversamente distribuite. E’ in quest’ottica che nasce il premio A scuola di innovazione – organizzato da Ministero per la Pubblica Amministrazione e l’InnovazioneMinistero dell’Istruzione, dell’Università e della Ricerca, in collaborazione con ForumPa – dedicato agli innovatori di domani, con l’obiettivo di favorire l’apprendimento collaborativo e lo scambio di esperienze.

Gli amici di Garamond sono partner ed unico sponsor editoriale. Garamond è una casa editrice di Roma nata nel 1989 specializzata sull’uso didattico delle tecnologie digitali e di rete. Produce contenuti (libri, e-book, learning object) e strumenti (programmi autore, piattaforme di rete, sistemi hardware e software). Garamond cura la formazione e l’aggiornamento dei docenti che viene svolta soprattutto in modalità e-learning.

una costante azione di ricerca e sperimentazione sul campo, dalla quale origina ogni nuova iniziativa.

Il premio è rivolto alle scuole primarie e secondarie di primo e secondo grado che abbiano prodotto o abbiano intenzione di produrre oggetti digitali per la didattica e che siano interessate a condividerli con il mondo della scuola.
La candidature possono essere presentate esclusivamente on line, utilizzando l’apposita scheda di candidatura, disponibile sul sito www.premioscuolainnovazione.it. L’inoltro on line delle candidature sarà possibile fino alle ore 24 del 18 marzo 2010.

Le scuole si possono candidare presentando Contenuti Didattici Digitali (CDD) appartenenti a  queste categorie:

  • Giochi educativi
  • Lezioni ed esercizi multimediali su specifiche discipline o ambiti disciplinari
  • Simulazioni ed esperimenti
  • Oggetti a sostegno della didattica per i diversamente abili
  • Oggetti per la sensibilizzazione su tematiche sociali, interculturali, ambientali, pari opportunità e di attualità

Cardine dell’iniziativa è lo spirito di condivisione: i contenuti digitali, infatti, devono essere distribuiti secondo le licenze Creative Commons, che permettono agli autori di mantenere la paternità delle proprie opere e, allo stesso tempo, ne consentono l’uso simultaneo, la distribuzione o l’eventuale rielaborazione a tutti coloro aderiscono a questo modello di licenze.
I migliori oggetti proposti saranno pubblicati all’interno della Libreria Digitale del portale InnovaScuola.

.

Cos’è Creative Commons?

Licenze Creative Commons (CC) è la denominazione di alcune licenze di diritto d’autore redatte e messe a disposizione del pubblico a partire dal 16 dicembre 2002 dalla Creative Commons, un ente non-profit statunitense fondato nel 2001. Sono state quindi tradotte in italiano e adattate al nostro sistema giuridico da un gruppo di lavoro del Dipartimento di Scienze Giuridiche dell’Università di Torino.

La filosofia su cui è fondato lo strumento giuridico delle licenze CC si basa sullo slogan “Some Rights Reserved” (alcuni diritti riservati), una graduale sfumatura intermedia fra il modello “tutti i diritti riservati” tipico del copyright tradizionale e il modello “nessun diritto riservato” tipico del pubblico dominio integrale o di una sorta di no-copyright. In sostanza l’autore può decidere quali diritti riservarsi e quali cedere a terzi, riguardo l’utilizzo dei contenuti originali da lui creati.

Una curiosità sull’origine del nome Creative Commons Nell’articolo The tragedy of the commons del 1968 (“La tragedia dei benicomuni”) l’economista Garret Hardin sosteneva che i beni comuni, ovvero quelli di proprietà di nessuno ma di cui tutti possono beneficiare, sono sempre destinati alla rovina: «La rovina è la destinazione verso la quale tutti gli uomini si affrettano, ciascuno perseguendo il proprio massimo interesse in una società che crede nella libertà di accesso ai beni comuni. Questa libertà porta la rovina a tutti quanti.» (Breve estratto della versione italiana disponibile alla pagina web www.oilcrash.com)

I teorici di Creative Commons sostengono invece che i beni come i prodotti della creatività e dell’ingegno umano non sono soggetti a deperimento poiché ogni creazione aumenta il suo valore sociale quante più sono le persone che ne possono beneficiare (oltretutto la creatività umana, a differenza di altre risorse naturali, non ha limiti).  Per questo possiamo parlare di una “comedy of the commons”, dove però i beni comuni sono beni comuni creativi, appunto dei “creative commons”.

.

Bando Premio Scuola Innovazione

.

Fonti:

.

.

.

Comunicazione, digitale, Facebook, Imprese 2.0, Innovazione, Marketing, Social Network, Web 2.0

Facebook festeggia i 400 milioni di utenti e lancia la nuova home page personale

Festeggia il sesto compleanno e 400 milioni di utenti nel mondo, così Facebook coglie l’occasione per cambiare look e funzionalità.

Da questa mattina gran restyling nell’home page personale di 80 milioni di persone e aziende. L’operazione dovrebbe chiudersi in giornata

I cambiamenti più rilevanti riguardano la disposizione dei contenuti in homepage. In alto a sinistra, vicino al logo del social network, si possono vedere le nuove  icone relative a notifiche (più grandi e stilizzate in riga), messaggi non letti e richieste di amicizia. Con un click appare l’anteprima del contenuto, così è più veloce e si guadagna in tempo dedicato.

Nella fascia a sinistra del layout è visibile un sintetico elenco degli amici che sono online, come prima vale la regola “ti vedo se mi faccio vedere”. Invece, in alto a destra, alla voce “account” sono visibili i link per gestire il profilo, visualizzazione foto, privacy, eventi… gli album degli amici assumono rilevante centralità in mezzo alla pagina.

Interessante la soluzione adottata per spiegare le modifiche, sembra un cruscotto:

Comunicazione, digitale, Facebook, libri, Marketing, Partecipazione, Social Network, Software libero, Twitter, Web 2.0

Facebook e Twitter: 2 libri di Federico Guerrini

Studio Baroni riceve e pubblica volentieri news su due libri dell’amico autore Federico Guerrini.

Per gli utenti italiani di Facebook, il social network più famoso al mondo, è il momento dei bilanci. Dopo l’ondata di entusiasmo dello scorso anno, che ha decuplicato in pochi mesi il numero di iscritti alla piattaforma, per molti è l’ora dei dubbi e dei ripensamenti. Un atteggiamento di diffidenza generato spesso da una scarsa conoscenza del mezzo. Quanti dei milioni di membri di Facebook, infatti, sanno davvero come sfruttarne tutte le potenzialità ed evitare i principali rischi?

Questo libro di Federico Guerrini, facebookiano della prima ora e autore di numerose pubblicazioni su Internet e sulle nuove tecnologie, analizza a fondo il fenomeno Facebook: dai suoi riflessi sul mondo del lavoro e sulle storie sentimentali, ai problemi di privacy e tecnodipendenza che affollano le cronache di tutti i giornali. Grande attenzione viene dedicata all’uso consapevole di Facebook e alle applicazioni più utili per trasformare e potenziare l’esperienza di social networking. C’è anche lo spazio per azzardare qualche previsione sugli scenari futuri del Web, in cui Facebook potrebbe recitare sempre più un ruolo da protagonista.

Argomenti trattati nel libro:

  • In continua evoluzione
  • La nuovissima interfaccia utente
  • Applicazioni “Must”
  • Il lato oscuro di Facebook: rischi e precauzioni
  • Per un utilizzo consapevole e sicuro
  • Strategie e scenari futuri
  • Partnership, alleanze e integrazioni

IL MONDO SEGRETO DI TWITTER, recensione di Danilo Ruocco

Twitter è il luogo in cui si comunica a botta di messaggi non superiori a 140 caratteri. Molti non lo amano proprio per la brevità che impone. Altri lo amano proprio per questo. Tanti non vedono l’utilità di usare il microblogging, altri lo usano e basta, senza chiedersi a cosa realmente possa essere utile.

A cosa sia utile Twitter lo decide solo chi Twitter usa. Ogni utente – si può quasi dire senza tema di smentita – fa storia a sé, pur entrando in una enorme community di users.

La nota semplicità di Twitter che consiste non solo nella brevità dei messaggi da postare, ma nel fatto che tutto ruoti attorno a un’unica domanda (“Che c’è di nuovo?”), può trarre in inganno sulle molteplici possibilità che il microblogging creato tramite la piattaforma apre e offre. Esse, infatti, sono tali e tante che per gestirle al meglio la piattaforma Twitter da sola non basta. A venire in soccorso degli utenti ci sono le applicazioni di terze parti, ognuna delle quali si occupa di allargare e monitorare uno o più servizi e opzioni di Twitter.

Di applicazioni ne esistono davvero tantissime e delle più svariate, usabili sia scaricandole sul proprio computer, sia direttamente tramite il browser, sia con il cellulare.

A dare una panoramica di quello che è possibile ottenere e fare da e con Twitter e le varie applicazioni terze ci pensa un libretto di 144 pagine scritto da Federico Guerrini per la collana “I grandi libri di PCWorld” titolato assai correttamente Alla scoperta di Twitter (acquistabile in edicola oppure online, sul sito shop.nuovaperiodici.it).

Il libro è agile e approfondito e spiega in modo chiaro non solo la piattaforma “madre”, ma anche le varie applicazioni terze (loro utilizzo e finalità). Spiega anche come integrare il proprio “cinguettio” con gli altri social network come Facebook, FriendFeed e LinkedIn o come integrarlo con il proprio account GMail.

Un volumetto che vale la pena di essere letto anche dagli utenti “base” di Twitter, al fine di rendersi conto delle possibilità cui si può accedere e, magari, decidere di variare e/o integrare l’utilizzo che fin qui si è fatto del microblogging.

Per alcuni, Twitter è solo un mezzo per i malati di esibizionismo per far sapere a tutti ogni più piccolo dettaglio della loro vita quotidiana in tempo reale: da quando si alzano al mattino al menù del pranzo o della cena; per altri, è uno strumento straordinario, capace di raccontare in diretta rivoluzioni e organizzare i soccorsi in caso di catastrofi naturali o prodotte dall’uomo. Comunque sia, Twitter, il social network del “cinguettìo” lanciato nel 2006 da Jack Dorsey, Biz Stone, Evan Williams e altri, è un fenomeno con cui fare i conti. Capace di contendere a Facebook il primato di miglior social network del mondo…

Federico Guerrini è nato a Milano nel 1972. Giornalista e scrittore, si è occupato di cronaca, cultura e automotive e ha lavorato come traduttore, lettore e valutatore di manoscritti, creatore di prodotti multimediali e addetto stampa. Da qualche anno si dedica al settore delle nuove tecnologie, collaborando con PCWorld Italia e scrivendo libri, concentrandosi in particolare sull’argomento dei social network e sull’uso consapevole di Internet. Ha pubblicato finora: “Tutto su Facebook” (Hoepli, 2008), “Trovare lavoro in Rete” (Hoepli, 2009), “Proteggi la tua privacy”, “Internet Utile”, “Alla scoperta di Twitter”, “facebook reloaded”.

Comunicazione, digitale, Google, Innovazione, ISTAT, Social Network, Statistiche, Web 2.0, wikipedia

Il successo di un sito web? Non solo una questione di traffico: i casi Istat, SIS e Sistan

(Articolo di Daniele Frongia tratto da www.sis-statistica.it)

Il posizionamento e il successo di un sito

Come si analizza il successo o l’insuccesso di un sito web o un blog? Esistono numerosi software per l’analisi del traffico di un sito che si basano, prevalentemente, sul numero dei visitatori. Questi strumenti offrono una serie di informazioni come il numero di visitatori, le pagine più visitate, il tempo di permanenza medio, le pagine che attraggono il maggior numero di clic iniziali, o finali, le parole chiave utilizzate per arrivare al sito e l’analisi della distribuzione dei visitatori per provenienza geografica.

Ma è corretto dire che il successo di un sito è una funzione del solo numero di visitatori? Una nuova generazione di strumenti offre oggi l’opportunità di misurare il successo di un sito tenendo meglio conto della sua natura multidimensionale. In particolare possiamo vedere il successo di un sito in funzione, oltre che del traffico, anche del suo posizionamento nella rete [] ovvero della sua solidità di carattere “infrastrutturale”. Il posizionamento è dunque uno dei presupposti per un successo solido e duraturo del sito.

Se da un lato possiamo affermare che il successo di un sito è funzione del traffico e del suo posizionamento, dall’altro non possiamo pensare che la misura di tale successo sia completamente determinabile: il successo è infatti di natura prevalentemente soggettiva, e il dibattito al riguardo è in continua evoluzione. In questo articolo non proporremo quindi alcuna sintesi di questi due fattori per produrre un unico indice del successo.  Tratteremo invece più specificamente il posizionamento: l’aggiunta di questa dimensione di analisi è un aiuto concreto per migliorare la corrispondenza fra misurazione e percezione.

Possiamo descrivere il posizionamento con una metafora: mentre le classiche analisi quantitative sul traffico ci dicono quanti sono e cosa fanno gli ospiti nella nostra casa, l’analisi del posizionamento prova a dirci come e dove è situata la casa, se è in centro o in periferia, se è collegata ad altre strutture, se è così importante e ben vista da influenzare il vicinato (guarda che bel portone, lo voglio anch’io) e così via.

L’analisi del posizionamento fornisce inoltre indicazioni utili per confrontare siti di categorie diverse (se repubblica.it ricevesse 100.000 visite al giorno sarebbe un flop; di contro, un sito altamente specialistico, ben posizionato e con 1000 visite al giorno sarebbe un successo strepitoso) e su sottoreti specifiche, come vedremo nell’ultimo paragrafo, con risultati più puntuali e significativi. In questo articolo definiamo quindi un sito ben posizionato (o centrale) come influente e rilevante nella rete.

Primi metodi di misura del posizionamento

Per definire meglio il posizionamento occorrono due brevi premesse teoriche: il sistema di punteggio assegnato da Google alle pagine web e i recenti studi sulle reti complesse.

Google PageRank (PR). Google assegna a ciascuna pagina  presente nel suo database un proprio punteggio, il PageRank, che consiste in un numero compreso tra 0 e 10, calcolato sulla base di numerose variabili.

Basato sullo specifico carattere “democratico” del Web, PageRank sfrutta la vastissima rete di collegamenti associati alle singole pagine per determinarne il valore. In pratica, Google interpreta un collegamento dalla pagina A alla pagina B come un “voto” espresso dalla prima in merito alla seconda. Tuttavia, non si limita a calcolare il numero di voti, o collegamenti, assegnati a una pagina. Oltre a effettuare questo calcolo, Google prende in esame la pagina che ha assegnato il voto. I voti espressi da pagine “importanti” hanno più rilevanza e quindi contribuiscono a rendere “importanti” anche le pagine collegate. PageRank assegna ai siti Web importanti e di alta qualità un “voto” più elevato di cui Google tiene conto ogni volta che esegue una ricerca. (Google)

Google PageRank

Analisi delle reti complesse. L’analisi delle reti nasce nel Settecento con il problema dei ponti di Eulero, padre della teoria dei grafi. Da allora l’analisi è stata prevalentemente usata per le reti sociali, con i primi studi di Huber (1802), passando poi per Comte, Galton, Watson, LeBon, Simmel, Marconi (il primo a parlare dei sei gradi di separazione), Moreno e così via dal dopoguerra in poi, con il contributo di molti sociologi e matematici. L’analisi delle reti sociali (social network analysis) ha trovato pieno consolidamento negli anni ’70 per poi trarre nuova linfa dagli studi dei fisici, primi tra tutti quelli di Barabási e della sua equipe alla fine degli anni ‘90. Uno dei risultati più importanti del lavoro di Barabási è l’aver individuato un tratto comune in tutte le reti complesse (WWW, Internet, neuroni-dendriti del cervello, catene alimentari, alleanze aziendali ecc.): la distribuzione del numero di link ricevuti da parte di un nodo segue una legge di potenza. Come noto, infatti, leggi di potenza ricorrono nella distribuzione di probabilità di numerosi fenomeni tra cui il numero di collegamenti ai siti web: le pagine web che ricevono moltissimi link sono pochissime, mentre sono moltissime quelle che ne ricevono zero o uno. 

Legge di potenza

Dunque anche per il PR, che è direttamente proporzionale a numerose variabili tra cui i link in entrata, può essere fatto un discorso analogo. Il punteggio in decimi del PR non va dunque inteso come quello scolastico: la stragrande maggioranza delle pagine ha infatti un PR pari a 0, il valore 3 è già un risultato discreto, 5 è molto buono mentre valori più alti sono generalmente raggiunti da un ristretto sottoinsieme di ottimi blogger, siti di grandi imprese o enti pubblici, oltre che, ovviamente, da giganti come GoogleMicrosoftWikipedia. I siti elitari così ricchi di link e con un alto PR sono chiamati hub.

Per Google il PR è un indicatore necessario e sufficiente a dare un’indicazione del posizionamento. Ma oltre al PR, quali altri indicatori è possibile utilizzare per misurare il posizionamento?

E’ possibile, ad esempio, considerare i seguenti indicatori (il cui contributo è assente o presente in modo marginale nel PR):
- Yahoo backlink: numero di collegamenti ipertestuali indicizzati da Yahoo alle pagine del sito;
- Wikipedia: numero collegamenti esterni negli articoli di Wikipedia alle pagine del sito;
- Delicious: numero segnalibri Delicious in cui viene citato il sito;
- DMOZ: numero collegamenti DMOZ in cui viene citato il sito;
- Twitter: numero tweet di Twitter in cui viene citato il sito;
- Digg: numero articoli su Digg in cui viene citato il sito.

Un sito che presenta valori alti di questi indicatori è ben posizionato nella sua categoria: i suoi contenuti sono sulla bocca di tutti, esso viene “ascoltato”, può influenzare altri siti, insomma è un attore che gode di una posizione (meritatamente) privilegiata nella rete.

Una misura del posizionamento può essere calcolata mediante un’opportuna sintesi di questi indicatori. Vediamo, in pratica, come è possibile procedere.

SIS, Sistan e Istat a confronto

Confrontiamo tre siti che si occupano di statistiche ufficiali e di promozione delle scienze statistiche: l’Istituto Nazionale di Statistica (www.istat.it), il Sistema Statistico Nazionale (www.sistan.it) e la Società Italiana di Statistica (www.sis-statistica.it).

In generale è possibile definire delle misure sintetiche per ciascun sito, seguendo opportune metodologie, ciascuna delle quali prevede la normalizzazione, la standardizzazione e infine l’aggregazione degli indicatori elementari. In questo caso applichiamo il Mazziotta Pareto Index (MPI), un indice sintetico nato in Istat che sopperisce ai fenomeni di compensazione tra indicatori e che varia tra 70 e 130. Per costruire l’indicatore si utilizza una funzione di aggregazione basata sulla non sostituibilità dei caratteri; in questo caso si ritiene infatti che gli indicatori elementari scelti siano egualmente importanti ai fini della valutazione del posizionamento. In particolare, per l’MPI presentato nel prospetto seguente, sono stati presi in considerazione solo il PR e i primi due indicatori (Yahoo e Wikipedia), dal momento che i servizi Delicious, Twitter, DMOZ e Digg sono ancora poco diffusi in Italia.

Per il calcolo del MPI sono stati utilizzati solo i primi tre indicatori. Dati rilevati il 13/09/2009.

Questi risultati indicano che i siti considerati possiedono contenuti di qualità, pertinenti al mondo della statistica ufficiale e che godono di una discreta centralità nella rete. Tuttavia, in un’analisi comparata con altri istituti di statistica europei, la posizione dell’Istat, così come quella della SIS e del Sistan, è certamente migliorabile.

Nuovi metodi di misura del posizionamento

L’approccio precedente presenta alcuni punti deboli tra cui la soggettività della scelta degli indicatori e il fatto che non siano indipendenti. Per queste ragioni, in alternativa, possono essere presi in considerazione nuovi metodi come ad esempio il Coolhunting for Trends on the Web del MIT, che consente di misurare e monitorare il posizionamento di marche, blog o siti sul Web con un approccio basato sia sui database di Google che sulle classiche misure di centralità della social network analysis. L’obiettivo di questo paragrafo è di fornire una prima presentazione di CONDOR, lo strumento software sviluppato nell’ambito progetto del MIT, rispetto ad alcuni risultati ottenuti mediante l’analisi del sito dell’Istat. CONDOR  consente di rappresentare e analizzare le sottoreti tematiche di un sito, ovverosia il sottoinsieme del Web dove il sito viene citato. Di seguito è riportata la blogosfera di riferimento dell’Istat, e cioè l’insieme dei blog dove l’istituto viene citato attraverso un collegamento ipertestuale e i blog ad essi connessi da al più tre gradi di separazione:

Blogosfera Istat.it nel periodo 1-20 settembre 2009
(analisi di Francesca Grippa – UNILE e Daniele Frongia – Istat)

In questo caso l’analisi del posizionamento di un sito può fornire ulteriori informazioni circa le porzioni del Web dove si possono raccogliere e analizzare importanti feedback sul proprio operato e sulla propria immagine.

In conclusione, per l’analisi di un sito occorre tenere in considerazione due fattori: il traffico e il posizionamento nella rete. In questi ultimi anni gli studi di fisici, matematici e sociologi stanno contribuendo a definire nuovi metodi e strumenti per l’analisi del posizionamento. L’argomento non è ancora pienamente maturo ma le potenzialità e le prospettive sono estremamente interessanti, anche per chi produce statistiche ufficiali e diffonde cultura statistica.

Per saperne di più

Analisi delle reti

Freeman L.C. (2007) Lo sviluppo dell’analisi delle reti sociali. Uno studio di sociologia della scienza, FrancoAngeli, Milano

Hanneman R.A., Riddle M. (2005) Introduction to social network methods, University of California, USA

Barabási A.L. (2004) Link. La scienza delle reti, Einaudi, Torino

Frongia, D. (2008), Intervista a Ginestra Bianconi sulle reti complesseSegnalazionIT, Roma

Nuovi metodi di misura del posizionamento

Bennato D. (2009) Vox Internet vox dei! Sarà vero? in Internet Magazine n.134 (gennaio), , pp.26-27, Roma

Gloor P., Krauss J., Nann S., Fischbach K., Schoder D. (2008) Web Science 2.0: Identifying Trends through Semantic Social Network Analysis, USA

Mazziotta Pareto Index

Mazziotta M., Pareto A. (2010) Appendice Metodologia in La dotazione di infrastrutture della sanità, Collana Informazioni, Istat, Roma

L’autore

Daniele Frongia (frongia _at_ istat.it)

Daniele Frongia lavora presso l’Istituto Nazionale di Statistica (Istat) dove si occupa di metodi e strumenti Web 2.0. E’ autore del blog http://segnalazionit.org/.

Bandi europei, Concorsi, enterprise, Industria, Innovazione, Pubblica Amministrazione, Regioni, Ricerca

Nuovo Bando Regione Veneto, ricerca e sviluppo, disponibili oltre 22 milioni €

  • DESTINATARIImprese del Veneto
  • SCADENZA28 febbraio 2010
  • FINALITA’L’intervento si pone l’obiettivo di promuovere l’attivazione e la crescita di strutture di ricerca e innovazione interne alle imprese, oltre che il sostegno al trasferimento tecnologico a favore delle piccole e medie imprese
  • FONDI STANZIATI: 22.625.358 €
  • SITO DI RIFERIMENTO: Regione Veneto, Direzione Sviluppo Economico Ricerca Innovazione

.

Ambiente, Comunicazione, digitale, Innovazione, libri, Nanotecnologie, Società della Conoscenza

Comunicare la Fisica

Dal sito Unesco ecco un libro (si può scaricare gratuitamente) in italiano e inglese che spiega cos’è la Fisica.  A cura di Massimo Armeni e introduzione di Piergiorgio Odifreddi.

Come sottolinea anche la Commissione Europea, la scienza e la tecnologia influenzano in maniera crescente la società: «ogni giorno il progresso scientifico e tecnologico fornisce innovazioni essenziali alla nostra qualità di vita. Le nuove scoperte nelle scienze, nella tecnologia dell’informazione, così come nel mondo della fisica, stanno influenzando fortemente le strutture sociali, economiche, politiche e etiche a cui siamo abituati» (estratto da pagina 24).
.
.

.
Ambiente, Biodiversità, Etica

2010, Anno Internazionale della Biodiversità

Il 2010 è l’Anno Internazionale della Biodiversità. Questo sopra è il logo ufficiale (finanziato dal Canada) presentato in Svezia al meeting dell’Unione Europea “Visions for Biodiversity Beyond 2010 – People, Ecosystem Services, and the Climate Crisis”.

Il logo può essere utilizzato da tutte le nazioni per le manifestazioni e celebrazioni dell’Anno Internazionale della Biodiversità.

Per biodiversità si intende l’insieme di tutte le forme viventi, geneticamente dissimili e degli ecosistemi ad esse correlati. Quindi biodiversità implica tutta la variabilità biologica: di geni, specie, habitat ed ecosistemi.

A tal proposito Studio Baroni propone il trailer del film Home, prodotto dal regista Luc Besson in occasione della Giornata Mondiale dell’Ambiente 2009.

Il film, dicono le note di produzione, “è un’ode alla bellezza del pianeta e alla sua delicata armonia. Attraverso i panorami di 54 paesi catturati dall’alto, Yann-Arthus-Bertrand ci porta a compiere un viaggio unico attorno al pianeta, per contemplarlo e per capirlo”.

“Home” denuncia lo stato attuale della Terra, il suo clima e le ripercussioni a lungo termine sul suo futuro. Un tema che viene continuamente espresso lungo tutto il documentario è quello del delicato e fondamentale collegamento che esiste tra tutti gli organismi che vi fanno parte.

Partecipazione, Pedagogia, Pubblica Amministrazione, Regioni

Partecipazione è decidere meglio, progettazione e responsabilità. Guida della Regione Emilia Romagna

L’interessante Guida fornisce indicazioni e suggerimenti operativi agli amministratori e funzionari pubblici regionali e degli enti locali impegnati nella gestione di politiche, piani, programmi, strumenti che possano prevedere un maggiore coinvolgimento e inclusione di cittadini e diversi stakeholder (per approfondire l’approccio multi stakeholder: “Responsabilità sociale del territorio. Manuale operativo di sviluppo sostenibile e best practices”, F. Peraro, G. Vecchiato) per stimolare parallelamente responsabilità differenziate ma condivise, e che mirino a raggiungere obiettivi orientati a una maggiore sostenibilità trasversale, economica, sociale e ambientale.

La pubblicazione punta a preparare il processo-percorso di partecipazione, con tempi e risorse adeguate, e la sua integrazione nelle politiche dell’ente pubblico, in quanto ritenuti elementi fondamentali per sviluppare le attività in modo produttivo e per conseguire risultati efficaci.

La partecipazione, così come viene proposta nella Guida editata dalla Regione Emilia Romagna, non è semplicemente una questione di procedure, ma un particolare approccio al “governare meglio la cosa pubblica, i beni comuni”, in cui il coinvolgimento dei diversi attori non è il fine, ma uno strumento per giungere a decisioni migliori e maggiormente condivise, con risultati attesi di cambiamento per tutti.

.