Archivi tag: Google

Green Economy e Visual Marketing per le aziende attente alla qualità ambientale

Con l’avvento della Green Economy c’è sempre più attenzione verso la cura ambientale degli spazi aziendali. Il Marketing visivo/sensoriale porta immediati benefici e non solo vantaggi di immagine.

Ciò significa valorizzare l’impatto sensoriale e psicologico di serenità e benessere, la prima impressione visiva, anche tattile e olfattiva. Come dire che porta sicuro vantaggio dare valore al primo biglietto da visita, cioè quello che le imprese presentano alle persone che entrano in azienda, comprese quelle che ci lavorano ogni giorno.

Di questo argomento studio baroni ne parlava qui l’anno scorso, a proposito dell’Energy Forum 2014 tenutosi a Bressanone dove è stato introdotto l’innovativo argomento della “Hortitecture Adattiva”.  Hooman Koliji, della School of Architecture Planning and Preservation (Università del Maryland – USA), ha spiegato la “cultura interdisciplinare di design thinking per le città future”.

Un ottimo esempio di azienda italiana innovativa, capace di inventare ed esportare con la Green Economy, è la Polifor di Faenza (RA). Per il verde che si installa e cresce sulle pareti ha brevettato il sistema FLEXIVERDE VYDRO®. La Polifor sta attualmente curando alcuni padiglioni all’EXPO di Milano, ma ecco una prima foto relativa ad un intervento di qualità ben riuscito al centro di Parigi: by poliflor - flexiverde greenwall Abercrombie store Paris - green economy studio baroni In questa seconda immagine si nota l’effetto ottenuto con la trasformazione intelligente e sostenibile di una parete in cemento alla cantina Montepulciano: by poliflor - flexiverde green wall cantina Montepulciano Italy - green economy studio baroni

La Polifor, prima di procedere alla progettazione esecutiva e alla realizzazione del giardino verticale, stende un report preliminare di cantiere. Ogni parete è studiata nei minimi particolari perché presenta dei particolari che la rendono unica. Finestre, porte, difformità, travi, elementi architettonici e variazioni di inclinazione, materiali. Presenza di canaline elettriche o tubi dell’acqua interni ed esterni alla parete. Condizioni di esposizione alle condizioni ambientali tipo la distanza dal mare, vento,  umidità, orientamento ed esposizione al sole o all’ombra.

Un altro interessante esempio italiano da seguire è “Ortofabbrica”,  ideato dallo Studio Grassi Design per Fuorisalone 2015, a Milano zona Brera, nella corte di Palazzo Cusani. L’innovativo spazio, così come progettato e realizzato, potrebbe sicuramente dare moltissimo valore a qualsiasi area aziendale. Studio Grassi Design spiega che “Ortofabbrica” Concept Lab unisce progettisti, artigiani ed imprese con l’intento di fare del futuro sostenibile il proprio territorio di ricerca. “Ortofabbrca” è un marchio che accosta volutamente due nomi in antitesi, cioè “Orto” perché siamo su un pianeta che ha bisogno di rimanere verde e ”Fabbrica” perché dobbiamo continuare a produrre, seguendo però i criteri corretti della sostenibilità e delle energie rinnovabili.

“Corporate garden” è una nuova tendenza aziendale iniziata nel 2010 in USA. Come scrive greenews, a promuovere il giardino aziendale hanno iniziato aziende del calibro di Google, Toyota, PepsiCo e altri colossi multinazionali. Gli ampi spazi esterni e le terrazze di cui dispongono le aziende vengono trasformati in orti metropolitani e coltivati volontariamente dai dipendenti.

Infine, per comprendere la situazione e le prospettive della Green Economy, studio baroni invita a partecipare agli Stati Generali 2015 in programma a Rimini il 3 e 4 novembre. Nel Documento di sintesi  2014 (file PDF) emerge che il punto di forza delle imprese Green è la capacità di innovazione orientata all’elevata qualità ambientale e all’eco-innovazione. Tutti i documenti sono scaricabili qui.

L’incidenza di Google e YouTube nel Libro Bianco sui Contenuti digitali presentato oggi da AGCOM

Davvero contemporaneo il Libro Bianco sui Contenuti digitali presentato oggi dall’AGCOM.

Nel documento pubblicato dall’Autorità per le Garanzie nelle Comunicazioni che Google non solo rappresenta il motore di ricerca più utilizzato, ma è anche attivo, tramite YouTube, il principale aggregatore di contenuti video, e ha inoltre implementato diversi strumenti in grado di valorizzare più o meno la posizione di un operatore sul web (Google news, AdSense etc.), risulta in grado di incidere, a vario titolo, sulla posizione e sul successo commerciale degli operatori che investono in questo ambito.

L’AGCOM sottolinea che Google è stato coinvolto in due controversie instaurate, rispettivamente, da RTI (Reti Televisive Italiane SpA), società del gruppo Mediaset, dinanzi al Tribunale di Roma e dalla FIEG (Federazione Italiana Editori Giornali), che si è rivolta all’Autorità garante della concorrenza e del mercato.

AGCOM “Libro Bianco sui contenuti”

fonte: www.key4biz.it

Google e Facebook… prove di accordo?

Dopo aver integrato aggiornamenti in tempo reale provenienti da Twitter e FriendFeed, Google ha da poco avviato una nuova iniziativa per includere nei risultati in real-time le informazioni di stato degli utenti di Facebook.

La nuova strategia potrebbe consentire al motore di ricerca di arricchire sensibilmente la propria offerta di contenuti in tempo reale, rendendo maggiormente dinamica l’esperienza d’uso per le decine di milioni di utenti che ogni giorno fanno affidamento su Google Search.

Per comunicare l’introduzione del nuovo servizio, la società di Mountain View ha deciso di mantenere un profilo basso, affidando a un breve post su Twitter la notizia. L’aggiunta di Facebook costituisce un importante passo in avanti per i risultati in tempo reale di Google, ma al tempo stesso comporta solamente una lieve modifica al sistema messo in campo alcuni mesi or sono. Al momento, infatti, il servizio sarà in grado di fornire solamente i risultati ottenuti attraverso le Pagine di Facebook e non dai profili dei singoli utenti. Tale condizione riduce sensibilmente le fonti per il motore di ricerca, che analizzerà circa 3 milioni di Pagine ignorando – per ora – le centinaia di milioni di profili presenti sul trafficato social network.

Il numero di informazioni per il real-time proveniente da Facebook sarà dunque estremamente limitato. Le Pagine sono solitamente utilizzate da società, celebrità, istituzioni e politici a scopo promozionale per far conoscere le proprie attività e costruirvi intorno una comunità di utenti, disposti a condividere opinioni ed esperienze. Saranno dunque queste le informazioni indicizzate in tempo reale da Google, mentre gli aggiornamenti di stato personali degli oltre 400 milioni di iscritti al servizio non saranno ancora disponibili.

Stando alle prime indiscrezioni, Facebook non avrebbe avanzato alcuna richiesta nei confronti di Google in cambio della possibilità di indicizzare parte dei propri contenuti nella pagina dei risultati per il real-time. L’iniziativa potrebbe infatti consentire al celebre social network di ampliare ulteriormente il proprio bacino di utenti, conquistando nuove fonti di traffico utili per incrementare gli introiti derivanti dall’advertising. Verificato l’andamento di questa prima apertura nei confronti di Mountain View, i responsabili di Facebook potrebbero decidere in un secondo momento di estendere la collaborazione con il motore di ricerca.

Il destino di Facebook su Google dipenderà probabilmente dai rapporti con Bing, il motore di ricerca targato Microsoft. Nato dalle ceneri di Live Search, il sistema per effettuare le ricerche online ha da poco avviato l’indicizzazione degli aggiornamenti di stato degli iscritti al portale che hanno deciso di rendere pubblico il loro status. Al momento, però, il processo di indicizzazione non avviene in real-time e non consente dunque di visualizzare immediatamente gli aggiornamenti formulati dagli utenti, spesso utili per reperire informazioni su importanti eventi in corso o notizie dell’ultimo minuto da tutto il mondo.

La decisione di Google di compiere un nuovo passo verso la raccolta dei contenuti proposti su Facebook conferma la particolare attenzione della società di Mountain View per i social network. L’interesse è duplice e riguarda da un lato la possibilità di ottenere maggiori informazioni in tempo reale per migliorare precisione e qualità dei risultati delle ricerche, mentre dall’altro lato interessa la possibilità di essere parte attiva nel social networking attraverso una propria piattaforma. Lo strumento social Google Buzz, da poco introdotto in Gmail, mira a soddisfare tale esigenza, ma al momento risulta essere ancora acerbo per poter sfidare realtà ormai radicate come Twitter e Facebook.

Emanuele Menietti

26 Febbraio 2010

***

Fonti:

.

Il successo di un sito web? Non solo una questione di traffico: i casi Istat, SIS e Sistan

(Articolo di Daniele Frongia tratto da www.sis-statistica.it)

Il posizionamento e il successo di un sito

Come si analizza il successo o l’insuccesso di un sito web o un blog? Esistono numerosi software per l’analisi del traffico di un sito che si basano, prevalentemente, sul numero dei visitatori. Questi strumenti offrono una serie di informazioni come il numero di visitatori, le pagine più visitate, il tempo di permanenza medio, le pagine che attraggono il maggior numero di clic iniziali, o finali, le parole chiave utilizzate per arrivare al sito e l’analisi della distribuzione dei visitatori per provenienza geografica.

Ma è corretto dire che il successo di un sito è una funzione del solo numero di visitatori? Una nuova generazione di strumenti offre oggi l’opportunità di misurare il successo di un sito tenendo meglio conto della sua natura multidimensionale. In particolare possiamo vedere il successo di un sito in funzione, oltre che del traffico, anche del suo posizionamento nella rete [] ovvero della sua solidità di carattere “infrastrutturale”. Il posizionamento è dunque uno dei presupposti per un successo solido e duraturo del sito.

Se da un lato possiamo affermare che il successo di un sito è funzione del traffico e del suo posizionamento, dall’altro non possiamo pensare che la misura di tale successo sia completamente determinabile: il successo è infatti di natura prevalentemente soggettiva, e il dibattito al riguardo è in continua evoluzione. In questo articolo non proporremo quindi alcuna sintesi di questi due fattori per produrre un unico indice del successo.  Tratteremo invece più specificamente il posizionamento: l’aggiunta di questa dimensione di analisi è un aiuto concreto per migliorare la corrispondenza fra misurazione e percezione.

Possiamo descrivere il posizionamento con una metafora: mentre le classiche analisi quantitative sul traffico ci dicono quanti sono e cosa fanno gli ospiti nella nostra casa, l’analisi del posizionamento prova a dirci come e dove è situata la casa, se è in centro o in periferia, se è collegata ad altre strutture, se è così importante e ben vista da influenzare il vicinato (guarda che bel portone, lo voglio anch’io) e così via.

L’analisi del posizionamento fornisce inoltre indicazioni utili per confrontare siti di categorie diverse (se repubblica.it ricevesse 100.000 visite al giorno sarebbe un flop; di contro, un sito altamente specialistico, ben posizionato e con 1000 visite al giorno sarebbe un successo strepitoso) e su sottoreti specifiche, come vedremo nell’ultimo paragrafo, con risultati più puntuali e significativi. In questo articolo definiamo quindi un sito ben posizionato (o centrale) come influente e rilevante nella rete.

Primi metodi di misura del posizionamento

Per definire meglio il posizionamento occorrono due brevi premesse teoriche: il sistema di punteggio assegnato da Google alle pagine web e i recenti studi sulle reti complesse.

Google PageRank (PR). Google assegna a ciascuna pagina  presente nel suo database un proprio punteggio, il PageRank, che consiste in un numero compreso tra 0 e 10, calcolato sulla base di numerose variabili.

Basato sullo specifico carattere “democratico” del Web, PageRank sfrutta la vastissima rete di collegamenti associati alle singole pagine per determinarne il valore. In pratica, Google interpreta un collegamento dalla pagina A alla pagina B come un “voto” espresso dalla prima in merito alla seconda. Tuttavia, non si limita a calcolare il numero di voti, o collegamenti, assegnati a una pagina. Oltre a effettuare questo calcolo, Google prende in esame la pagina che ha assegnato il voto. I voti espressi da pagine “importanti” hanno più rilevanza e quindi contribuiscono a rendere “importanti” anche le pagine collegate. PageRank assegna ai siti Web importanti e di alta qualità un “voto” più elevato di cui Google tiene conto ogni volta che esegue una ricerca. (Google)

Google PageRank

Analisi delle reti complesse. L’analisi delle reti nasce nel Settecento con il problema dei ponti di Eulero, padre della teoria dei grafi. Da allora l’analisi è stata prevalentemente usata per le reti sociali, con i primi studi di Huber (1802), passando poi per Comte, Galton, Watson, LeBon, Simmel, Marconi (il primo a parlare dei sei gradi di separazione), Moreno e così via dal dopoguerra in poi, con il contributo di molti sociologi e matematici. L’analisi delle reti sociali (social network analysis) ha trovato pieno consolidamento negli anni ’70 per poi trarre nuova linfa dagli studi dei fisici, primi tra tutti quelli di Barabási e della sua equipe alla fine degli anni ‘90. Uno dei risultati più importanti del lavoro di Barabási è l’aver individuato un tratto comune in tutte le reti complesse (WWW, Internet, neuroni-dendriti del cervello, catene alimentari, alleanze aziendali ecc.): la distribuzione del numero di link ricevuti da parte di un nodo segue una legge di potenza. Come noto, infatti, leggi di potenza ricorrono nella distribuzione di probabilità di numerosi fenomeni tra cui il numero di collegamenti ai siti web: le pagine web che ricevono moltissimi link sono pochissime, mentre sono moltissime quelle che ne ricevono zero o uno. 

Legge di potenza

Dunque anche per il PR, che è direttamente proporzionale a numerose variabili tra cui i link in entrata, può essere fatto un discorso analogo. Il punteggio in decimi del PR non va dunque inteso come quello scolastico: la stragrande maggioranza delle pagine ha infatti un PR pari a 0, il valore 3 è già un risultato discreto, 5 è molto buono mentre valori più alti sono generalmente raggiunti da un ristretto sottoinsieme di ottimi blogger, siti di grandi imprese o enti pubblici, oltre che, ovviamente, da giganti come GoogleMicrosoftWikipedia. I siti elitari così ricchi di link e con un alto PR sono chiamati hub.

Per Google il PR è un indicatore necessario e sufficiente a dare un’indicazione del posizionamento. Ma oltre al PR, quali altri indicatori è possibile utilizzare per misurare il posizionamento?

E’ possibile, ad esempio, considerare i seguenti indicatori (il cui contributo è assente o presente in modo marginale nel PR):
- Yahoo backlink: numero di collegamenti ipertestuali indicizzati da Yahoo alle pagine del sito;
- Wikipedia: numero collegamenti esterni negli articoli di Wikipedia alle pagine del sito;
- Delicious: numero segnalibri Delicious in cui viene citato il sito;
- DMOZ: numero collegamenti DMOZ in cui viene citato il sito;
- Twitter: numero tweet di Twitter in cui viene citato il sito;
- Digg: numero articoli su Digg in cui viene citato il sito.

Un sito che presenta valori alti di questi indicatori è ben posizionato nella sua categoria: i suoi contenuti sono sulla bocca di tutti, esso viene “ascoltato”, può influenzare altri siti, insomma è un attore che gode di una posizione (meritatamente) privilegiata nella rete.

Una misura del posizionamento può essere calcolata mediante un’opportuna sintesi di questi indicatori. Vediamo, in pratica, come è possibile procedere.

SIS, Sistan e Istat a confronto

Confrontiamo tre siti che si occupano di statistiche ufficiali e di promozione delle scienze statistiche: l’Istituto Nazionale di Statistica (www.istat.it), il Sistema Statistico Nazionale (www.sistan.it) e la Società Italiana di Statistica (www.sis-statistica.it).

In generale è possibile definire delle misure sintetiche per ciascun sito, seguendo opportune metodologie, ciascuna delle quali prevede la normalizzazione, la standardizzazione e infine l’aggregazione degli indicatori elementari. In questo caso applichiamo il Mazziotta Pareto Index (MPI), un indice sintetico nato in Istat che sopperisce ai fenomeni di compensazione tra indicatori e che varia tra 70 e 130. Per costruire l’indicatore si utilizza una funzione di aggregazione basata sulla non sostituibilità dei caratteri; in questo caso si ritiene infatti che gli indicatori elementari scelti siano egualmente importanti ai fini della valutazione del posizionamento. In particolare, per l’MPI presentato nel prospetto seguente, sono stati presi in considerazione solo il PR e i primi due indicatori (Yahoo e Wikipedia), dal momento che i servizi Delicious, Twitter, DMOZ e Digg sono ancora poco diffusi in Italia.

Per il calcolo del MPI sono stati utilizzati solo i primi tre indicatori. Dati rilevati il 13/09/2009.

Questi risultati indicano che i siti considerati possiedono contenuti di qualità, pertinenti al mondo della statistica ufficiale e che godono di una discreta centralità nella rete. Tuttavia, in un’analisi comparata con altri istituti di statistica europei, la posizione dell’Istat, così come quella della SIS e del Sistan, è certamente migliorabile.

Nuovi metodi di misura del posizionamento

L’approccio precedente presenta alcuni punti deboli tra cui la soggettività della scelta degli indicatori e il fatto che non siano indipendenti. Per queste ragioni, in alternativa, possono essere presi in considerazione nuovi metodi come ad esempio il Coolhunting for Trends on the Web del MIT, che consente di misurare e monitorare il posizionamento di marche, blog o siti sul Web con un approccio basato sia sui database di Google che sulle classiche misure di centralità della social network analysis. L’obiettivo di questo paragrafo è di fornire una prima presentazione di CONDOR, lo strumento software sviluppato nell’ambito progetto del MIT, rispetto ad alcuni risultati ottenuti mediante l’analisi del sito dell’Istat. CONDOR  consente di rappresentare e analizzare le sottoreti tematiche di un sito, ovverosia il sottoinsieme del Web dove il sito viene citato. Di seguito è riportata la blogosfera di riferimento dell’Istat, e cioè l’insieme dei blog dove l’istituto viene citato attraverso un collegamento ipertestuale e i blog ad essi connessi da al più tre gradi di separazione:

Blogosfera Istat.it nel periodo 1-20 settembre 2009
(analisi di Francesca Grippa – UNILE e Daniele Frongia – Istat)

In questo caso l’analisi del posizionamento di un sito può fornire ulteriori informazioni circa le porzioni del Web dove si possono raccogliere e analizzare importanti feedback sul proprio operato e sulla propria immagine.

In conclusione, per l’analisi di un sito occorre tenere in considerazione due fattori: il traffico e il posizionamento nella rete. In questi ultimi anni gli studi di fisici, matematici e sociologi stanno contribuendo a definire nuovi metodi e strumenti per l’analisi del posizionamento. L’argomento non è ancora pienamente maturo ma le potenzialità e le prospettive sono estremamente interessanti, anche per chi produce statistiche ufficiali e diffonde cultura statistica.

Per saperne di più

Analisi delle reti

Freeman L.C. (2007) Lo sviluppo dell’analisi delle reti sociali. Uno studio di sociologia della scienza, FrancoAngeli, Milano

Hanneman R.A., Riddle M. (2005) Introduction to social network methods, University of California, USA

Barabási A.L. (2004) Link. La scienza delle reti, Einaudi, Torino

Frongia, D. (2008), Intervista a Ginestra Bianconi sulle reti complesseSegnalazionIT, Roma

Nuovi metodi di misura del posizionamento

Bennato D. (2009) Vox Internet vox dei! Sarà vero? in Internet Magazine n.134 (gennaio), , pp.26-27, Roma

Gloor P., Krauss J., Nann S., Fischbach K., Schoder D. (2008) Web Science 2.0: Identifying Trends through Semantic Social Network Analysis, USA

Mazziotta Pareto Index

Mazziotta M., Pareto A. (2010) Appendice Metodologia in La dotazione di infrastrutture della sanità, Collana Informazioni, Istat, Roma

L’autore

Daniele Frongia (frongia _at_ istat.it)

Daniele Frongia lavora presso l’Istituto Nazionale di Statistica (Istat) dove si occupa di metodi e strumenti Web 2.0. E’ autore del blog http://segnalazionit.org/.

Google: realtà aumentata, tempo reale e zeitgeist

REALTA’ AUMENTATA

Google sta testando un nuovo servizio chiamato “Google goggles”. La parola non sarà più al centro dell’attenzione ma lo sarà un’immagine che può essere ricavata utilizzando la fotocamera integrata dei cellulari come se fossero occhiali sul mondo, si tratta di un chip GPS per la geolocalizzazione e la connessione dati per lo scambio di informazioni. Basta scattare una fotografia a un libro, un oggetto o un paesaggio per avviare la relativa ricerca online.

TEMPO REALE

La sfida 2010 di internet è stata lanciata da Google e si chiama “tempo reale”. Dopo aver annunciato, qualche tempo fa, degli accordi con i popolari social network Twitter e Facebook, è adesso possibile vedere una prima implementazione di quegli accordi. In buona sostanza adesso Google è in grado di cercare e pescare informazioni anche da questi social network, aggiornati al secondo, e restituire risultati di ricerca sulle informazioni in tempo reale

Nei prossimi giorni potremo infatti trovare sempre più spesso contenuti provenienti da Facebook o da Blogspot, la piattaforma di blog in questo caso privilegiata perché di proprietà di Google. Quel che più conta, è che questi contenuti saranno aggiornati istantaneamente, e quindi freschissimi. Non è comunque ancora chiaro se verranno etichettati o evidenziati in un modo particolare, o se saranno semplicemente inseriti affianco agli altri risultati.

ZEITGEIST

Ogni anno Google esamina miliardi di ricerche digitate dagli utenti di tutto il mondo allo scopo di scoprire il cosiddetto zeitgeist, lo spirito dei tempi. Così si evince che le parole più cercate su Google, a livello internazionale, sono perlo più due: Michael Jackson, il cantante americano scomparso alcuni mesi addietro, e Facebook, il social network più popolare e popolato del momento.

Tra le news maggiormente richieste troviamo invece il terremoto in Abruzzo, il “sempreverde” Festival di Sanremo e il Grande Fratello nell’edizione scorsa, ma non mancano argomenti particolarmente caldi come il nome di Veronica Lario, la moglie del Presidente del Consiglio Silvio Berlusconi, le Elezioni Europee 2009, l’altro reality di successo X-Factor, Alberto Stasi, il principale imputato del delitto di Garlasco, e il giuramento di Obama.


Fonti:

.

.

Google, il boss di Internet. Futuro nelle sue mani?

google-earth-terra studio vittorio baroni

“Organizzare le informazioni di tutto il mondo“. Questo il sogno (e la mission) della società di Mountain View. 

Da “il Recensore” ecco il passato, il presente e il futuro in “Pianeta Google” (Sperling & Kupfer, 2009) di Randall Stross.

Quanto manca alla conquista totale? Se lo chiedono un po’ tutti, addetti ai lavori, navigatori di Internet e curiosi del web. Tranne loro, Larry Page e Sergey Brin fondatori e responsabili di Google, il colosso mondiale nelle ricerche su Internet. E non solo. Dall’anno della sua fondazione, nel 1998, la società americana ha realizzato praticamente tutto nell’ambiente del web con  le Google Apps: dalla posta elettronica di Gmail all’acquisizione di Youtube, dal social network Orkut a Google Video, da Google News all’alleanza con Systran per  le fortunate traduzioni multilingue. E il gioiello Google Earth.

pianeta-google studio vittorio baroniL’inchiesta dietro le quinte. Quella di Randall Stross è sicuramente uno dei libri più completi sul fenomeno Google e i suoi rivali, tra cui spicca in pole position Microsoft. Le pagine scritte dal giornalista americano ricostruiscono passo dopo passo l’impero dell’azienda di Page e Brin, le loro idee, le loro mosse, i loro colpi fortunati, le gaffe e gli errori, il boom e quella superbia di “dominare” il mondo web fregandosene spesso della privacy. “Pianeta Google” si legge velocemente, nonostante i numerosi virgolettati e le citazioni dei protagonisti in gioco.

Adsense e i profitti pubblicitari
. La fortuna di Google è “tutta qui”. Le Google Apps sono una guarnizione perfetta, la ciliegina sulla torta che in futuro prossimo porteranno business su business oltre ai numeri che quotidianamente aumentano senza arrestarsi mai. La tecnica è facile, nata in una nottata di idee lì a Mountain View da uno sviluppatore: inserire pubblicità mirata, nel gergo “convenzionale” all’interno della posta elettronica degli utenti in base ai contenuti delle email ricevute. Annunci che, cliccati, generati profitti da dividere tra la proprietaria Google e coloro che si iscrivono al programma. Clic dopo clic il business macinano dollari e conquista il mondo web, per poi allargarsi ad “Adwords” in base al quale ciascun azienda sceglie di farsi pubblicità sia nel motore di ricerca più famoso al mondo sia nelle email.

Google vs Microsoft. Una sfida a colpi di numeri, decisioni, anteprima, intuizioni e cause legali. La più giovane ad oggi ha ancora la meglio. L’autore ne sottolinea i pregi, le astuzie, la capacità di leggere la testa degli utenti di Internet, dapprima in Usa poi nel resto del  mondo. La differenza è nella testa dei due americani di origine ebraica: la convinzione e la superbia di voler diventare il custode unico di tutte le informazioni del mondo. In breve e a qualunque costo. Non pochi gli scontri con i rivali e la giustizia: dal diritto d’autore violato nel programma di digitalizzazione dei libri a livello mondiale, Google Book Search, alla pubblicazione dei video su Youtube il colosso dei video acquisito nell’ottobre del 2006 dall’azienda di Mountain View con un’operazione di 1,65 miliardi di dollari.

google notebook studio vittorio baroniRischio privacy, il futuro in mano a Google? Il pericolo c’è, è forte anche se l’azienda dei record smentisce ogni voce riguardo alle infiltrazioni dei proprio dipendenti nelle email dei clienti di Gmail. Sicuramente non sarà lo scoglio contro cui Google sbatterà. Il suo scopo è chiaro: organizzare le informazioni di tutto il mondo in un percorso che va da qui a, secondo le stime dei suoi ingegneri, a 300 anni. Ma, come afferma nelle conclusioni Stross, visto questo primo decennio fenomenale di Google, “può darsi che non siano necessari altri duecentonovant’anni, perché porti a termine la sua missione”.

Randall Stross scrive per la rubrica “Digital Domain” del New York Times e insegna economia presso la San José State University. Autore di numerosi e importanti libri dedicati alle nuove tecnologie, vive a Burlingame, in  California.

Voto: 8
Titolo: Pianeta Google. Quanto manca alla conquista totale?
Autore: Randall Stross
Editore: Sperling & Kupfer
Anno di pubblicazione: 2009
Prezzo: 20 euro
Pagine: 227

 

logorecensore

 

Fonte: “il Recensore”

Google, il boss di Internet. Futuro nelle sue mani?.

Social network: mappa globale e Facebook in Italia

mappa social network nel mondo

Grazie a Vincenzo Cosenza possiamo renderci conto di come il fenomeno social network si è sviluppato nel mondo. La mappa sembra quasi un tabellone di Risiko con i colori a contrassegnare le prevalenze. In Africa emerge che oltre la metà del territorio non rientra nelle statistiche.

Le maggiori evidenze segnalate da Cosenza sono:

Facebook ha quasi colonizzato l’Europa e si appresta ad estendersi ovunque, nel tentativo di spodestare i social network locali
QQ, domina in Cina e con i suoi 300 milioni di utenti è il più grande social network del pianeta
MySpace ha perso la sua leadership ovunque (eccetto nell’isola di Guam)
V Kontakte la fa da padrone nei territori della Russia
Orkut rimane forte in India e Brasile
Hi5 resiste in Peru, Colombia, Ecuador e in altre nazioni come il Portogallo, la Mongolia e la Romania
Odnoklassniki sopravvive in alcune repubbliche dell’ex Unione Sovietica
Maktoob rimane la più importante community araba

I dati pubblicati su “Osservatorio Facebook” ci dicono che in Italia è stata superata quota 9.000.000 di iscritti a Facebook:

facebook italiani iscritti al 31 maggio 2009 fonte Vicenzo Cosenza

L’ascesa sembra continuare e, come si può vedere da grafico, cresce di più la fascia sotto i 18 anni e quella sopra i 36:

facebook età degli italiani fonte Vincenzo Cosenza

 

Approfondimenti di attualità:

Twitter, Google, Facebook e la crisi iraniana, di Matteo Vannucchi