[Social Marketing] Il paradigma SoLoMo e i location-based engagement (LBE)

Leggendo un manifesto pubblicato sul sito di MomentFeed, dal titolo SoLoMo – or Just About Everything Marketers Need to Know about the Convergence of Social, Local, and Mobile, si parla della convergenza di tre aspetti che nello scenario tecnologico attuale stanno andando di pari passo, ossia la socializzazione, la localizzazione e la mobilità. Appunto, SoLoMo sta per Social-Local-Mobile.

MomentFeed-SOLOMO
Titolo: MomentFeed-SOLOMO (0 click)
Etichetta:
Filename: momentfeed-solomo.pdf
Dimensione: 3 MB

L’argomento sembra scontato, ma si possono cogliere degli aspetti interessanti, specie quelli riguardanti i servizi location-based che vengono offerti da vari brand di mercato e che sfruttano le informazioni su interessi, abitudine e sul sentiment dei clienti.
Il fenomeno del SoLoMo ruota prevalentemente attorno all’utilizzo degli smartphone, che “seguono” l’utente ovunque, raccogliendo e tracciando una miriade di dati personali che spesso, inconsciamente, vengono condivisi online su piattaforme che da questi traggono un immenso valore commerciale.

Si è nella cosiddetta post-PC era, dove milioni di persone si trovano online contemporaneamente in mobilità, non più usando solo il pc di casa o ufficio, e gli utenti hanno ormai quell’esigenza ossessiva di essere connessi con il mondo, per ricevere notizie non solo da persone ma anche da attività commerciali, per essere avvisati su offerte e occasioni.

Secondo la IDC Analyze the Future, il numero di persone che accedono ad internet dagli smartphone, tablet e altri dispositivi mobile sorpasseranno il numero di utenti connessi dal pc di casa o ufficio nel 2015. Secondo Nielsen, il 37% degli utenti dei social network accede ad essi tramite mobile.

SoLoMo

SoLoMo

Si è passati dal Social Media 1.0, caratterizzato dall’utilizzo del pc per connettersi alle piattaforme sociali, al Social Media 2.0, il nuovo paradigma che si basa sulle smartphone-application e sulle mobile-web interface. Ai primordi, la localizzazione, ossia capire il luogo in cui si trovava l’utente (physical location), non aveva senso, visto che ci si connetteva da casa o in ufficio. Con la mobilità, le informazioni di geolocalizzazione sono diventate di stupefacente rilevanza e si è arrivati ad esasperare il paradigma di mobilità stesso: anche quando gli utenti sono offline dalla rete, in realtà sono connessi. Infatti, le loro informazioni vengono sincronizzate non appena le app sui loro smartphone si connettono alla rete, arricchendo la “matrice territoriale” (matrix territory), che geolocalizza gli utenti sulla mappa sociale.

ll punto chiave del fenomeno SoLoMo è il cosiddetto location-based engagement (LBE), ossia una sorta di “ingaggio” di un cliente da parte di una azienda o brand (chiamiamola marketer) e che si viene a creare quando, ad esempio, si utilizza una app di quest’ultima e si inizia con essa a condividere tutta una serie di informazioni, tra cui la propria posizione geografica, contestualizzata in un dato ambiente.
Gli attori tecnologici di questo “ingaggio” sono le piattaforme di LBE, le applicazioni mobile e i contextual layer.

SoLoMo - Layer

Continua la lettura

[21 Novembre 2012] Big Data Forum 2012 a Roma

Big Data Forum 2012

Per fare chiarezza sul fenomeno dell’esplosione dei dati e scoprire le soluzioni ICT che consentono di trasformarlo in vantaggio competitivo

21 NOVEMBRE 2012 – ROMA

Ore 9.30 – Centro Congressi Roma Eventi – Piazza della Pilotta, 4 – Roma

  • Quali sono le opportunità ed i benefici derivanti dall’utilizzo di soluzioni ICT per la gestione dei Big Data?
  • Qual è l’impatto sulla competitività dell’impresa?
  • Come gestire ed analizzare dati destrutturati derivanti da fonti esterne (siti Web, social media, ecc.)?
  • In quali settori si stanno diffondendo maggiormente tali soluzioni?
  • A supporto di quali attività dell’impresa?
  • Quali sono le soluzioni infrastrutturali che abilitano la gestione dei Big Data?

Il 21 novembre a Roma si terrà Big Data Forum, un evento nel corso del quale si cercherà di rispondere a queste e altre domande, focalizzandosi sul contributo di alcune soluzioni ICT nel miglioramento dei processi decisionali strategici e operativi.

La capacità di analizzare un’elevata mole di informazioni – spesso non strutturati – può rappresentare per le imprese operanti in alcuni settori una chiara fonte di vantaggio competitivo e di differenziazione.

Questo perché in proporzione all’aumento di nuove tipologie di informazione come i social media e il mondo Internet of Things, caratterizzate da un ciclo di vita molto breve (basti pensare che, secondo alcune stime, il 90% dei dati utilizzati oggi dalle imprese è stato creato negli ultimi 2 anni), aumenta anche l’esigenza di gestirle dal punto di vista della velocità, della varietà e della complessità.

Per far fronte a queste esigenze, le aziende dovranno dotarsi di nuove soluzioni ICT, sia a livello infrastrutturale che applicativo, per gestire e immagazzinare un’ampia quantità di dati e migliorare le proprie capacità di analisi e di previsione.

BIG DATA FORUM, propone un confronto su queste tematiche e su quali siano le migliori soluzioni da adottare per aumentare la competitività dell’impresa.

Il sito con le informazioni sull’evento e per registrarsiICT4Executive

————————————————————————

Vi linko anche all’articolo che spiega bene il fenomeno: Big Data: l’infografica per capire cosa sono e perchè possono cambiare il mondo

L’Italia e i principi fondamentali di Internet: la Rete come strumento di democrazia

Finalmente, anche una Italia propositiva sulla promulgazione della “carta” dei principi fondamentali di Internet. E’ partita dal 18 settembre la Consultazione pubblica a cui vi invito a partecipare. Affrettatevi perché si chiuderà il giorno 1 novembre 2012

Il Ministero per l’Università e la ricerca vuole “arricchire e migliorare il documento che riassume la posizione italiana sui principi fondamentali di Internet” da portare all’Internet Governance Forum (IGF) di Baku. Tutti i cittadini possono contribuire al dibattito sui cinque temi tradizionali del Forum ri-etichettati per l’occasione: principi generali, cittadinanza in rete, consumatori e utenti della rete, produzione e circolazione dei contenuti e sicurezza in rete.

Ecco i link degli articoli tratti da LaRepubblica.it:

Vi allego l’estratto del documento ufficiale del MIUR, che potete scaricare anche da qui:

La posizione italiana sui principi fondamentali di Internet
Continua la lettura

La morte dei forum? Colpa dei social network

Ho deciso di scrivere questa riflessione rispondendo, sicuramente in modo scontato, alla domanda di cui titolo della presente, dopo aver letto il post polemico di FaSan dello staff di SMItalia.net, community italiana del famosissimo forum SimpleMachines, che preannuncia la fine del ciclo di vita del sito stesso:

Come la storia ci insegna, in ogni cultura, religione, impero, cultura.. ma anche semplicemente business, c’è un periodo di impennata, un periodo statico ai massimi livelli, per poi cadere e morire.
Questo è quello che è successo qui in SMItalia e che spero vivamente accadrà sempre in ogniddove.
Si ringraziano le persone che hanno speso il loro tempo ed a volte il loro denaro, rinunciando ai divertimenti più disparati per dare il loro aiuto e il loro contributo a tutti gli utenti di SMI e di SMF per risolvere i problemi delle loro board.

E se non dovessimo vederci…buongiorno, buonasera e buonanotte.

FaSan

Dal post emerge forse un senso di delusione per la scarsa partecipazione e interesse al progetto?

A questo punto mi sono chiesto: è davvero la morte dei forum? Io penso che quelli di carattere “generalista”, ossia che raccolgono persone che riflettono su argomenti di carattere generale, non tecnico, siano morti da un pezzo. Eppure i forum/blog di carattere tecnico li vedo ancora molto utilizzati (ahimè, soprattutto all’estero) e io li uso quotidianamente per leggere, documentarmi e risolvere i miei problemi di lavoro. Almeno questi sono sicuro che sopravviveranno ancora per anni.

Prima i software di instant messaging e poi i social network, hanno “monopolizzato” la comunicazione degli internauti, offrendo strumenti e modi per lo scambio di informazioni (messaggi, foto, video, …) più immediati e sicuramente accattivanti dei forum.

Nell’articolo Community Forum or Social Network? si mettono in rilievo svantaggi e vantaggi dei forum e dei social network, con consigli sulla creazione di community online. La tecnologia applicativa dei due “strumenti” è la stessa, ma cambia il focus: il forum è focalizzato verso i contenuti e la discussione, il social network è punta a far emergere la personalità dell’utente e tutte le attività della comunità, così come le relazioni tra i suoi membri.

Riporto un grafico che ci fa capire quali sono gli strumenti sociali più utilizzati del momento (Fonte SocialMediaExamine – Social Media Marketing Industry Report 2012):

Un altro articolo interessante è quello di Massimo LizziForum vs Blog e Social-network , da dove ho estratto quanto segue:

All’epoca, a cavallo tra gli anni ’90 e i 2000, pochi forum erano l’unico effettivo spazio virtuale di dibattito pubblico. Esserne esclusi significava quasi essere messi a tacere. Oggi i forum sono tantissimi e chiunque può con facilità aprirsi un blog o una pagina su Facebook, registrarsi su Twitter e far valere quel che pensa su qualsiasi cosa e pure su chi lo ha bannato. […]

Però i forum hanno sicuramente un difetto. Blog e socialnetwork permettono i confronti alle giuste distanze e ciascuno è responsabile della sua tribuna. Frequentazioni e non frequentazioni si autoregolano. I forum invece, oltre a dipendere da admin «dittatori», funzionano come una classe scolastica, un ufficio aziendale, un reparto di lavoro. Le persone che entrano in conflitto sono costrette a continuare quotidianamente a vedersi, a incontrarsi, a frequentarsi. E questo forma il clima.

 

Mi piace molto la parola clima che è stata usata. I social network rispecchiano le relazioni sociali così come avvengono(più o meno) tutti i giorni. Eppure sono un fiero sostenitore dell’importanza dei forum, come strumento utile per mettere in comunicazione e raccogliere informazioni di una Community. Si mantiene ancora una propria identità, una facoltà nel poter gestire un proprio spazio (lontano dai “monopolisti”), inserire quando si vuole nuove funzionalità, garantire un servizio, condividere determinate informazioni opportunamente selezionate e ricercabili. Non so fino a quanto FaceBook o Twitter siano affidabili e “usabili” per poter ricercare, nella miriade di commenti e di messaggi di stato della bacheca di una pagina della Community, le informazioni che ci servono e, soprattutto, fino a quando ce le metteranno a disposizione.

Lunga vita ai forum!

La legge di Metcalfe e i nostri “amici” sui social network

Leggendo un articolo pubblicato sul celebre blog di Joel Spolsky, mi sono imbattuto nella legge di Metcalfe, probabilmente valida (o possiamo dire “applicabile”) nel campo delle tecnologie delle reti informatiche, ma che potrebbe essere “obiettabile” nel contesto delle reti sociali, viste come interconnessioni di individui che si servono delle reti informatiche suddette come mezzo di comunicazione.

Ecco cosa dice la legge (definizione tratta dal Wikipedia – La legge di Metcalfe):

Definita da Robert Metcalfe, l’ideatore delle reti Ethernet, la Legge di Metcalfe afferma che “L’utilità e il valore di una rete sono pari ad n^2 – n dove n è il numero degli utenti”, trasformata in simboli:

N(N−1), oppure N²−N.

Tale legge spiega molti degli effetti delle tecnologie della comunicazioni e delle reti come Internet e il World Wide Web.

La legge di Metcalfe mette in rilievo il denominatore comune di tutte le tecnologie di comunicazione: il valore di una rete cresce esponenzialmente all’aumentare del numero dei suoi utenti.

Se nessuno utilizzasse una tecnologia, qualsiasi essa sia (dal un telefonino ad un social network come Facebook/Twitter), il suo valore intrinseco sarebbe nullo. Al contrario, più utenti la utilizzano, più il valore della tecnologia risalirebbe esponenzialmente. Ciò porta a rendere applicabile la legge di Metcalfe anche al contesto del marketing, il cui concetto è ben esplicato nell’articolo pubblicato su WebCopywriter.it (La legge di Metcalfe applicata al marketing):

Ora, se una tecnologia ha bisogno di tanti utenti per accrescere il proprio valore in maniera esponenziale allo stesso modo il marketing ha bisogno di una massa di utenti per rendere di successo le proprie campagne? Solo quando un’idea di marketing diventa così popolare da essere condivisa dalla stragrande della maggioranza del target di riferimento può diventare stratificazione culturale ed il brand può trasformarsi in lovemark? Prendiamo Apple: i suoi utenti sono talmente soddisfatti dei prodotti ed è talmente alta la reputazione di cui gode quella tecnologia ai loro occhi per cui si può parlare di una vera e propria sedimenzione culturale: il senso di quella tecnologia si confonde con l’insieme delle visioni dei suoi utenti, che diventano a tutti gli effetti i detentori del valore di quella tecnologia.

Si sta rivalutando, tuttavia, la legge poichè è alquanto ottimista: sempre su Wikipedia si legge che: “in un articolo pubblicato nel marzo 2005, due ricercatori dell’università del Minnesota, Andrew Odlyzko e Benjamin Tilly, sostengono che la legge di Metcalfe è eccessivamente ottimista. Secondo i ricercatori il difetto principale della legge di Metcalfe è che essa considera tutti i componenti di una rete di uguale importanza, quando in effetti non lo sono. I ricercatori propongono una nuova legge che regola la crescita del valore di una rete in modo logaritmico, che tiene conto di questo fattore importante. Il valore della rete e la sua crescita avviene dunque in modo meno spettacolare”.

L’obiezione che si potrebbe fare riguarda l’applicazione della legge nell’ambito delle reti sociali (da cui siamo partiti): cosa accade se in un social network il gruppo di utenti interconnessi diventa troppo grande?
Un numero troppo grande di partecipanti uccide di per sè la conversazione. L’ideale sarebbe avere un numero elevato di scambi bidirezionali. La legge di Melcalfe (dove il numero di connessioni cresce in ragione del quadrato del numero di nodi) applicata a questo contesto, evidenzia quanto l’aumentare dei partecipanti possa essere un ostacolo. Poiché il numero di potenziali scambi bidirezionali in un gruppo cresce più velocemente del gruppo stesso, l’unità viene a mancare rapidamente man mano che il sistema di ingrandisce. Bisogna fare in modo che gli utenti si attengano allo schema di “pochi ma buoni”, al fine di mantenere la coesione del gruppo.

Attenzione, parliamo di comunicazione/conversazione nell’ottica sociale del termine. E’ ovvio che se il numero di utenti a cui posso veicolare un messaggio (magari pubblicitario) è grande, migliore ne sarà la sua diffusione, ma qui ci ricolleghiamo al contesto del marketing su esposto.

In poche parole, non ha senso avere troppi “amici” su Facebook o Twitter (solo per far numero). Su tutti gli “amici” che abbiamo, ci metteremmo in contatto con meno del 10% di questi.

“Il valore di un social network è definito non solo da chi c’è dentro, ma anche da chi vi è escluso”

Questa citazione si trova in un articolo su Economist del futurologo Paul Saffo, il quale afferma che la legge di Metcalfe si applica al contrario nel contesto di Facebook (e di tutti i social network). Leggi Facebook, Defined Networks, and the Inverse of Metcalfe’s Law (by Scott Karp).
La legge di Metcalfe è valida nei vecchi sistemi di rete, come la posta elettronica o la telefonia. Le reti sociali perdono valore quando vanno oltre una certa dimensione.
Già le reti sociali definite “ASMALLWORLD”, un luogo esclusivo per pochi eletti, si stanno moltiplicando. Ciù suggerisce che il futuro del social networking non sarà un unico grande grafo sociale, ma una miriade di piccole comunità.

In sintesi, la legge di Metcalfe applicata ai social network potrebbe addirittura agire al contrario se si supera il limite (purtroppo non prevedibile) di utenti in un gruppo/comunità.

[NO-SQL] Il Teorema di CAP e il No-SQL data model

Volendo continuare la serie sulla “filosofia” NO-SQL e sulle prerogative per cui è necessaria (vedi l’articolo riportato su questo blog, “NO-SQL e introduzione a MongoDB“), estrapolo qui le motivazioni e le caratteristiche lette negli articoli riportati su BigDataNERD:

Perché NO-SQL?

Per poter rispondere alla domanda occorre esaminare il “teorema di CAP” e ricordare che un concetto fondamentale degli RDBMS è quello delle “ACID transactions” (A=Atomicity, C=Consistency, I=Isolation, D=Durability)

  • A come Atomicità. La transazione è indivisibile, ossia o tutti gli statements che la compongono vengono applicati ad un database o nessuno.
  • C come Consistenza. Il database deve rimanere in uno stato consistente prima e dopo l’esecuzione di una transazione, quindi non devono verificarsi contraddizioni (inconsistency) tra i dati archiviati nel DB.
  • I come Isolamento. Quando transazioni multiple vengono eseguite da uno o più utenti simultaneamente, una transazione non vede gli effetti delle altre transazioni concorrenti.
  • D come Durabilità. Quando una transazione è stata completata (con un commit), i suoi cambiamenti diventano persistenti, ossia non vengono più persi.

I più comuni e diffusi RDBMS supportano le transazioni ACID e i principi su esposti sembrerebbero bastare. Ma dov’è il problema?

Nell’era del Web 2.0, le applicazioni devono lavorare su bilioni e trilioni di dati ogni giorno e la scalabilità è un concetto che in tale ambito ricopre un ruolo importantissimo. Per questo motivo i database hanno bisogno di essere distribuiti sulla rete per realizzare una scalabilità orizzontale. Esaminiamo qui il concetto di “CAP theorem” per valutare le caratteristiche di un siffatto sistema di storage distribuito dei dati.

Il teorema di CAP fu teorizzato da Eric Brewer nel 2000 (C=Consistency, A=Availability, P=Partition-Tolerance). Per maggiori informazioni si veda il seguente articolo: ACID vs. BASE il Teorema di CAP (di Stefano Pedone).

Nell’ambito di un sistema di storage distribuito, i 3 principi hanno la seguente definizione:

Consistency: se viene scritto un dato in un nodo e viene letto da un altro nodo in un sistema distribuito, il sistema ritornerà l’ultimo valore scritto (quello consistente).

Availability: Ogni nodo di un sistema distribuito deve sempre rispondere ad una query a meno che non sia indisponibile.

Partition-Tolerance: è la capacità di un sistema di essere tollerante ad una aggiunta o una rimozione di un nodo nel sistema distribuito (partizionamento) o alla perdita di messaggi sulla rete.

Secondo la teoria CAP, è impossibile garantire tutti e tre i principi del teorema di CAP. Infatti, si consideri un sistema distribuito e si supponga di aggiornare un dato su un nodo 1 e di leggerlo da un nodo 2, si verificheranno le seguenti conseguenze:

  1. Il nodo 2 deve ritornare l’ultima “miglior” versione del dato (quella consistente) per non violare il principio della Consistenza
  2. Si potrebbe attendere la propagazione del dato modificato nel nodo 2 e, quest’ultimo, potrebbe mettersi in attesa della versione più aggiornata, ma, in un sistema distribuito, si ha un’alta possibilità di perdita del messaggio di aggiornamento e il nodo 2 potrebbe attenderlo a lungo. Così non risponderebbe alle query (indisponibilità), violando il principio dell’Availability
  3. Se volessimo garantire sia la Consistency che l’Availability, non dovremmo partizionare la rete, violando il principio del Partition-Tolerance

Le web applications progettate in ottica Web 2.0, caratterizzate da architetture altamente scalabili e profondamente distribuite con politiche di prossimità geografica, puntano in maniera forte sulla garanzia di alte prestazioni ed estrema disponibilità dei dati. Si trovano quindi ad essere altamente scalabili e partizionate. La filosofia NO-SQL è sbilanciata verso la ridondanza dei nodi e la scalabilità.

Di seguito, si riporta una tabella dei maggiori database NO-SQL del momento:

Il NoSQL data model può essere implementato seguendo differenti approcci a seconda delle strutture dati con cui si rappresentano i record di dato.

  • Famiglie di colonne o “wide column store” (come Cassandra e HBase): le informazioni sono memorizzate in colonne, in coppie chiave/valore. Tipicamente sono usati nell’ambito della memorizzazione distribuita dei dati;
  • Document Store (come CouchDB, MongoDB): le informazioni sono organizzate in “Document“, rappresentati in XML, JSON o BSON, e l’accesso ai dati avviene attraverso API che interrogano veri e propri dizionari. Sono molto usati nello sviluppo di attuali web applications;
  • Key/Value Store (come Membase, Redis): la struttura dati di memorizzazione è una Hash Table (coppia chiave-valore). Indicate per sistemi di caching o Hash Table distribuite;
  • Graph Data Store (come Neo4J, InfoGrid, OrientDB). Il modello di programmazione è il grafo e l’accesso ad archi e nodi avviene attraverso algoritmi di ricerca su grafo. Tipicamente si usano nei social network.

 

[OpenData&SemanticWeb] Cittadinanza attiva con i Linked Open Data

Grazie al commento all’articolo “[SemanticWeb] DBpedia e il progetto Linked Data” lasciatomi da Michele Barbera (di SpazioDati.eu), sto approfondendo il discorso dei Linked Open Data, e ho letto tre validi e dettagliati riferimenti:

Ho estrapolato alcune informazioni utili per capire l’ambito di applicazione e gli obiettivi del riutilizzo delle informazioni del settore pubblico.

NOTA. I contenuti riportati di seguito vengono elaborati e presentati nel rispetto delle licenze dei riferimenti su citati (nella fattispecie Creative Commons Attribuzione-Non commerciale)

L’obiettivo dei Linked Data è quello di rendere i dati realmente comprensibili ai cittadini tramite applicazioni software sviluppate ad hoc e vedremo cosa vuol dire propriamente questa definizione. Ma è un processo che si attua soltanto se si seguono delle linee guida che permettono alle tecnologie dell’informazione di comprendere i dati e i loro collegamenti, ovvero l’informazione libera deve essere machine readable (che definiremo tecnicamente più avanti) in modo da poter creare una fitta rete di collegamenti e dare un significato al dato stesso (linked data).

 

Da dove nasce? Tutto ha origine dalla dottrina “Open Government” promossa dall’amministrazione Obama (anno 2009), arrivando a coniare la definizione diOpen Government Data, che si sta diffondendo nei paesi industrializzati con l’obiettivo di ottenere l’accesso libero e proattivo ai dati di un ambito specifico: istituzioni politiche e pubblica amministrazione. La dottrina prevede l’apertura di governi e PA verso nuove forme di trasparenza e partecipazione (e collaborazione) dei cittadini alla “cosa pubblica”.
Ma in realtà, la filosofia dell’accesso libero all’informazione nasce già prima, dal movimento Open Source, da termini come copyleft, Web2.0 (e, quindi, social software).
Nel Web tradizionale, la natura della relazione tra documenti è implicita perché l’HyperText Markup Language (HTML) non è in grado di esprimerne la semantica: i collegamenti (link) tra documenti non esprimono il tipo di relazione che li lega.
Tim Berners-Lee, nella sua prima proposta presentata al CERN nel 1989, espresse la necessità di creare un ipertesto globale, dove le informazioni fossero tutte collegate tra di loro, ma dove la ricerca dei contenuti avesse come risultato i documenti che davvero corrispondevano alla esigenze di chi fa la ricerca. Tale ipertesto globale (web semantico) si può creare con un sistema di gestione dell’informazione a grafo, i cui nodi sono collegati da link ipertestuali “etichettati”, ossia con la descrizione del tipo di relazione che si stabilisce tra due nodi. Si passa dal “World Wide Web” visto come una rete di documenti ad una “rete di dati” (Web of Data), dove i dati stessi sono inseriti in un contesto e, dunque, arricchiti di semantica. Cosa ancora più importante è che lo scopo del Web Semantico è quello di dare vita ad una “ragnatela” di dati elaborabili dalle macchine (machine readable, appunto). Il Web Semantico (o web dei dati) è l’obiettivo finale e i linked data offrono i mezzi per raggiungerlo.

 

La start-up sei tu. La vita come impresa e il network sociale professionale

Ho letto un libro interessante, suggeritomi da @PepperZen, e scritto dal cofondatore e presidente di LinkedIn, Reid Hoffman, in collaborazione con Ben Casnocha.

Ecco il titolo: Teniamoci in contatto. La vita come impresa (traduzione dell’originale “The start-up of you”).

Questo libro è concepito come un dono che gli autori hanno voluto fare ai lettori, offrendo strumenti per migliorare la realtà non solo lavorativa, ma anche quotidiana, le relazioni con le persone con cui ci troviamo a contatto. Il tema predominante è quello delle start-up, iniziative che nascono per attitudine, grazie ad una mentalità imprenditoriale e ad una fitta di rete di contatti. Dove si rischia e si sa da dove attingere per ricavare informazioni, ovvero dal network di persone che ci circondano. Nel libro vengono date varie “dritte” su come creare e gestire il proprio network, usandolo come propria arma per passare da un Piano A ad un piano B e costruendosi un piano di “salvataggio” (detto Z). Interessanti sono anche le motivazioni che hanno portato all’adozione di determinate scelte nell’ambito dei social network, come LinkedIn – per esempio, il discorso dei gradi di separazione – e gli esempi di vita di alcuni personaggi che hanno fondato le loro start-up, divenute poi grandi società famose in tutto il mondo.

Ecco la mission di Hoffman e Casnocha con la scrittura di questo libro:

Per Ben e per me, questo libro rappresenta uno dei nostri doni alla società, per ricambiare ciò che abbiamo ricevuto. Siamo convinti che gli strumenti forniti in queste pagine possano migliorare sia la tua vita sia la società. A volte ricambiare può significare semplicemente diffondere idee dense di significato.

Per una sintesi e una recensione del libro, vi invito a leggere questo articolo: Il libro “Teniamoci in contatto”, molto più di un libro.

Cito un passo che mi ha particolarmente colpito durante la lettura:

Diventa una persona a cui le altre persone del tuo network siano motivate a rivolgersi in relazione a determinati argomenti. Rendi noti ai tuoi collegamenti i tuoi interessi e le tue competenze scrivendo blog post ed email, o creando gruppi di discussione. Quando le persone si rivolgono a te per ottenere informazioni, tu acquisti al tempo stesso informazioni da loro.

Per finire, trasmettere informazioni interessanti al tuo network in modalità push incrementa le probabilità che tu ottenga informazioni ricollegabili alla serendipity. Pubblica un articolo, manda una citazione via email, inoltra un’offerta di lavoro e fai piccoli doni di altro tipo alla tua rete. I tuoi amici lo apprezzeranno, e tu renderai più probabile che quelle stesse persone ti ricambino mandando a te informazioni in futuro.

Sperando di farvi cosa gradita e utile e di scambiare con voi informazioni che ci arricchiscano a vicenda, ho sottolineato ed estratto delle frasi che ho reputato importanti man mano che leggevo e vorrei condividerle qui con voi. Buona lettura!

Continua la lettura

[Security] OAuth: siamo noi ad autorizzare l’accesso ai nostri dati

Cosa accade quando sui social network, come Facebook o Twitter, diamo l’autorizzazione alle applicazioni di accedere ai nostri dati (profilo, info, foto, ecc.)? Semplicemente è come se gli lasciassimo la porta di casa aperta, senza chiuderla a chiave. Infatti, dietro viene utilizzato spesso un protocollo che è chiamato OAuth (open authorization) e di cui descrivo il flusso operativo, senza entrare troppo in dettagli tecnici.

Facebook ha già implementato il protocollo OAuth 2.0 e Twitter, fino a poco tempo fa, usava OAuth 1.0a (definito da RFC 5849). Comunque, il paradigma di autorizzazione è uguale per entrambe le versioni e riguarda lo scambio di informazioni (chiamato spesso “dance“) tra una applicazione client che necessita di accesso ad una risorsa protetta su un server provider e un utente finale (end-user), che ha bisogno di autorizzare l’accesso alle sue risorse protette a tale applicazione client (senza condividere username e password).

OAuth fornisce, dunque, un modo per autorizzare una applicazione ad accedere ai dati che sono stati memorizzati su un servizio online, senza fornire username e password personali. La specifica IETF OAuth 2.0 Protocol descrive il meccanismo di autorizzazione come segue:

  •  l’end-user autorizza l’accesso ad una applicazione (client) ad alcuni dati (scope) gestiti da un servizio web (resource owner)
  • Invece di chiedere le credenziali, il client ridireziona l’end-user verso il resource owner e l’end-user autorizza uno scope direttamente al resource owner: il client identifica se stesso con un client identified univoco e l’end-user lo autorizza;
  • assumendo che l’end-user abbia autorizzato il client, il client notifica e manda un authorization code di conferma all’end-user di avvenuta autorizzazione dello scope; c’è un problema: l’identificatore inviato dal client non è necessariamente segreto, dunque un client malintenzionato potrebbe avere fraudolentemente identificato se stesso e mascherarsi da client autorizzato (trusted publisher);
  • Il client presenta l’authorization code insieme al proprio identificativo e il corrispondente client secret al resource owner e riceve indietro un access token. La combinazione di client identifier, client secret e authorization code assicura che quel resource owner possa positivamente identificare il cliente e autorizzarlo. Questo access token può opzionalmente avere vita breve ed essere refreshato dal client.
  • il client usa l’access token per fare richieste fino a quando l’access token non viene revocato (dall’end-user) o scade.

OAuth permette, dunque, anche di revocare da parte di un end-user l’autorizzazione al client.

Continua la lettura