Archivi tag: web

Context is King, Content is Apps

cia

E se fossero proprio le tecnologie aperte come HTML5 a permettere ai creatori di contenuti di stabilire autonomamente i loro modelli di business?

Se fossi riuscito, col mio coloratissimo Prezi a seminare un dubbio di questo tipo tra gli avventori del Media Web Symposium di Berlino, lo considererei già un successo trionfale. Per ben due giorni la kermesse organizzata dal Fraunhofer Institut sulle tecnologie d’interazione applicate all’industria dei contenuti si è concentrata su fenomeni “di processo”: la connected TV, il multiscreen, la ricerca di uno streaming davvero “agnostico” rispetto a chi lo diffonde sul Web.

Ma rimaneva un grosso “buco” al centro del programma, quello su come queste evoluzioni tecnologiche si incontrano (o ignorano) i nuovi trend d’uso, e soprattutto come possono abilitare ecosistemi del tutto inediti, non necessariamente governati da vecchi e nuovi aspiranti “padroni del vapore”.

E in quello spazio mi sono infilato io, con la scusa di concedere una tregua a un pubblico forse in vena di staccare per un attimo dal tema dei linguaggi di programmazione e degli standard.

Nel mio speech ho provato a percorrere un pezzo di passato fino a un possibile futuro: dal 1990 al 2020, con al centro una fotografia del momento che stiamo vivendo, il 2013.

Si passa quindi da un ecosistema bloccato (1990), in cui il modello “sussidia” in prima istanza i detentori dell’infrastruttura distributiva, che possono così dettare regole, vincoli e modelli di business per tutti gli altri attori a monte della catena, a cominciare dai Content Owners…

…a una fase, quella attuale (2013), in cui nuovi soggetti provano a sostituirsi ai vecchi “tycoon”, facendo valere i propri asset non duplicabili (la piattaforma, il device, i contenuti mainstream)…

…per sbarcare in un 2020 dove appare un nuovo ecosistema che ancora non si sostituisce al vecchio, ma progressivamente sottrae eyeballs, attenzione e quindi fonti di ricavo ai modelli precedenti, facendo soprattutto leva sul “senso” del contenuto (“Context is King”).

La straordinaria resistenza al cambiamento di TV, Radio, Giornali e Libri è solo scalfita dai newcomers, il cui principale fattore di successo, nel conseguire una sostenibilità economica, è allearsi coi nuovi player che sul Web spingono verso linguaggi, codec, pratiche aperte e non controllabili da pochi soggetti. L’area del sussidio si allontana dai distributori e per la prima volta si avvicina al content provider indipendente, che è libero di studiare il format insieme al nuovo meccanismo di remunerazione. Per esempio, all’interno di una App “agnostica” rispetto alla piattaforma, e in grado (magari grazie a HTML5) di girare su qualsiasi browser. Sullo sfondo, le nuove esigenze di consumatori ormai smaliziati, che da un lato si tuffano nella “diversity” offerta dal Web, dall’altro confermano di usare i social media per i grandi, irrinunciabili momenti di aggregazione.

Il video in italiano, registrato pochi giorni prima alla Social Media Week, è qui. I vostri commenti sono più che mai graditi.

Milano da twittare

C’è un primo, grande paradosso che è apparso in tutta la sua evidenza durante la Social Media Week che si è recentemente chiusa a Milano. Mentre dai vari “panel” ci si produceva nell’ennesimo sforzo di dimostrare come la rete ci liberi da mille vincoli, scatenando la creatività delle persone e mettendo le idee a disposizione di tutti, la stampa mainstream guardava Grillo in Piazza del Duomo e concludeva questo: “Visto? La rete è roba da frustrati, astiosi dilettanti rinchiusi nelle loro camerette, ridateci il monopolio dell’informazione”.

C’era dunque bisogno di un evento non “per addetti ai lavori”, non isolato in una nuvola autoreferenziale, ma “su strada”, che incuriosissse anche visivamente l’avventore casuale. Occorreva non spaventarlo con la solita cascata di buzzword, e magari sedurlo attraverso il racconto di come la Rete cambia la nostra vita quotidiana, quella fatta di cose che si toccano e di persone che si guardano negli occhi.

Posso dire che Hagakure c’è riuscita? OK, mi limito a pubblicare qualche numero che ciascuno potrà liberamente interpretare. In fondo siamo il popolo dei 10.000 visitatori “secondo la Questura”, quindi anche la matematica è una simpatica opinione 🙂

numberz

Circa i panel che sono riuscito a seguire, cito a memoria:

–  “Web Everywhere!” il dibattito sulle prospettive di una rete omnipresente: anche qui siamo in pieno conflitto d’interesse, ma non posso esimermi dall’esaltare la splendida deriva socioantropologica innescata dai brillantissimi Bennato e Mulé;

Social Media & Comics, dove incontrastate star della satira in rete come Zerocalcare hanno trasformato Palazzo Reale in una sorta di Zelig improvvisato;

Governi, piazze, mercati e palazzi. Come Twitter cambia il mondo in cui Matthias Lufkens, capo della sezione Digital di Burson-Marsteller, ha raccontato in che modo – ancora a volte troppo ingenuo – i governanti dell’orbe terracqueo usano i social media (come cambia in fretta il mondo, vero Eric?);

Non potevo infine mancare (perché ero sul palco, mica per altro) il dibattito di chiusura, dove – fortunatamente con modalità del tutto ludiche – l’ineffabile Gianluca Neri ha tormentato i relatori con pungenti domande sui possibili trend del 2013. Io me la sono cavata con un nuovo Prezi sull’evoluzione degli ecosistemi dei media, in realtà una specie di anteprima della presentazione che sto per tenere a Berlino per il Media Web Symposium 2013. Per una analisi più puntuale di quella roba lì, rimando al prossimo post dalla Crante Cermania.

Concludendo, sono sicuro che i molti personaggi che sono pagati non per lavorare, ma per parlar male del lavoro degli altri, avranno da ridire anche sulla Social Media Week. Da parte mia, io non vedo l’ora che ne organizzino un’altra, magari all’ombra del Colosseo, e possibilmente col sole. Perché OK, la neve a fiocconi è bella e romantica, ma insomma, ecco, come dire.

La carica degli ovetti

ovetti-twitter-renzi-130x300Se seguite la campagna elettorale su twitter con un minimo di assiduità, non potete non averli incontrati almeno una volta. Sono loro, gli ovetti, le centinaia, forse migliaia di account con un nome, ma senza un volto (costerebbe troppo) che stanno infestando le conversazioni online sui temi politici. Come è fin troppo facile capire, li hanno creati ad arte per intervenire tempestivamente nelle discussioni dove, legittimamente o meno, viene attaccato un candidato da difendere. La strategia è quella del branco: non conta la forza degli argomenti, ma solo il numero, il mettere in minoranza chi minaccia l’autorevolezza del personaggio da proteggere. Proprio come alle elementari.

E’ la vera novità di questa campagna elettorale online. Lo sciame di disturbatori fittizi è gestito da dei piccoli eserciti di volontari. E spesso si tratta anche di volontari “a loro insaputa”, perché a volte sono stagisti che non hanno nemmeno la certezza che verranno pagati per la loro autoclonazione, per la loro capacità di moltiplicarsi in decine di “Elio Vito” (lo ricordate?) in grado di ripetere a manetta una serie di frasi fatte da opporre in automatico anche di fronte all’argomentazione più stringente.

Del resto, se la stagione politica che abbiamo alle spalle continua a premiare, nei talk show televisivi, esattamente questo tipo di comportamenti, non dobbiamo stupirci se vengono ripetuti sui social media, dove al vantaggio della clonazione infinita si aggiunge la sensazione di un miglior rapporto costo/beneficio.

Il vero problema, duole ricordarlo ancora dopo averlo più volte affermato in ambito aziendale, è la facilità con cui il più becero e vetusto approccio alla comunicazione sul web viene venduto ai committenti di questa breve ma evidentemente remunerativa stagione elettorale: i politici. Invece di spiegar loro come, in passato, gli strumenti digitali hanno svolto un ruolo forse non decisivo, ma nemmeno trascurabile, durante una campagna per il voto si preferisce calarsi  nel più scontato “digital divide” del cliente, del quale è un gioco da ragazzi assecondare il naturale terrore di “essere criticati su twitter”.

E quindi via con gli sciami di droni che possono attaccare in massa senza mettere a rischio vere “vite umane”, vere reputazioni con un nome e un cognome. E tanti saluti ai profeti del marketing conversazionale che avrebbe dovuto premiare la trasparenza, trasformandola in credibilità.

Rimane solo da chiedersi, la prossima volta, se ci sarà ancora qualcuno disposto a pagare l’affama-stagisti di turno per una “strategia” di questo tipo. Ma siamo in Italia, e la memoria corta, purtroppo, non ce l’ha solo l’elettorato attivo.

La prima della Scala, la televisione, twitter: l’intreccio si infittisce

E’ trascorso esattamente un anno da quando Rai5, con la diretta del “Don Giovanni”, mise fine allo scempio della “Prima” della Scala fino ad allora ricevibile in chiaro solo da un canale franco-tedesco come Arte-TV. In quella circostanza, finalmente, il principale evento culturale del calendario italiano tornò a costituire un patrimonio accessibile a tutti, rompendo lo schema per cui solo la certezza di una grande audience può legittimare una produzione e una distribuzione televisiva certamente onerosa.

Fu la fine di un’epoca: quella in cui per decenni la grande serata dell’Opera italiana si era fatta “blockbuster” solo per i  suoi riflessi mondani: i puntualissimi tre minuti del TG1, con l’imperdibile sfilata di paillettes e acconciature in perfetto stile “Messa di Natale” (la classica messa di chi non va mai a messa), il terrore per la studiatissima reazione dei loggionisti, il sorriso dei VIP, la presenza delle autorità, ecc. ecc.

Era proprio il contorno lo spettacolo da vendere, mentre ciò che avveniva sul palco veniva instradato su catene distributive logore e sempre meno redditizie. Come foglia di fico, per la propria incapacità di costruire un business intorno a quel contenuto, l’industria finiva per etichettarlo come “di nicchia”. Intanto,  per motivi evidentemente ignoti ai nostri grandi tycoon, quello stesso evento veniva prodotto e redistribuito in giro per il mondo come un imperdibile gioiello.

L’altroieri, con le 6 ore di diretta per il  Lohengrin di Baremboim (su Rai5 ma anche in HD), la televisione pubblica è sembrata voler rilanciare la sfida del 2011.  Wagner non è esattamente digeribile come Mozart, e in parecchi  hanno dovuto compiere un notevole investimento emotivo per avventurarsi  in una  “scoperta” a scatola chiusa. Ma pensare di spiegare solo in questa chiave il dimezzamento dell’audience (poco più di 200.000 contro il mezzo milione dell’anno scorso) significa sottovalutare altri, meno evidenti, fenomeni.

Siamo sicuri che nel 2012 il singolo dato di ascolto del “live” esaurisca la dimensione del potenziale mediatico di un evento di questa portata? Io non credo. Intanto bisogna ricordare che la “Prima” della Scala, finalmente liberata dal tritacarne della cronaca, torna ad essere un tipico contenuto dal lungo ciclo di vita, che può dare il meglio di sè in ciò che una volta era “l’Home Video” e oggi sono le multiprogrammazioni, la catch-up TV, e le mille “code” che saranno disponibili sul Web, a patto di riuscire seriamente a metterle a valore.

L’annosa questione dell’aggregazione sociale generata dai grandi eventi non può più prescindere dal fatto che i social media rendono l’aggregazione svincolata dal luogo fisico della fruizione.  L’hashtag #primascala ha monopolizzato la serata di S. Ambrogio su Twitter, e ancora una volta il broadcaster ha perso l’occasione di agganciare queste conversazioni (“lock-in”) su primo schermo, relegandole al ruolo di “rumore di fondo”. Gli sviluppi della social TV negli Stati Uniti, di cui parla spesso con costrutto Emanuela Zaccone, raccontano bene quali opportunità si nascondano dietro lo sviluppo di una strategia “social” intorno ai grandi momenti aggregativi che il broadcast ancora riesce a realizzare.

A questo proposito, sono proprio curioso di sapere cosa abbiano in mente di fare alla RAI in occasione del prossimo Festival di Sanremo. Andrà a finire che tornerò a seguirlo, cosa che non accadeva dai tempi di Gigliola Cinquetti.

I festival sul web e la necessità della non necessarietà

capucine.jpg

Sul treno Pisa-Roma, di ritorno dall’Internet Festival che si è appena concluso nella città toscana, cerco un bandolo nella matassa dei pensieri razionali e delle sensazioni grezze, con una preferenza per queste ultime, che quest’ennesimo raduno di Web Tellers (è l’unica definizione che mi pare in grado di accomunarli) mi ha lasciato nello zaino.

I festival sul web, è indubbio, si stanno affollando. Ce ne sono così tanti che si inizia a guardare con preoccupazione a certi momenti “pregiati” del calendario (settembre-ottobre e maggio-giugno), con tanto di lotte di posizionamento per occupare la settimana più utile e i primi, inevitabili fenomeni di sovrapposizione.

Non c’è da stupirsi per questa rincorsa: da un lato gli sponsor privati cominciano a “mettere i paletti” e a fidelizzare il proprio brand su alcune iniziative “storiche”, pensando di poter capitalizzare sulla primigenia, e non sempre con molto costrutto. Dall’altro sono ormai nel “loop” le amministrazioni locali, e in particolare quelle che per diverse ragioni (maggiori risorse o reale e meditata scelta strategica, o una combinazione delle due) decidono di finanziare con soldi prevalentemente pubblici la propria “settimana del web”, a vario titolo o con tagli diversi.

A quest’ultima categoria di iniziative appartiene, come del resto l’ottimo Medioera (organizzato lo scorso Luglio dalla provincia di Viterbo),  anche l’arioso e apparentemente indefinito festival pisano, giunto quest’anno alla seconda edizione ma solo da quest’anno curato dalla Fondazione Sistema Toscana.

A Pisa abbiamo vissuto un festival finanziato prevalentemente con denaro pubblico dunque, anche se alcuni sponsor di non trascurabile peso facevano bella mostra di sè negli stand e sui materiali. Dico subito, a scanso di equivoci, che laicamente e dal mio soggettivissimo punto di vista di semplice fruitore, il festival mi è piaciuto più di qualsiasi altro evento organizzato quest’anno nel nostro Paese.

Ma prima di spiegare perchè, vorrei tornare su questa oziosa forzatura della dicotomia pubblico-privato, che torna sempre più di frequente nelle discussioni delle “cerchia” che si muove in primo piano e con le stesse dinamiche, indipendentemente dal mutare della texture dello sfondo (dalla Rocca di Riva del Garda alle ormai consolidate location delle grandi aree metropolitane).

A Pisa ho avvertito molte critiche, spesso gratuite, provenienti da addetti ai lavori di primissima fascia, persone che stimo per la loro competenza e professionalità e che ormai da una decina d’anni mi trovo ad incontrare in occasioni simili (dai barcamp in poi, diciamo). Ecco, mi spiace rilevare che in queste critiche ho letto più la volontà di far pagare una sorta di noviziato agli “ultimi arrivati” – gli organizzatori del festival, appunto – che uno sforzo “laico” di capire che cosa essi avessero in mente, che cosa volessero lasciarci nel cuore e nella testa dopo queste 4 giornate, a prescindere dalle ovvie rigidità che legano le aspettative all’esperienza, se non addirittura un cliente ad un fornitore.

Dietro queste critiche il messaggio di fondo sembra essere “se i soldi sono pubblici, sono sprecati, perchè non possono che essere affidati a persone incompetenti” . Ebbene, io credo che questo tipo di associazione sia poco più che un riflesso condizionato che risponde a uno sterile pregiudizio.

Potrà anche esserci del vero – perchè “il diavolo è nei dettagli” – nelle parole di chi sottolinea l’imprecisione della segnaletica e dei materiali, l’eccessivo affollamento di eventi in contemporanea, l’inadeguatezza di certe location, la composizione di panel che hanno relatori di prima fascia mescolati a personaggi semisconosciuti, o che per le ragioni più disparate a ciascuno di noi risultano tristemente conosciuti, come se tra i vari oneri dell’organizzazione vi fosse anche quello di bilanciare i rapporti tra clan, amicizie, inimicizie e orientamenti ideologici di varia natura, e via criticando.

Ora, io credo si possa affermare con ragionevole serenità che nessuna di queste osservazioni aggiunga assolutamente nulla sul tema davvero centrale, che è un altro: qual è l’obiettivo di un evento come questo? accontentare i clienti? gli sponsor? le istituzioni? l’università? o forse, banalmente, lasciare a chi il festival lo fruisce (in larghissima misura studenti), qualche traccia di quella cultura digitale che che negli ultimi anni stiamo alacremente distruggendo, affogandola nella nostra necessità di rivendicare una presunta e neonata “professionalità”? O, peggio, come accade a molti miei coetanei, traghettare la nostra competenza “cartacea” (qualcuno una volta la definiva “parolaia”) nel mondo digitale, come se le logiche di contenuto fossero le stesse, come se certi “capisaldi” cosituissero davvero l’imprescindibile punto di partenza?

E’ buffo, perchè molte delle pecche che rileviamo oggi una volta le consideravamo fenomeni romantici, tipici di una transizione, di un'”era dei pionieri”. Ciò che oggi chiamiamo “disorganizzazione”, ai tempi, la chiamavamo serendipity, per il semplice fatto che allora, gli eventi, li organizzavamo noi, da soli, con le nostre risorse, ed eravamo i primi. E ci lamentavamo proprio perchè il “pubblico” (e non le aziende, che avrebbero “comprato” la nostra verginità) non ci aiutava, non ci capiva, era sempre in ritardo. Ma non appena ci siamo felicemente riposizionati siamo tornati ad essere più realisti dei Re, perdendo ogni stilla dell’entusiasmo e di quella “ingenuità” iniziale che oggi ci spedisce dritti dritti al ritorno all’alveo, in perfetto stile “Business International”.

E nel frattempo, tra le altre cose, abbiamo scoperto che quando organizziamo un evento è più facile essere giudicati sui pochi parametri che i nostri interlocutori comprendono: la “cura della segnaletica”, la “coerenza dei relatori”, e via banalizzando. Finendo così per assecondare qualsiasi iniziativa pubblica alle logiche di sempre, i criteri “necessari”, semplicemente perchè più vendibili ai nostri “clienti”, che sono ormai le aziende che ci mettono i soldi. E perdendo così di vista la nostra responsabilità di ex-pionieri, che poi è quella di dar vita a una rottura, a un filone davvero indipendente, quello delle culture digitali che permettono di creare nuove aspettative, compresa la capacità di stupirci con un necessario – se mi perdonate il gioco di parole – clima di “non necessarietà”.

Per riassumere: continuando così, nell’asfittico calendario di cui sopra, ci sarà sempre meno spazio per i tanti eventi realmente “partecipati”, perchè nell’inseguire pedissequamente la logica del “se c’è, è perchè è monetizzato” (ove la monetizzazione è solo una delle possibili forme di remunerazione) finiremo per non essere più remunerati con le idee, con le esperienze, con il networking che solo dopo, dentro di noi e dentro la Rete, diventano competenze davvero monetizzabili.

Per fare un parallelo, se io stessi scrivendo questo post con l’obiettivo di monetizzare il mio blog, sarebbe già infinitamente troppo lungo: avrei dovuto scrivere al massimo venti righe, meglio se ricolme di link. Sfortunatamente per i liberisti orizzontali, può anche capitare che a qualcuno interessi esprimere compiutamente il proprio pensiero (ed essere gratificato dal valore della discussione che lo spunto genererà). Ed è per questo che non sono affatto preoccupato dai cali di attenzione, ma dalla necessità di argomentare e mettere nuovi problemi sul tavolo, a disposizione di chi si riterrà interessato.

Tornando a Pisa, questo festival, forse proprio per il fatto di non essere troppo assillato dal rapporto profit/loss, ha potuto mettere sul tavolo tante questioni, senza dover scendere a compromessi, nella consapevolezza che “ogni issue ha un suo mercato” il che è infinitamente preferibile alla coda lunga delle opinioni secondo cui “ogni opinione –  compresa quella degli scettici ad orologeria –  ha un suo mercato”.

E’ forse solo grazie all’approccio “laico” rispetto agli snobisti e ai disillusi per tutte le stagioni che a Pisa è stato possibile ascoltare Mariann, che ha parlato delle rispettabilissime motivazioni dei molti che decidono coscientemente di cancellarsi da Facebook, seguire il meraviglioso Salvatore nel suo struggente e visionario appello alla rete, approfondire temi spinosi come quello dei dati personali in un programma che prima di giudicare “troppo affollato” definirei, semplicemente, ricco. Ricco delle sue diversità, delle sue incoerenze, della sua incoscienza nel non dover preoccuparsi di chi è amico di chi, di cosa è rapidamente passato di moda, di quali sono le nuovissime buzzwords ascoltate la settimana prima, magari da quelli che ormai parlano di 4.0 e di “nuovo umanesimo”.

Non possiamo infine dimenticare che la riuscita di un evento non si misura solo durante o immediatamente dopo. Anche se i numeri sono già impressionanti, un festival come questo va valorizzato anche e soprattutto per i contenuti che  hanno un ciclo di vita potenziale ben più lungo. Ed è dai tempi di Words, World, Web che a In Toscana l’hanno capito, mandando in streaming (con un servizio che ha funzionato a puntino, anche da 12 location in contemporanea) tutte le conferenze, che saranno rese disponibili successivamente, on demand.

Personalmente, nelle due occasioni in cui ho participato come relatore (un Keynote Speech sulla Content Curation – il prezi è qui – e  il dibattito sulla nuova informazione “Dalla Carta a Twitter“, moderato da Luca Alagna) ho avuto ottimi riscontri sia dalla platea che dalla Rete, con domande e osservazioni molto più utili rispetto a tante occasioni con un “vissuto” più consistente.

Comincio a sospettare che sia proprio il “vissuto storico” a iniziare a pesare come un fardello su parecchie di queste manifestazioni, con una costante opera di corrosione e drenaggio dell’entusiasmo di chi ci lavora prima, durante e dopo. E lo dico a ragion veduta, dopo aver ammirato la passione e la pazienza di persone come Ivo Riccio, Costanza Giovannini, Marzia Cerrai e naturalmente Adriana De Cesare che ci hanno accompagnato in queste quattro lunghissime e  meravigliose giornate.

Forse quell’altro schermo che hai in mano non deve farmi paura

ImageDownload MP3

Nel salotto di casa l’unica vera risorsa scarsa è l’attenzione. Per anni lo schermo televisivo, avendo la pretesa di costituire un’ esperienza autosaturante, ha dovuto contendere questa risorsa alle “altre cose” che succedevano nell’ambiente domestico. La cena, i riti familiari, i racconti, le discussioni, fino naturalmente agli altri media analogici (il libro, il giornale, il disco, eccetera). Tutte attività che, in ogni caso, tendevano ad essere svolte – appunto – una per volta.

Ma quando anche l’antico precetto “non si cena con la tv accesa” cominciò a scricchiolare, in concidenza con lo sbarco di un secondo televisore in cucina, si capì che qualcosa stava cambiando. La TV poteva essere vista anche in modo distratto, e i contenuti potevano persino essere “intuiti” via audio, magari da un’altra stanza, dove magari stavamo svolgendo un’altra attività. Gli stessi format si sono adeguati a questa mutamento, tanto da prevedere enormi sovraimpressioni (”The Jerry Springer Show”), newsticker (la CNN), o comunque altri dati statici che hanno permesso, con una sola occhiata, di capire “cosa sta succedendo in TV” senza necessariamente guardare la TV.

Una volta assicuratisi che questo cambiamento comportamentale (che derubricava la TV da “aggregatore sociale”  – tutti nella stessa stanza a guardare Rischiatutto – a banale “elettrodomestico”), non modificava gli equilibri dei modelli di business, i broadcaster tornarono a dormire tranquilli sugli allori, capendo che non era poi così necessario fare “la guerra alla vita reale”.

Questo passaggio però gettava le basi per una successiva evoluzione, che viene permessa oggi da una nuova svolta tecnologica. Quando i salotti (ma anche le altre stanze) hanno cominciato a popolarsi di nuovi schermi del tutto indipendenti dalla programmazione dei broadcasters (smartphone, notebook, ma sempre più ormai tablet) fu chiaro che queste nuove interazioni iniziavano a sottrarre eyeball e quindi attenzione “vendibile” e quindi – in potenza – raccolta pubblicitaria alla televisione tradizionale. La cosa più grave era che le giovani generazioni utilizzavano questo secondo schermo magari proprio per commentare in tempo reale la propria trasmissione preferita. In sostanza, il broadcaster tornava ad essere un aggregatore sociale, ma stavolta svincolato dalla posizione fisica degli utenti. Col problema di alimentare l’attenzione (e quindi il business) di altre piattaforme, senza ricavarne un euro per sè. Dalla “guerra alla vita reale” la prospettiva della TV lineare divenne quella di una sanguinosa “guerra agli altri schermi”.

Ed è proprio di queste dinamiche si è parlato a “The Future od Digital Media Distribution”, l’evento annuale di Screen Digest (tra i principali infoprovider internazionali che rilevano e studiano i dati di audience) al quale sono stato invitato qualche giorno fa a Londra. La questione centrale del dibattito è stata: cosa succede a chi vende non solo pubblicità ma anche contenuti (la Pay per View) in un luogo in cui la disponibilità ad acquistare contenuti vale solo se si “compra”, nuovamente, una esperienza autosaturante (il film, la partita di calcio, insomma “storie” che richiedono ancora una attenzione costante)?

Nessuno dei componenti del pur qualificato panel ha saputo rispondere a questa difficilissima domanda. E questo è un bel passo in avanti, rispetto ai troppi convegni e seminari nostrani in cui si avvicendano persone che parlano come se avessero la soluzione in tasca. Su una cosa, però, siamo stati d’accordo: c’è del valore nel riassegnare al televisore un ruolo di riaggregazione, quel ruolo che fino a poco fa veniva considerato estinto a causa della fruizione asincrona. Per i broadcaster si tratta di “non avere paura” di quel secondo schermo e di quello che può accaderci dentro, abilitando forme di interazione “proprie” che restituiscano valore per l’utente da un lato e per l’inserzionista dall’altro. Qui potete assistere al video della tavola rotonda, con una avvertenza: in uno dei miei interventi c’è anche (al min. 23) una battuta preventiva mirante a schivare in anticipo il consueto lazzo di scherno e dileggio sull’Italia di oggi, sempre in agguato quando si parla lontano dai patri lidi

Cosa ci fa uno schermo in un salotto?

Il ruolo dei dispositivi connessi alla rete (flatscreen, smartphone, tablet) nella living room, da sempre regno incontrastato dell’intrattenimento domestico, è stato l’oggetto del mio intervento alla Social Media Week che si è appena conclusa a Milano. Qui potete vedere il relativo Prezi – che si conferma strumento insostituibile quando si vuole far sembrare importanti cose banali  🙂  – e qui il video dell’intero dibattito, intitolato “Narrazioni Convergenti”, moderato da Paola Liberace e nel corso del quale si è parlato soprattutto di Social TV, di Serial TV e del “caso” Lost, oggetto di un recentissimo libro di Romana Andò.

Uno degli aspetti più interessanti della discussione è stato l’emergere di un valore sociale del contenuto in rete che è legato intimamente al potere della narrazione, e che prescinde del tutto dalle piattaforme e dalle modalità di fruzione – proprio come è accaduto con Lost. Come ha sottolineato anche Alberto Marinelli, è il segnale che nella corsa alla valorizzazione degli aspetti sociali nei media non bisogna sopravvalutare l’aspetto tecnologico rispetto a quello dei mutati comportamenti della net-generation, che decide spesso da sola cosa fare sia degli strumenti sia dei contenuti, fino a sostituirsi al ruolo dei produttori e degli aggregatori nella stessa “costruzione di senso” attorno all’oggetto multimediale. Per un resoconto più dettagliato della giornata potete vedere qui.

E’ il digital divide il vero walled garden

Secondo un recente rapporto dell’Associazione IPTV, entro il 2014, in un modo o nell’altro, la maggioranza dei televisori presenti nelle case degli italiani sarà direttamente o indirettamente collegabile ad internet.

Ovviamente “collegabile” e non “collegata” è una prima distinzione chiave. Infatti, se consideriamo che solo poco più della metà delle case degli italiani ha una connessione a banda larga sufficiente per servizi video, ecco che nel 50% dei casi l’avere un televisore “collegabile” non significherà averlo “collegato”.

Ma anche se fossimo al 50% di questo 70-80% si tratterebbe comunque di una quota in grado di sconvolgere l’industria dei contenuti. Se tutti quelli che possono pubblicare video su internet potessero in questo modo sbarcare nel regno dell’intrattenimento domestico, scavalcando le catene di distribuzione tradizionali (storicamente intermediate dal broadcaster), si tratterebbe già di una rivoluzione degli ecosistemi mediatici, che potrebbe scuotere dalla base il principale nutrimento della nostra cultura popolare, nonchè – aspetto non secondario – l’agenda dell’informazione.

Ma siamo ancora costretti a usare il condizionale. In questa fase di transizione, in cui il pallino del “network enabling” dei televisori è ancora nelle mani degli stessi costruttori, le motivazioni di fondo nel rendere una TV “connected” o “non connected” non hanno natura strategica. Ciò che spinge, ad esempio, i leader di mercato dell’hardware a dotare i propri flatscreen da salotto di una porta ethernet che permetta il collegamento a internet è una semplice leva commerciale. Una scelta tattica, mirante ad accorciare i cicli di sostituzione e aumentare le vendite. Non a caso, nella quasi totalità dei casi il  collegamento wifi non è previsto: per ottenere questa comodità (e non essere costretti ad allungare il cavo ethernet fino alla TV) occorre comprare uno specifico accessorio, ovviamente prodotto dalla stessa casa che ha venduto il televisore.

Non c’è quindi nessuna fretta, per i vari produttori di smart TV, di portare questi contenuti in massa a casa dello spettatore, anzi. Più gli rendono la vita difficile (e infatti sono un cliente su 10 allunga quel cavo fino all’agognato schermo) e meglio è, anche perchè i costruttori sono tradizionalmente alleati dei broadcaster, in una catena che per decenni ha garantito guadagni sicuri per tutti.

Quindi siamo già al 10% del 50% del 70-80%. Insomma il 4 per cento delle persone, di fatto, accendendo col telecomando il proprio televisore, e smanettando un pò fino al menu “Internet TV” o “Contenuti Online” si trova di fronte a una scelta di contenuti alternativi a quelli che arrivano dal satellite o dal digitale terrestre. E’ vero che ad alcuni di questi contenuti si può arrivare anche attraverso vari set top box, lettori blu-ray, game consoles, e persino (anche se a malincuore, parrebbe) attraverso il decoder del digitale terrestre con bollino gold.  Ma anche essendo generosi, diciamo che la quota dei telespettatori italiani  consapevolmente “net-enabled”, stante l’attuale situazione, non supererebbe il 5% oggi e il 10% nel 2014. Nulla di che spaventare, nell’immediato, le catene del valore tradizionali (inserzionisti, aggregatori, operatori di Pay TV e gestori della capacità trasmissiva). I cui “padroni del vapore” potranno quindi ancora a lungo recitare il consueto “tout va bien, madame la marquise“.

Ma i blocchi di natura “non tecnologica” rispetto all’apertura verso una potenzialmente sterminata varietà di contenuti non finiscono qui. Anche una volta raggiunto, faticosamente e per pervicace volontà del’utente, l’agognato e seminascosto menu “contenuti online” lo spettatore non potrà certo navigare liberamente tra tutti i video disponibili su internet, ma tra una selezione di “widgets” (content-based applications, in questo caso) frutto di accordi tipicamente stretti tra il costruttore e un fornitore di contenuti mainstream, come Disney, CNN, De Agostini, ecc.

La parte più avanzata di questo menu sarebbe quella che ospita i widget che permettono di navigare sulle applicazioni di video sharing come YouTube, apparentemente una enorme quota di nuovi contenuti. In realtà si tratta solo di quelli presenti sulle API pubbliche di YouTube che – non a caso – tendono ad escludere i contenuti di maggior pregio, e cioè quelli con alle spalle un Featured Channel gestito da un broadcaster, da una major o da un gruppo di major aggregate (come l’ottimo Vevo per i video musicali).

Guarda caso, sono solo major e broadcaster ad avere alle spalle una Content Delivery Network decente, in grado di garantire una user experience accettabile, senza interruzioni, sullo schermo del salotto. E infatti c’è chi parla degli OTT (YouTube e Facebook in prima fila) come di “nuovi intermediari” del video e non come aggregatori realmente capaci di offrire valore agli utenti, in cambio di eyeballs pubblicitarie.

Non parliamo poi di quella che dovrebbe essere la punta più avanzata del digitale all’italiana: gli iperpubblicizzati decoder per il digitale terrestre con bollino gold, prodotti e distribuiti in regime di quasi-monopolio, pur avendo la porta ethernet permettono l’accesso solo a un microscopico subset di contenuti online rigidamente intermediati dai broadcaster (il cosiddetto “broadband addendum”). Più o meno la stessa cosa che accade, con le major, sui lettori Blu-Ray, che si collegano alla rete solo per scaricare alcuni contenuti speciali associati ai film acquistati, rigorosamente in videoteca.

Insomma, l’attuale ecosistema dei media sembra fare di tutto per inserire la Over the Top TV nelle proprie offerte come leva di marketing, ma quando ormai ti ha venduto il televisore cerca di scoraggiare in ogni modo l’accesso alla totalità dei contenuti accessibili online. Se inoltre, come ben spiega il rapporto già citato, ci addentriamo nella natura profonda dell’attuale assetto regolatorio che disciplina in Italia i diritti per la diffusione dei contenuti (e in particolare le finestre per la distribuzione dei film in VOD, che potrebbe rappresentare la prima killer application per la Over the Top TV) appare del tutto evidente il proposito di perpetuare il più a lungo possibile la conservazione delle catene di distribuzione tradizionali, cosa che peraltro difficilmente – in un paese come il nostro – potrebbe destare grande sorpresa.

Ancora molto lontana sembra dunque essere la prospettiva di una TV che senza alcun ostacolo permetta a chiunque (e non solo al geek pervicacemente motivato, che ha già le sue soluzioni) di mettere in concorrenza la straordinaria diversità e ricchezza di contenuti multimediali presenti su internet con i contenuti iperomologati che arrivano dalla tv tradizionale.

Quella di chi vuole intermediare, limitare e in alcuni casi persino censurare i contenuti che arrivano da internet può apparire una battaglia di retroguardia, in quanto si tratterebbe solo di una questione di tempo. L’affermazione di internet come piattaforma di distribuzione universale, come dimostra l’evoluzione di mercato nei paesi più avanzati sotto questo profilo (come la Corea del Sud) è solo una questione “balistica”: una volta lanciato il missile, prima o poi atterrerà, e non può essere fatto nulla per arrestarlo. Anche perchè, nel frattempo, sullo sfondo emerge in modo sempre più evidente il ruolo di alcuni utenti trendsetter, i quali – senza pubblicare alcunchè di originale, ma solo per le loro capacità di selezionare accuratamente i contenuti pubblici per i loro follower – diventano veri e propri maestri della content curation, contendendo la funzione editoriale a quelli che una volta chiamavamo “portali”. E pensando a ciò che sono diventati i DJ negli anni ottanta e novanta, non è difficile prevedere anche per costoro un ruolo di nuove star della rete. La “Open Internet TV” infatti non pregiudica il ruolo dell’editore, dell’aggregatore, di chi sa selezionare e intercettare in tempo reale le esigenze degli utenti con il contenuto giusto al momento giusto. Semplicemente, questa funzione editoriale risponde a regole radicalmente nuove e soprattutto può essere svolta da chiunque, proprio come accade con la pubblicazione dei contenuti.

Tutto questo promette purtroppo di rimanere a lungo fantascienza per il nostro paese. L’approccio “tutto italiano” adottato dall’industria dei contenuti  rischia davvero di moltiplicare il già atavico ritardo digitale che l’Italia sconta rispetto agli altri paesi europei, e non solo sotto il profilo della limitazione della libertà di espressione, ma proprio dal punto di vista dell’opportunità economica. Se – come in molti cominciano a osservare -una delle leve principali dell’economia futura dell’Italia sarà proprio la capacità di produrre e distribuire liberamente la propria cultura (nel nostro caso un vero e proprio asset non-duplicabile) l’imposizione di blocchi e ostacoli di varia natura, normativa o strettamente commerciale che sia – è davvero una tara che non possiamo permetterci di sostenere a lungo.

Il problema, come abbiamo visto, non è di natura tecnologica. Il cuore della questione è la dimostrazione a tutti gli attori in campo (broadcaster, major, produttori di contenuti indipendenti, detentori di diritti “grezzi”, industria dell’elettronica di consumo, internet service provider, abilitatori tecnologici, “nuovi editori”, inserzionisti e fruitori finali)  che un nuovo ecosistema più fluido e in grado di portare a valore l’intera offerta dei contenuti disponibili su internet può sposarsi felicemente (anche economicamente) col diritto degli utenti a un accesso neutrale e platform-neutral a tali contenuti.

La coda lunga delle opinioni in rete, tre anni dopo

Era il 2008 quando, all’ultimo glorioso RomeCamp al quartiere Ostiense, lanciai una provocazione. Internet – azzardai – aveva industrializzato il mercato delle opinioni e lo aveva disperso lungo la classica “coda” permettendo a qualsiasi punto di vista di trovare un proprio target in barba alle aspettative di una editoria che avrebbe dovuto essere fisiologicamente onesta in quanto tecnicamente “grassroots”.

Sono passati tre anni, Nicola Mattina torna a parlare di RomeCamp su FaceBook e quel vecchio speech mi torna in mente con insistenza. Forse perchè da allora parecchi altri casi di studio hanno confermato quella che non è mai stata una teoria rigorosa, ma di sicuro una mia convinzione. Dato che nella maggior parte dei casi chi scrive un articolo in rete con velleità “giornalistiche” è motivato dall’audience (e non dall’intento di fornire un contributo onesto e documentato alla discussione), una buona parte dei post che leggiamo sembra più orientata alla necessità di ritagliarsi una fetta di consenso che all’esigenza di esprimere le intime convinzioni dell’autore. Anche se non ci sono soldi, nè modelli di business, in ballo, questo meccanismo è sufficiente a “drogare” gran parte delle opinioni che scriviamo in rete, e con esse le conversazioni che tali opinioni tendono a generare.

Un esempio chiaro è in questi giorni davanti agli occhi di tutti. Berlusconi se ne va, dopo che per 17 anni la stragrande maggioranza dei blogger d’opinione ha fatto (giustamente) a gara per “bucare il monitor” con le battute più sagaci, l’eloquio più accattivante, il cinismo più spinto per vigilare, stigmatizzare denunciare lo scempio politico-istituzionale che andava in scena tutti i giorni. Si trattava però di un “mercato delle opinioni politiche” stantio in quanto saturo, in un quadro dominato dai wannabe-maître-à-penser della sinistra digitale, e con la certezza che solo in pochi avrebbero in definitiva dettato la linea per tutti gli altri.

Ma adesso che la parabola del Cavaliere si sta esaurendo e un Governo Monti è sempre più probabile, si profila un nuovo, meraviglioso mercato per le aspiranti star del “solonismo precotto”:quello dei “con Monti si va dalla padella nella brace, in quanto l’Italia sarà commissariata dalle lobby finanziarie a danno dei cittadini”.

Naturalmente il fatto che nei precedenti 17 anni abbia governato quasi ininterrottamente un individuo che ogni giorno, con un nuovo scandalo, ci faceva sembrare normale il giorno precedente passa del tutto in secondo piano. Di fronte alla necessità di posizionarsi come “gli unici che hanno ragione” (a sinistra, ovviamente, dato che i blogger di destra sono come i panda e di quelli si occupa un implicito WWF virtuale), secondo costoro sarebbe quasi meglio mettersi nelle mani di chi non solo ci lascerebbe in balia della speculazione, ma probabilmente prenderebbe quella poltrona per garantire al circo di nani e ballerine che ha occupato la scena istituzionale una uscita di scena indolore, quasi dignitosa. E magari – eliminato l’elemento folkloristico della forma – perpetuare nella sostanza quel tipo di politica, con gli effetti di cui ancora portiamo i segni.

E allora la domanda è: cosa motiva queste persone a mettere così da parte la propria onestà intellettuale e a sottovalutare fino a questo punto l’intelligenza di chi legge? Il sospetto è che si tratti di una nuova e più inestirpabile forma di berlusconismo di ritorno, dove l’unica vera leva che spinge a esprimere un pensiero è ancora una volta piazzarsi oltre una immaginaria linea, quella della microcelebrità, superata la quale – evidentemente – la rete fornisce l’illusione di orientare il punto di vista di gruppi di persone numericamente esigui per i parametri dell’editoria tradizionale, ma che vengono percepiti e trattati in modo indistinto, proprio come fossero masse. Di qui quella mia scherzosa (ma non troppo) definizione di micro-masse, apparentemente una contraddizione in termini, che però nasconde il tragico equivoco di questa fase di transizione dello pseudo-giornalismo fondato su dei veri e propri, anche se lillipuziani, culti della personalità.

Insomma, tre anni fa ero quasi sicuro, e tutto sommato speravo, di sbagliarmi. E infatti sbagliavo, ma per difetto: voleva essere una provocazione, una boutade, e invece a cosa era molto seria, e c’era davvero poco di che riderci sopra.

NEM Summit 2011: down-to-earth media trends

Da quando mi occupo di trend nel settore dei media, uno dei miei imprescindibili punti di riferimento in azienda – specie quando si tratta di “mettere a terra” i fenomeni che davvero contano per l’industria – è Gabriele Elia.

Ne ho avuto la conferma mercoledì scorso a Torino, quando Gabriele ha tenuto il suo keynote al NEM Summit 2011, appuntamento annuale della principale community di stakeholders europei dedicata alla convergenza dei media, e intitolato “the challenge of openness”.

Andando dritto al punto ed evitando i classici fronzoli socioantropologici (nei quali colpevolmente tendo ad indulgere), in un fulminante quarto d’ora Gabriele ha “dato un senso” all’andamento dei principali indicatori della rete, evidenziando tre macrofenomeni davvero dirompenti.

  1. la capacità predittiva dei social media (Twitter è in grado di prevedere gli incassi dei film persino prima di aprire i botteghini,  e può persino “vedere” l’andamento dei titoli in borsa con 6 giorni di anticipo)
  2. i processi di concentrazione,  dovuti anche alla “appificazione” della rete (un numero sempre minore di applicazioni genera un traffico crescente, a discapito delle altre)
  3. la circostanza che tutti i principali protocolli di trasporto stanno cedendo il passo ad HTTP

Sullo sfondo il tema dei nuovi “giardini murati” delle web application con API proprietarie, che lasciano intravedere modelli di business “vecchi” e derivati dalle catene tradizionali dei media. E – ad addolcire il quadro finale – la possibile risposta dei protocolli aperti, con un accenno alle lezioni del passato, quando i telco fissarono degli standard per risparmiarsi di “reinventare la ruota” a ogni passaggio chiave.

Una visione davvero lucida delle sfide che attendono tutti coloro che lavorano per un Web ancora in grado di trasferire valore agli utenti proprio per l’assenza di vincoli e barriere fissate da pochi player industriali.

immagine: w3.org