Se la crescita delle vendite degli e-book sembra ormai arrestatasi, l’innovazione nel settore si è tutt’altro che ridotta. Tanti gli ambiti di ricerca degli ultimi anni, tra cui gli standard tecnici, l’accessibilità per i disabili, le tecnologie Drm, la gestione dei diritti d’autore. E in queste aree che più si sente il bisogno di investimenti infrastrutturali. Ma per guidarli c’è bisogno di indicazioni politiche chiare, che diano libertà di investimento alle imprese e aprano il mercato a una competizione più equa e giusta.
Quando sul finire del 2015 sono stati resi noti i dati delle vendite di e-b ook negli Usa, per la prima volta in declino su base trimestrale, due opposte scomposte reazioni ha rizzato il dibattito. Da un lato la negazione: ma no, in fondo sono i dati di “solo” duecento editori, sono quindi i grandi editori a dirlo (duecento grandi editori?). Certo mentono per oscuri interessi. Mancano, secondo questi critici, i numeri di ciò che c’è di più nuovo nel digitale: l’autoedizione (self-publishing o samizdat, per chi non ama l’italiano), le microiniziative di nuovi editori autoproclamantisi eterodossi e soprattutto i fenomenali spazi di libertà delle edizioni Amazon. Si sa, nel digitale i monopoli sono sinonimo di libertà e anche le statistiche non sono più come le abbiamo conosciute finora. Che bisogno c’è di render palese il metodo o verificabili le fonti? Così, per dimostrare che non c’è alcun calo si possono usare dati Amazon (che notoriamente non fornisce dati in modo trasparente), ed elaborarli considerando il numero di e-book venduti, non i fatturati, così da pesare maggiormente i titoli venduti a 0,99 dollari o giù di lì.
Sul lato opposto si colloca il coro luddista del “ve-l’avevamo-detto”: la carta non sarà mai sostituibile. E tutto un inno all’odore del fresco di stampa, al frusciare delle pagine. La felicità degli acari della polvere. La nostalgia del passato come strumento di interpretazione del futuro.
La cosa più straordinaria, in tutta la discussione, è che, per negarla o per esultare, entrambe le parti collocano la notizia nel campo dell’inatteso. Ma è proprio così?
Trattando le statistiche nel modo in cui le abbiamo conosciute finora, cinque anni prima mi ero cimentato in un esercizio di quelli che insegnano ai primi anni d’università. Messa in fila la serie storica dei fatturati Usa, depurata dal ciclo con semplici medie mobili e collocati i dati lungo il più classico ciclo di vita del prodotto stimavo che, più o meno, nel 2015 la crescita si sarebbe fermata attorno al 20% del mercato. Presentai i risultati sul «Giornale della Libreria» nel dicembre 2010 con la cautela del caso. Che quanto i dati suggerivano con un lustro di anticipo sia puntualmente accaduto non denota particolari doti di preveggenza. Conferma solo che anche per analizzare il digitale un po’ di metodo e lo studio paziente servono più di rutilanti profezie.
Val la pena allora di guardare all’innovazione nel mondo editoriale senza farsi distrarre dai fenomeni più abbaglianti, che sono sempre quelli che stanno in superfìcie: le innovazioni di prodotto. L’attenzione si ferma più facilmente sugli e-book, estendendosi se mai alle app, ai prodotti educativi interattivi o in 3D, senza mai riflettere su ciò che accade dietro le quinte: nelle imprese editoriali, lungo i canali commerciali, nelle forme nuove del contatto con i lettori.
Eppure è proprio in questi ambiti che storicamente si erano verificate le innovazioni di più lunga durata. Negli anni ottanta, in era pre-Internet, l’innovazione in editoria era stata soprattutto la più classica innovazione di processo: il desktop publishing aveva trasformato profondamente i modi di produrre i libri, che restavano di carta, e subito dopo si era iniziato a ragionare su come ottimizzare la gestione dei singoli contenuti che costituivano i prodotti editoriali, iniziando a parlare di Content Management System (Cms). Allo stesso tempo, lungo i canali commerciali il digitale significava soprattutto rivoluzionare i modi di gestione dei dati bibliografici e commerciali, con la nascita di banche dati di libri in commercio e dei sistemi per ordinare e fatturare in modo automatizzato, lungo le strade telematiche che hanno preceduto il web. Certo, c’erano anche le enciclopedie in cd rom, e altre affascinanti diavolerie multimediali. Ma chi se le ricorda più?
Al nascere di Internet, nel settore accadono due cose: da un lato i Cms consentono di reagire velocemente nei mercati in cui la domanda di contenuti online è più matura: l’universitario e il professionale. La prima rivista scientifica online (il «Journal of Clinical Trials») è del 1992 e nel giro di qualche anno l’intero settore – nelle discipline scientifiche, tecniche e mediche – si sposta sull’online. E innovazione di prodotto, in questo caso, ma abilitata da una precedente innovazione di processo. Ed è un’innovazione nient’affatto guidata dalla smania della novità: ancora oggi le riviste restano organizzate in fascicoli periodici e prodotte in pdf, quanto di più simile alla stampa il digitale ha saputo immaginare. L’innovazione di prodotto è piuttosto nei servizi aggiuntivi, progettati in relazione alle esigenze della domanda. Azzardando un unico filo conduttore si può dire che gli editori scientifici negli ultimi 25 anni si sono concentrati sul bisogno di ogni ricercatore di trovare ciò che è per lui rilevante, per quanto specialistico sia il suo ambito di ricerca.
Non molto diversa, dopo tutto, l’evoluzione nell’editoria professionale, in particolare giuridica, l’unico ambito in cui si può ricostruire un percorso continuo dai cd rom degli anni ottanta agli attuali servizi online.
La parte più interessante della storia è però quella lungo la catena commerciale. Negli anni in cui Internet diventa un fenomeno anche per i consumatori finali c’era una sola industria ad avere un identificatore standard dei prodotti universalmente adottato (l’Isbn, che è arrivato a festeggiare i cinquant’anni nel 2015) e sistemi standard di messaggistica lungo le filiere commerciali ampiamente utilizzati, almeno nei paesi più avanzati. Per questo – e non per caso – il commercio elettronico è nato nel mondo del libro, dappertutto, anche in Italia, e solo più tardi si è esteso ad altri comparti.
In che direzione si deve allora guardare per scoprire dove va oggi l’innovazione nell’editoria libraria? In tutte, verrebbe da dire a giudicare dai risultati di un sondaggio condotto presso un centinaio di imprese europee all’interno del progetto europeo Tisp – Technologies and Innovation for Smart Publishing (www.smartbook-tisp.eu). La tecnica era quella di un questionario in profondità in cui si chiedeva di dare un punteggio da 1 a 5 a diversi ambiti di ricerca e innovazione in editoria, distribuiti nelle diverse fasi del ciclo produttivo: la produzione, la distribuzione, la comunicazione con i lettori, la gestione dei diritti. Ebbene, nella percezione degli editori non c’è una tra queste aree che prevale sulle altre. L’innovazione è diffusa, il digitale è pervasivo e tocca tutte le fasi.
Senza entrare nei dettagli, per i quali mi si conceda di rinviare a quanto pubblicato, con Christoph Blasi, sul sito del progetto, il dato più interessante è proprio questa pervasività. Che si estende oltre i confini dell’impresa. Tra gli ambiti di innovazione testati ve n’erano alcuni dalle caratteristiche peculiari: gli standard tecnici per l’editoria, l’accessibilità per i disabili, le tecnologie Drm, la gestione dei diritti d’autore. Sono, queste, aree in cui sono necessari investimenti infrastrutturali più che delle singole imprese. Il caso più evidente è quello degli standard, che per definizione o sono frutto di azioni collettive e sono aperti all’utilizzo da parte di tutti o non sono. Ma dagli standard il passo verso le tecnologie per l’accessibilità è breve, perché gli standard di formato devono essere aperti per consentire a chi sviluppa software di lettura di incorporare funzionalità utili alla lettura dei disabili. E ancora, l’interoperabilità delle soluzioni Drm può essere garantita solo da azioni di sistema.
Ne derivano – a mio avviso – due interessanti indicazioni politiche, valide sia a livello europeo sia in ciascun paese. La prima è persino banale: se si vuole stimolare l’innovazione nelle imprese editoriali occorre lasciar libere le stesse di decidere in quale fase del ciclo produttivo investire. Sono certamente più efficaci misure e incentivi neutrali rispetto alle aree di ricerca e innovazione. Specie a livello europeo, invece, si è sistematicamente cercato di suggerire le direzioni dell’innovazione, lasciandosi attrarre dalle tecnologie più visibili. Il criterio sembra essere più la meraviglia che la robustezza delle soluzioni: dalla realtà virtuale o aumentata alle stampanti 3D, dalle app agli e-book arricchiti. Soprattutto: sono preferite le tecnologie di rottura rispetto a quelle di continuità. Forse anche perché in italiano e in altre lingue latine il termine inglese per “rottura”, “disruption”, è un falso amico di “distruzione”. In Italia siamo poi specialisti a adottare termini anglosassoni che generano connotazioni improbabili, per cui l’innovazione disruptive (opportunamente fraintesa usando l’inglese) è perfetta per compiacere una certa iconoclastia digitale.
Non che il digitale non sia un’innovazione dirompente, secondo la traduzione corretta, ma ciò non significa per forza gettare il vecchio con l’acqua sporca (difficile paragonare l’editoria libraria a un bambino). In tempi di pervasiva, inesorabile rottura digitale è facile soffermarsi su ciò che cambia, molto più difficile individuare ciò che permane. Ma è sulla permanenza della mediazione editoriale in era digitale che le imprese sono chiamate a cimentarsi, ragionando a fondo sul proprio ruolo, per conservare il valore di un mestiere che può non essere obsoleto.
Il che ci porta alla seconda riflessione politica, che passa dall’analisi dei nuovi equilibri competitivi che il digitale ha prodotto nelle industrie culturali e le migliori modalità di intervento per garantire lo sviluppo delle altre industrie culturali europee.
Tutte le analisi convergono nel ritenere che il potere di mercato è oggi distribuito in modo iniquo: poche grandi imprese multinazionali, di origine statunitense, sfruttano a pieno gli effetti di rete propri di Internet per acquisire una posizione dominante come intermediari tra produttori e consumatori di cultura. Alcuni fenomeni di elusione fiscale per cifre con molti zeri, per quanto ingentilite dall’uso di termini inglesi a mo’ di neologismi (tax optimisation suona meglio di elusione) hanno reso meno popolari queste stesse imprese, ancor più delle analisi preoccupate di qualche economista industriale.
La reazione non è andata, finora, oltre le politiche tradizionali. Alcune sacrosante misure allo studio per ridurre l’elusione fiscale non danno solo respiro ai bilanci pubblici ma contribuiscono a riequilibrare le forze in campo, giacché gli attuali vantaggi fiscali per chi è già più forte appartengono alla categoria del paradosso. Alcuni primi timidi – se non timorosi – tentativi delle autorità antitrust, sia europea sia nazionali, hanno cominciato a scalfire alcune certezze altrettanto paradossali: che ogni limite alle grandi imprese del web fosse un attentato alla libera concorrenza invece che un modo per favorirla.
Ancor più pregnanti sono le proposte di politiche attive a favore della concorrenza – se ne è fatto promotore, in Italia, un parlamentare atipico come Stefano Quintarelli –, simili a quelle in passato utilizzate al tempo della liberalizzazione del mercato delle telecomunicazioni, basate sul divieto di creare sistemi chiusi che imprigionano il consumatore, legando per esempio il negozio online allo strumento di lettura, o il motore di ricerca alla piattaforma di distribuzione dei video, o i sistemi operativi dei cellulari ai punti vendita delle app.
Infine, si è iniziato a considerare il valore procompetitivo del diritto d’autore, con misure presenti nella proposta di Direttiva della Commissione europea del 14 settembre 2016, dove svolge esplicitamente questo ruolo la ridefinizione dei diritti degli editori di giornali e periodici di attualità – promossa per renderli più forti di fronte ai motori di ricerca – o la ridefinizione della responsabilità dei grandi aggregatori. Il potere del “dire di no” attribuito automaticamente anche all’ultimo degli autori o al più piccolo degli editori, come strumento per accrescere il suo potere contrattuale ricorda quello dell’ultimo proprietario – in un condominio o su un terreno – che si oppone alla speculazione edilizia. Insomma: il diritto d’autore che storicamente ha reso indipendente chi crea e produce cultura dai capricci di principi e mecenati ha un ruolo nel definire la libertà anche nei confronti dei megaintermediari del web.
L’ultimo elemento che sembra mancare, salvo sporadiche eccezioni, è l’uso delle politiche per l’innovazione come strumento per lo sviluppo di mercati più aperti. Gli investimenti in infrastrutture immateriali possono giocare un ruolo in almeno quattro ambiti: gli standard di formato, i Drm interoperabili, la gestione dei diritti d’autore e i big data.
Dopo tutto, come abbiamo visto, l’industria del libro ha consentito ad Amazon di nascere e prosperare grazie all’esistenza di standard aperti, di identificazione, metadatazione, teleordering. Diventata impresa dominante, Amazon più di tutti ha mostrato di aver compreso la lezione, sviluppando una pervicace politica contraria a qualsiasi standard per gli e-book, per i quali non usa nemmeno l’Isbn. L’obiettivo è quello di imprigionare il consumatore nel giardino dorato dei propri servizi, limitando le sue chance di fuga, secondo quella che Gino Roncaglia ha brillantemente definito «sindrome del falegname pazzo»: colui che ti costruisce la libreria di casa (il Kindle) e poi pretende che compri i libri soltanto da lui. L’esistenza di standard – che richiede investimenti in tecnologie – è il prerequisito essenziale per politiche procompetitive che ne impongano l’uso. L’ePub, standard di formato per gli e-book – come prima l’Isbn per l’identificazione o Onix per i metadati o il Doi per le risoluzioni in Rete o Thema per la soggettazione – è stato sviluppato autonomamente dall’industria. Tuttavia, in un quadro in cui la collaborazione precompetitiva sembra essere un ricordo del passato, forse ciò non basta più e richiede un intervento pubblico, con tutte le delicatezze del caso.
Cominciano a esservi esempi di tali politiche, ancora ai primordi e forse troppo timide. Il primo è in un settore vicino: quello dell’audiovisivo. La Commissione europea ha notato – nella Comunicazione sul diritto d’autore del dicembre 2015 – come la mancanza di standard di identificazione e descrizione indebolisca le industrie audiovisive europee nei confronti dei grandi aggregatoti. Hanno fatto seguito, a fine 2016, bandi di gara per finanziare progetti di sviluppo di standard per il settore.
Per i libri le esigenze sono più avanzate. Un consumatore può “portare” un e-book da uno strumento di lettura a un altro non solo se il formato è standard, ma se anche il Drm è interoperabile. Oggi è quest’ultimo elemento a limitare maggiormente la portabilità. Esiste un progetto per lo sviluppo di Drm interoperabili e meno invasivi per il consumatore, denominati Lcp (Licensed Content Protection), sviluppato da un centro di ricerca, lo European Digital Reading Lab (https://edrlab.org), anche grazie a finanziamenti del governo francese. Le prime applicazioni sono in uscita all’inizio del 2017.
Nello stesso spirito si muove l’innovazione nella gestione dei diritti d’autore, che si sta concentrando sulle metodologie standard per la gestione delle informazioni sui diritti separata dalla gestione dei diritti in senso proprio. Il digitale moltiplica infatti le possibilità di utilizzo delle opere. Cresce la domanda di riusi di parti di opere, per scopi più diversi (commerciali e non), periodi di tempo più o meno brevi e così via. Ciò ripropone un problema classico del diritto d’autore: gli elevati costi di transazione associati agli utilizzi secondari. La risposta tradizionale è la gestione collettiva, affidata a società di natura non commerciale costituite dagli stessi titolari dei diritti e da questi controllate. Sono tali società a controllare anche le informazioni sui diritti. Quando la mediazione passa attraverso meta-intermediari commerciali, come sta accadendo in Rete, si pone il problema degli strumenti per gestire in modo indipendente le informazioni sulle opere, i loro utilizzi e i relativi diritti. In fondo il problema è identico a quello che ha fatto nascere l’Isbn e poi gli standard di metadati e messaggistica: separare la gestione dei dati da quella del commercio per pareggiare le condizioni di accesso ai mercati.
Lungo questa linea di innovazione infrastrutturale ci si muove da anni, ma troppo lentamente. Gli sviluppi più avanzati sono nel Regno Unito, con il Copyright Hub (www.copyrighthub.co.uk), che ha goduto di ingenti investimenti pubblici prima che le ultime vicende britanniche spostassero l’agenda politica in direzioni molto diverse. La Commissione europea sta finanziando alcuni piccoli progetti in questo ambito. Manca tuttavia una strategia complessiva, che non può che essere europea, per la dimensione transnazionale del fenomeno.
Non è dissimile l’esigenza che attiene all’uso dei big data nel settore. Le tecnologie per l’analisi di grandi quantità di dati per meglio comprendere i comportamenti dei consumatori, l’evoluzione della domanda, i trend socioculturali sottostanti sono ampiamente disponibili. Il problema è che una struttura industriale molto concentrata su pochi intermediari fa sì che solo questi detengano quantità di dati davvero big ed è questa un’ulteriore via per il rafforzamento del loro potere di mercato. Il problema che oggi si pone è come portare nel mondo dei big data la tradizione di collaborazione e apertura che è propria dell’industria libraria, anche considerato che le norme attuali per la tutela della concorrenza o dei dati personali inibiscono più la condivisione di informazioni che il loro abuso da parte di un singolo.
Sono, quelle citate, tutte innovazioni infrastrutturali, nel senso che hanno come finalità ultima un mercato aperto alla concorrenza e ai nuovi entranti. Funzionano se non attribuiscono a singole imprese vantaggi competitivi, e pertanto non possono essere sviluppate autonomamente dalle stesse imprese. Sono infrastrutture immateriali, altrettanto necessarie di quelle fisiche (la banda larga, in primis) e pertanto necessitano di investimenti pubblici. Di più: hanno senso se sono transettoriali (non riguardano solo i libri, ma tutte le industrie culturali) e transnazionali. Sarà in grado la politica europea di definire una strategia coerente in questi ambiti?