lunedì 30 settembre 2013

Spina, Openpolitica

 
Stefania Spina, Openpolitica
Il libro più recente di Stefania Spina, Openpolitica, è un importante contributo alla conoscenza dei mezzi di comunicazione e del loro rapporto con la lingua italiana. Il volume (Milano, FrancoAngeli, 2012, pp. 203, ISBN 978-88-568-4951-6, € 25; io ne ho ricevuto una copia dall’autrice) è dedicato, come riporta il sottotitolo, a Il discorso dei politici italiani nell’era di Twitter, ed è interessante sia per gli argomenti trattati sia per l’impostazione.
 
Dal punto di vista strutturale, Openpolitica si divide in tre parti:

  1. Prima di Twitter: il discorso politico nell’epoca della televisione
  2. L’ecosistema di Twitter: un flusso ininterrotto di conversazioni
  3. Il discorso dei politici italiani su Twitter 
La parte più innovativa e corposa è la terza, che occupa 110 pagine, cioè più di metà volume, e ne parlerò in dettaglio più avanti. La seconda è invece una sintetica (20 pagine) descrizione del modo in cui funziona Twitter, almeno per gli aspetti di rilevanza linguistica, e la presenza di sezioni “di servizio” di questo tipo è un’assoluta necessità per qualunque studio sulla comunicazione elettronica.
 
La prima parte richiede invece qualche parola di presentazione. Al suo interno presenta innanzitutto i risultati di una ricerca originale su un corpus di interventi politici in televisione. In parallelo, sintetizza poi molte descrizioni correnti sul discorso politico italiano degli ultimi decenni, e questa sezione è a mio parere la meno convincente. Il difetto però è nel manico, non nella sintesi, e sta nel modo in cui il discorso politico è stato appunto esaminato dagli studi precedenti. I quali hanno fornito informazioni ma non sono riusciti, a parte alcune eccezioni, a mettere a fuoco in modo convincente la natura e, soprattutto, la funzione di questo tipo di linguaggio. Tutti in compenso in qualche modo condannano la comunicazione politica reale, con un repertorio retorico che ha poco da invidiare per monotonia a quello dei politici stessi e che al tempo stesso annulla le pur importanti differenze. Non sorprende quindi che per esempio alcune osservazioni critiche di Pier Vincenzo Mengaldo o Annamaria Testa sul linguaggio politico anteriore agli anni Novanta vengano applicate qui (pp. 51-52) anche al linguaggio della “Seconda repubblica”, post-1994, che viceversa per alcuni aspetti si colloca agli antipodi.
 
La terza parte è comunque, come già accennato, la più significativa, e include un confronto tra il linguaggio di Twitter e quello della televisione. Uno dei suoi obiettivi è infatti “dimostrare che il discorso politico su Twitter ha caratteristiche diverse da quello della televisione” (p. 83); d’altra parte, le differenze sono tanto evidenti, anche a occhio nudo, che direi che più che di “dimostrare” qui si tratta di “documentare”. Nessuno infatti sostiene, penso, che un politico (o il suo ufficio stampa) scriva su Twitter in modo linguisticamente indistinguibile da quello con cui lo stesso politico si esprime in un dibattito televisivo.
 
A documentare questo stato di cose si colloca comunque un’impressionante varietà di analisi, che coprono:
  • Densità lessicale
  • Ricchezza lessicale
  • Specificità lessicale
  • Frequenza dei bigrammi e dei trigrammi
  • Struttura sintattica della frasi (esaminata sulla base di indicatori)
 
Il campione originale su cui si basano le analisi è formato da tutti i tweet scritti da 40 politici italiani nel periodo novembre 2011 – febbraio 2012. In totale, 31.581 tweet (p. 83), in buona parte parlamentari. Una serie di osservazioni (p. 85) fa pensare che in pratica i 40 includano tutti i parlamentari attivi su Twitter in modo regolare e creativo – non solo con il rilancio di testi scritti per altra destinazione; e mi colpisce il fatto che alcuni politici presi in esame in una prima fase siano stati “in seguito esclusi perché usavano sistematicamente nei loro tweet lingue diverse dall’italiano” (p. 85). Che lingue erano? Immagino inglese, prodotto dai rispettivi uffici stampa e pensato al servizio dei giornalisti stranieri… ma sarebbe molto interessante sapere qualcosa di più!
 
Un campione del 5% dei messaggi è stato classificato a mano in sei categorie (pp. 89-90):
 
  • informazioni personali
  • appuntamenti
  • commenti
  • live-tweeting
  • link
  • altro
I “commenti” (52%) sono la categoria prevalente, e la cosa non sorprende in un corpus di politici.
 
Ciò che invece colpisce, a livello più generale, è che il campione è formato per 1/3 dai tweet di due soli politici, entrambi del PD: Giuseppe Civati (@civati), che ha scritto 6016 tweet, realizzando cioè da solo quasi il 20% del totale, e Andrea Sarubbi (@andreasarubbi), che ne ha scritti 5007. Sarebbe interessante, per i motivi indicati più avanti, sapere che tipo di media verrebbe fuori escludendo dal calcolo questi due outsider – il terzo classificato, Ivan Scalfarotto, sempre del PD, si ferma a 2480.
 
Dopodiché, un dubbio fondamentale è quello sulla paternità dei tweet. L’idea di Stefania Spina è che in “buona parte” (p. 87) i tweet siano prodotti dai politici stessi. Per qualcuno di loro è certamente così, e mi sembra che sia questo il caso anche dei due superproduttori; per molti altri, però, ho diversi dubbi. I tweet recenti di Angelino Alfano (@angealfa), Felice Belisario (@politicaevalori) e Rosy Bindi (@rosy_bindi) mi sembrano per esempio tutti prodotti di ufficio stampa, e sospetto che questa fosse la situazione anche nel periodo preso in esame nello studio.
 
Che senso hanno questi dubbi? Dal mio punto di vista, sono un modo per precisare meglio un discorso importante dell’autrice: l’idea che la comunicazione via Twitter, per i politici italiani, sia “soprattutto una modalità nuova di instaurare relazioni sociali” (p. 82), più che un sistema di trasferimento informazioni. Questo giudizio mi sembra sì valido, ma solo se si considera il numero dei tweet e non quello degli scriventi. I tweet infatti non sono equamente distribuiti: mi pare evidente che alcuni politici usano il sistema per conversare in prima persona, ma molti altri lo usano solo per trasferire informazioni oppure opinioni – che in politica sono a loro volta spesso un tipo particolare di informazione.
 
Un indicatore fortissimo di interattività è però dato dal politico che si mette in gioco interagendo in una conversazione. Qualche precisazione potrebbe essere utile in questo caso: per esempio, nel libro si dice che nel corpus “sono presenti 24.985 menzioni (…) questo significa che il 79% dei tweet contiene una menzione” (p. 97). In realtà, no: come si vede dal fatto che ad alcuni politici sono riconducibili più menzioni che tweet, molti tweet contengono più di una menzione. Per esempio, si prenda un tweet qualunque di Civati:
 
@sarracinus @Nath67Lic @ParodiAl @annaflalb per la verità è un contributo al partito su cui, come ripeto, mi sono espresso criticamente.
 
Quattro menzioni in un tweet solo, e il caso è tutt’altro che raro. Quindi, al massimo il 79% dei tweet contiene una o più menzioni. Inoltre, contengono menzioni anche tweet probabilmente prodotti da ufficio stampa come quelli di Alfano, Belisario e Bindi: non credo che la partecipazione a conversazioni di questo tipo implichi anche un coinvolgimento personale. Occorre quindi, caso per caso, andare a vedere che cosa sta succedendo.
 
Come funzionano però queste conversazioni? Nel corpus, “lo schema più diffuso è quello di una conversazione tra due interlocutori, composta da due tweet totali, uno di avvio e uno di replica” (p. 126). Il dato è per me sorprendente, perché, anche se queste conversazioni esistono, i tweet di un singolo politico rientrano spesso, a quel che vedo, in lunghe conversazioni. Per esempio, gli ultimi 14 tweet di Civati, aperti la sera del 29 settembre, con un’unica eccezione, sono tutti inseriti in conversazioni con molti interlocutori. Dal febbraio 2012 a oggi sono cambiate le abitudini?
 
Tirando le fila sulla base di questi dati stimolanti è forse possibile fare una distinzione forte. Oggi, a quel che vedo in prima persona e a quel che mi sembra possibile dedurre dai dati presentati da Stefania Spina, i politici italiani “twittanti” si dividono in due categorie: chi si affida a un ufficio stampa e/o a modi comunicativi collaudati e chi invece si spende in proprio, mettendo in gioco la propria voce personale. Mi sembrerebbe quindi utile innanzitutto vedere se l’ipotesi tiene, cioè se due modalità diverse di interazione sono davvero ben distinguibili. E, ammesso che lo siano, mi sembrerebbe poi utile vedere le diversità linguistiche tra l’una e l’altra. Spero che uno studio futuro dell’autrice possa tornare anche su questi aspetti…
 

martedì 24 settembre 2013

Balsamo e Tinto, Origini del corsivo nella tipografia italiana del Cinquecento

 
Balsamo e Tinto, p. 62: un esempio del corsivo di Dolcibello
Sull’innovatività della tipografia, Luigi Balsamo non la mandava a dire:
 
La continuità fra libro manoscritto e libro a stampa si rileva in tutte le caratteristiche esterne dei due diversi prodotti. La nuova arte o tecnica di stampare non aveva altro scopo che quello di sostituire la mano dell’amanuense divenuta troppo lenta in rapporto alla crescente richiesta del mercato (…) Il torchio di Gutenberg e le sue lettere metalliche, componibili e scomponibili, vollero risolvere dunque soltanto un problema di produzione senza che alcuno pensasse di modificare il prodotto (p. 13).
 
Qualche elemento della sintesi andrà forse corretto, ma sulla sostanza c’è poco da fare. Anche se ancora oggi capita di leggere commenti sulla diversità radicali tra libro a stampa e manoscritto, chiunque abbia passato un po’ di tempo in compagnia degli uni e degli altri, dal Trecento al Cinquecento, sa che il panorama è all’insegna della continuità. Di fronte alla riproduzione di molte pagine quattrocentesche, insomma, a volte anche un lettore smaliziato non riesce a capire a colpo d’occhio se si tratta di un manoscritto o di un testo a stampa. Dal punto di vista della leggibilità e dell’usabilità, un manoscritto ben realizzato era spesso pari o superiore al corrispondente testo a stampa. Il quale aveva di regola come punto di forza il prezzo ridotto, non la qualità.
 
Se proprio vogliamo essere pignoli, poi, sul lungo periodo il testo a stampa ha reso meno usabile il rapporto testo-immagine. Gli autori delle parole si sono staccati sempre di più da quelli dei disegni, e il coordinamento si è spesso perso. Ne è testimonianza perfino il bellissimo volume di cui parlo: Luigi Balsamo e Alberto Tinto, Origini del corsivo nella tipografia italiana del Cinquecento (Milano, il Polifilo, 1967, ristampa 1977, pp. 184). In cui la descrizione dei singoli caratteri per esempio sarebbe molto più chiara se fosse accompagnata, sullo stesso rigo, dalla riproduzione dei caratteri stessi – cosa quasi inconcepibile, oggi, al di fuori degli esempi forniti da Edward Tufte e pochi altri.
 
A parte questo, tuttavia, per gli appassionati come me il libro è meraviglioso. La sua storia si colloca in un momento in cui, appunto, i tipografi e gli editori si sforzavano di avvicinarsi quanto più possibile al modello dei manoscritti, e in cui l’invenzione del moderno “corsivo”, a opera di Aldo Manuzio e Francesco Griffo, fu un salto di qualità. I caratteri aldini, infatti, usati per la prima volta a stampa nell’anno 1500, giocavano tutto sull’imitazione dell’elegante scrittura a mano, comprese le legature delle lettere. E rappresentano anche, aggiungo io, l’ultima vera innovazione nei caratteri tipografici, a parte la creazione dei caratteri senza grazie – con cui hanno in comune alcuni problemi di leggibilità.
 
Il successo editoriale di Aldo spinse comunque una quantità di disegnatori e incisori a cimentarsi con il corsivo, e il libro di Balsamo e Tinto è ancora oggi un punto di riferimento fondamentale per orientarsi tra di loro. Luigi Balsamo, in particolare, autore dei primi capitoli, porta alla luce l’originalità grafica di una serie di incisori e disegnatori di caratteri d’inizio Cinquecento, che in precedenza erano stati considerati semplici imitatori del lavoro di Aldo: lo stesso Francesco Griffo, innanzitutto, che cercò fortuna per conto proprio e fece una fine tragica; Benedetto Dolcibello, che realizza quelli che a me paiono i caratteri più bilanciati; i Paganini padre e figlio; e altri di minore rilevanza.
 
Alberto Tinto prosegue la rassegna in senso cronologico, partendo dal più noto inventore di corsivi dopo Aldo Manuzio: Ludovico degli Arrighi, che spinse il disegno dei caratteri in senso calligrafico creando “il vero e proprio capostipite dei moderni corsivi” (p. 127). Affronta inoltre Giovanni Antonio Tagliente, con il suo corsivo meravigliosamente arcaico, e lì si ferma. La diffusione del corsivo nella stampa europea è argomento di altri studi.
 
Dopodiché, va constatato che questi elegantissimi corsivi persero alla fine la guerra con il carattere tondo. Dopo il loro esplosivo successo a inizio secolo, i lettori li trascurarono in nome dei più leggibili, anche se meno eleganti, caratteri tondi. Quelli cioè che usiamo ancora adesso nella gran parte dei testi.
 
Perché il corsivo è stato emarginato? Il giudizio corrente è che sia stato un problema di leggibilità. Ma siccome gli studi moderni sulla lettura mostrano che i lettori sono più flessibili di quel che sembra, io ho qualche dubbio, e il testo mi incoraggia. Parlando del primo tipo di corsivo di Alessandro Paganini (Corsivo I Paganini), Balsamo nota che non solo “è meno ‘corrente’, di struttura più statica, di disegno meno fluente e più angoloso” rispetto ai predecessori, ma che nella pratica dell’editore “le dimensioni molto ridotte, sia della pagina che del carattere, danno per risultato una pagina densa, fitta e scomoda ai nostri occhi” (p. 84). Questo però “prova quanto sia mutato il modello di leggibilità attraverso il tempo, dato che i lettori dei primi del Cinquecento trovarono invece questo carattere di loro gradimento, come prova il successo incontrato dall’originale collezione” (dove, a uso mio, noto che Balsamo insiste sul modo in cui i Paganini progettavano interi “programmi” di libri, più che vere e proprie collane, verificando con qualche edizione di prova la risposta del mercato).
 
Insomma, il rapporto tra lettura e usabilità è complesso. La storia del libro mostra che perfino soluzioni che sulla carta sembrano meno funzionali di altre possono in realtà portare a veri e propri trionfi di pubblico e di mercato… I legami con il mondo contemporaneo mi sembrano evidenti.
 

giovedì 19 settembre 2013

Siamo sempre lì: tablet e didattica

 
Foto di Brad Flickinger - CC Licensed - http://www.flickr.com/photos/56155476@N08/
I tempi cambiano: non troppo tempo fa, le scuole italiane iniziavano a ottobre... E anche gli argomenti scolastici di cui si parla sui giornali sono un po’ cambiati. Per esempio, molte energie vengono dedicate alla questione dei libri di testo elettronici, o dei registri digitali.
 
Io ogni tanto parlo di questi argomenti anche qui sul blog, e soprattutto li devo seguire per necessità di studio. La ragione è ovvia: anche se le cifre coinvolte sono modeste rispetto per esempio al bilancio complessivo della scuola italiana, non sono affatto trascurabili; e, più radicalmente, le scelte in questo settore hanno una risonanza notevole, collegata a idee diffuse e luoghi comuni contrapposti.
 
Un articolo di Carlo Rotella uscito giusto una settimana fa sul New York Times Magazine, No child left untableted, racconta il modo in cui sta evolvendo questa situazione negli Stati Uniti, tra venditori che premono per i tablet e insegnanti che, spesso, resistono. Ovviamente da un articolo di giornale non ci si possono aspettare valutazioni affidabili, ma il quadro che ne viene fuori è interessante. Carlo Rotella ritiene infatti che il miglioramento della didattica passi dagli insegnanti, non dai tablet, e le sue osservazioni personali insistono spesso in questa direzione:
 
Despite all the research showing that the educational benefits of new technology depend on good teaching, it can be easier to find money for cool new gadgets than for teachers. The Los Angeles school district, for instance, cut costs in recent years by laying off thousands of teachers yet is now using bonds to finance the spending of $500 million on iPads. (…) One afternoon, we watched a half-dozen students from nearby schools eat chips and test games on Amplify tablets. The raptly tender way they touched, pinched and stroked the screens awoke in me an urge to yank the gadgets and junk food out of their hands and lead them to a library or a good climbing tree.
 
Il punto chiave, però, è che qui non si tratta di un pregiudizio: le ricerche in tema supportano davvero le idee di Rotella. Se per alcuni tipi di attività possono essere un sussidio interessante, per altri, come lo studio approfondito e l’assimilazione di molti tipi di informazioni articolate, i tablet sono infinitamente inferiori rispetto, per esempio, alla carta. Inoltre, non è affatto chiaro che impatto possa avere uno dei punti cardine della propaganda degli “innovatori”, cioè la personalizzazione automatica dell’insegnamento. Ma, in generale, nella retorica dell’informatizzazione i punti incerti e non dimostrati sono moltissimi, e centrali.
 
Per questo motivo, tutte le valutazioni approfondite che conosco consigliano come minimo la cautela. Senza contare il fatto che gli studenti stessi sembrano ben poco interessati a tutte queste promesse. Una sintesi delle ricerche recenti, realizzata da Christopher Jones e Binhui Shao alla Open University britannica, The Net generation and digital natives: implications for higher education, conclude drasticamente che per le università non solo “Students persistently report that they prefer moderate use of Information and Communication Technologies (ICT) in their courses” (p. 1), ma a livello più generale
 
There is no obvious or consistent demand from students for changes to pedagogy at university (e.g. demands for team and group working). (…) There is no evidence of a consistent demand from students for the provision of highly individualised or personal university services (p. 2).
 
Insomma, non è che sappiamo tutto, ma in queste circostanze è chiaro che l’onere della prova spetta agli innovatori. Una qualunque scuola superiore italiana in cui, al termine di cinque anni di sperimentazione (e di controllo delle variabili…), i voti di maturità schizzassero verso l’alto sarebbe una bella fonte di propaganda... ma nulla di simile è ancora mai comparso. In giro ci sono solo tante belle dichiarazioni.

Cosa ancora più sconfortante, perfino progetti ufficiali ben finanziati come, in Italia, quello “Scuola digitale”, partono dall’idea di “verificare come e quanto, attraverso l’utilizzo costante e diffuso delle tecnologie nella pratica didattica quotidiana, l’ambiente di apprendimento possa essere trasformato” (come si dice nella presentazione di uno dei rami dell’iniziativa, “Cl@assi 2.0”), e stop. Certo, per valutare bisogna prima provare. Ma l’idea di vedere, prima o poi, se tutte queste sperimentazioni producono davvero miglioramenti sembra quasi uscita dall’orizzonte del dibattito.
 

martedì 17 settembre 2013

Valutare la varietà lessicale di un corpus

 
 
Non so se sia una strana serie di coincidenze o meno… però, negli ultimi mesi, mi è capitato di leggere diversi lavori di linguistica italiana (elaborati di studenti, ma anche contributi scientifici prodotti da esperti) che confrontano la varietà lessicale di corpus diversi usando un indicatore piuttosto strano: la percentuale dei lemmi che fanno parte del vocabolario di base.
 
A prima vista, il dato sembrerebbe pertinente. Il lessico italiano è molto esteso, ma il vocabolario di base dell’italiano, secondo gli studi di Tullio De Mauro, è composto da circa settemila parole, divise in tre fasce: lessico fondamentale, di alto uso (o alta frequenza) e di alta disponibilità (quest’ultimo è formato da parole che, come risulta dalle interviste, in pratica tutti gli italiani conoscono, anche se nei corpus compaiono con una frequenza bassissima… e già questo fatto dovrebbe invitare alla prudenza). Si dice spesso che le parole del vocabolario di base, per numero di forme, costituiscono qualcosa come il 96-98% di qualunque testo in lingua italiana: calcolate in questo modo, quindi, non dicono molto sulla differenza tra i diversi tipi di testo.
 
Valutare il lessico in base ai lemmi, cioè facendo contare per uno tutte le occorrenze di una parola, sia ad alta sia a bassa frequenza, sembrerebbe un modo più promettente per differenziare tipi di testo diversi. E, in effetti, lo è. Con questo sistema, il numero delle forme non interferisce e l’uso di parole meno comuni, e quindi la varietà lessicale, è più facile da evidenziare. C’è però una fortissima controindicazione: la presenza di parole meno comuni dipende in modo molto stretto dalle dimensioni del corpus! Ovviamente non c’è una regola unica – language is never, ever random – e le cose possono variare molto a seconda del tipo di testo con cui si ha a che fare, però, in moltissimi casi, allargando il corpus aumenta il numero di parole diverse al suo interno. La cosa è intuitiva: mentre il o che sono sicuramente presenti anche in corpus molto piccoli, più è grande il corpus, più è facile che contenga parole come pertinentizzazione o cornacchia…. In un certo senso, si tratta di un corollario della legge di Zipf.
 
In questa situazione, più numerosi sono i lemmi contenuti nel campione, meno elevata tenderà a essere la percentuale di essi riconducibile al vocabolario di base. Raggiunto il suo limite, poi, il vocabolario di base non cresce più! Se ho un corpus che contiene mille lemmi, può darsi benissimo che il 95% di questi lemmi rientri nel vocabolario di base. Se ho un corpus che contiene 14.000 lemmi, quelli che rientrano nel vocabolario di base potranno essere al massimo il 50% del totale, perché il vocabolario di base contiene come si è detto, solo settemila lemmi (contro le decine di migliaia contenuti nei dizionari monovolume della lingua italiana). Se ho un corpus che contiene 70.000 lemmi, la percentuale riconducibile al vocabolario di base potrà essere al massimo del 10%. E così via.
 
Per questo motivo non ha senso confrontare, per esempio, un corpus di 50 milioni di parole tratte da quotidiani e periodici con un corpus di 100.000 parole tratte da poesie, dire che la percentuale di lemmi provenienti dal vocabolario di base in un caso è il 10% e nell’altro il 30%, e dedurne che quotidiani e periodici hanno una maggiore varietà lessicale rispetto alle poesie. Il confronto, per essere sensato, deve essere per forza di cose relativo a corpus o sezioni di corpus di dimensioni omogenee. Dire che in un corpus la percentuale di lemmi provenienti dal vocabolario di base è X ha senso solo se si confronta questa percentuale con quella ricavabile da un altro corpus delle stesse dimensioni. Per esempio, un corpus giornalistico può essere confrontato su questa base con un corpus poetico se entrambi sono composti da 100.000 caratteri.
 

mercoledì 11 settembre 2013

Correzioni di bozze e tirature cinesi

 
Stampa di testi religiosi in età Song - Tsien, p. 381
Contrariamente a quel che sostengono molte teorie, la diffusione della stampa in Cina non ha prodotto nessuna rivoluzione culturale, né ha generato qualcosa che assomigliasse alla scienza moderna. A me sembra che ciò permetta di scartare l’ipotesi che tra innovazioni tecniche di questo tipo e conseguenze culturali ci sia un forte rapporto deterministico. Tuttavia, i sostenitori dell’ipotesi hanno sempre la possibilità di appigliarsi a diversità tecniche più minute. Per esempio, si potrebbe dire che la stampa cinese differiva nell’elemento X dalla stampa occidentale, e che proprio questo dettaglio le ha impedito di esercitare appieno la sua forza rivoluzionaria…
 
Ragionamenti di questo genere si scontrano però con il fatto che in astratto la stampa cinese aveva in molti casi caratteristiche migliori rispetto a quelle della stampa occidentale, come strumento per la diffusione delle idee. Per esempio, la tecnologia occidentale obbligava gli editori a produrre i testi riducendo al minimo le correzioni: la forma di stampa composta per un fascicolo usava buona parte dei caratteri disponibili in tipografia, quindi occorreva usarla subito, senza aspettare troppi controlli, e scomporla appena terminata la stampa del fascicolo stesso. Capitava dunque che gli errori, anche se gravi, venissero lasciati nel testo e indicati solo (a volte) nelle liste degli Errata corrige preparate a fine stampa. Per usare due esempi ben noti del Cinquecento italiano, Ariosto, pur essendo fisicamente presente in tipografia, non riuscì a evitare molti errori di stampa nelle tre edizioni dell’Orlando furioso pubblicate sotto il suo controllo (1516, 1521 e 1532), e ci mise anche del suo introducendo correzioni in corso d’opera; nel 1525 Pietro Bembo, che aveva lasciato l’incarico di supervisionare la stampa delle sue Prose della volgar lingua al suo segretario Cola Bruno, notò diversi errori nel testo pubblicato e si rassegnò a correggerli solo negli Errata, tranne uno, che su sua esplicita richiesta fu corretto a penna dal segretario stesso nelle copie già stampate.
 
Viceversa, in Cina, dice Tsien Tsuen-Hsuin,

at least four proof-readings were usually required before printing, the latter occurred following transcription, correction, engraving, and the first impression. Because of this careful preparation, a well-collated and printed edition was valued above a copied manuscript, which was likely to contain unintentional errors. Textual accuracy was, therefore, an additional important reason besides its lower cost, for readers to choose a printed edition (p. 373).
 
Inoltre il mantenimento nel tempo dei testi corretti era garantito da tutta una serie di istituzioni: edizioni di riferimento su pietra, spazi per conservare le matrici di stampa… Attorno al Mille l’Accademia Nazionale cinese conservava per esempio le matrici dei classici confuciani, pronta a ristamparli su richiesta nell’edizione di riferimento. Già, perché le matrici in legno potevano durare secoli. Ancora oggi, in Corea, i Tripitaka Koreana sono una raccolta di testi canonici buddisti conservata in 81.528 matrici di tipo cinese incise a metà Duecento – e la voce di Wikipedia in lingua inglese sull’argomento dice che in questa notevole raccolta non è stato finora trovato nessun vero errore di stampa.
 
Quante copie venivano però fatte, di questi testi ben corretti? Tsien cita due volte una stima moderna di Lu Chhien, che dice che le matrici potevano venir usate per stampare fino a 15.000 copie, o 25.000 dopo esser state ritoccate, ma che la prima tiratura di un libro era tipicamente di trenta copie (p. 370). Cifre del genere sono molto basse, secondo gli standard occidentali: in Europa fin dagli inizi le tirature si attestavano tra le trecento e le mille copie, in media. In Cina, invece, perfino le opere stampate con caratteri mobili avevano tirature ridotte, come avvenne per l’enciclopedia Ku Chin Thu Shu Chi Chheng, stampata nel 1725-1726 in sole 66 copie (e riprodotta litograficamente in 100 copie nel 1890: p. 370, nota d).
 
Questo sembra in effetti un punto di divergenza un po’ più significativo. Le basse tirature cinesi da un lato rendevano i libri probabilmente più costosi rispetto alle loro controparti occidentali (anche se, dice Tsien, rimanevano comunque dieci volte meno costosi dei manoscritti equivalenti, p. 373), dall’altro rendevano meno impellente la ricerca del successo da parte degli editori. Può darsi che queste divergenze facessero la differenza tra la rivoluzione intellettuale e la conservazione? A me sembra molto, molto difficile.
 

lunedì 9 settembre 2013

Capire un cartello: facile o difficile?


Cartello parcheggio
Oggi per mia figlia è il primo giorno di scuola; che comporta, per lei, anche la fine delle vacanze a casa dei nonni a Viareggio.
 
Io odio muovermi in macchina, ma appunto a Viareggio mi è toccato spesso parcheggiare. Cosa difficile, nei dintorni della casa dei miei genitori: i parcheggi sono diventati da qualche anno a pagamento per i non residenti. Lungo la Pineta di Levante ci sono alcuni spazi liberi… ma ovviamente nel fine settimana sono molto contesi, secondo il simpatico sistema italiano di priorità: prima si occupano i posti a parcheggio gratuito, poi le strisce pedonali, poi i posti a pagamento, poi gli angoli di strada e i posti che rendono difficile la manovra, e così via (resistono solo, e non sempre, i posti per portatori di handicap).
 
In mezzo a questo caos, ho però scoperto che spesso si riesce a trovare posto davanti all’ex ospedale Tabarracci. Come mai? Direi in buona parte perché su quel tratto di strada domina il cartello riprodotto in fotografia. Che non è un capolavoro di chiarezza, ma dice che i posti lì attorno sono sottoposti, dal lunedì al venerdì, a due diversi tipi di restrizione in base alle fasce orarie: riservata agli autorizzati la prima, con disco orario la seconda. Per la notte e il fine settimana, invece, non si segnalano restrizioni, quindi in base al codice della strada si dovrebbe dare per scontato che il parcheggio sia consentito e gratuito. Di fatto, io ho parcheggiato lì diverse volte e non ho mai ricevuto segnalazioni di irregolarità.
 
Sospetto quindi che, se i posti rimangono spesso liberi, ciò avvenga perché molti parcheggiatori del fine settimana trovano il cartello incomprensibile e che, nell’incertezza, preferiscono fare un altro giro o parcheggiare più lontano (o parcheggiare in spazi proibiti in cui però sanno immaginare le conseguenze probabili del loro atto – cioè, di regola, nessuna). Certo, un’aggiunta del tipo “dalle 20 del venerdì alle 8 del lunedì parcheggio libero” sul cartello eliminerebbe qualunque dubbio, ma anche il testo attuale non è nemmeno troppo complicato… eppure spesso il posto lì lo trovo, nonostante la strenua competizione nei dintorni.
 
Ecco: quando a livello scientifico si parla di “analfabetismo funzionale” si fa riferimento, nelle fasce più alte, proprio a questo genere di comportamento. Non a clamorose deficienze, o all’incapacità di decifrare lettere dell’alfabeto. Piuttosto, a piccole incertezze che però fanno perdere occasioni o tempo. Nel caso di questo cartello, la relativa difficoltà degli italiani a rapportarsi con i testi scritti non crea problemi di rilievo. Moltiplicata per tutte le occasioni di questo tipo, forma invece, temo, un bel dislivello di competitività rispetto agli altri paesi europei.
 
Bene, di parcheggiar lì la macchina, per un po’, dovrei aver finito. Riaprono le scuole, e io apprezzo.
 

giovedì 5 settembre 2013

Tsien, Paper and printing


Tsien Tsueh-Hsuin, Paper and printing
Finalmente, con le vacanze di agosto ho avuto la possibilità di finire di schedare Paper and printing di Tsien Tsuen-Hsuin, prima parte del quinto volume (“Chemistry and chemical technology”) dell’imponente opera curata per decenni da Joseph Needham, Science and civilisation in China. Il libro (Cambridge, UK, Cambridge University Press, “third printing, revised 1987”, pp. 485, ISBN 0 521 08690 6) è una miniera di informazioni. Risponde a quasi tutti le mie domande sulla storia della stampa in Cina, e aggiunge molto altro.
 
Sulla storia della stampa in sé dirò poco: ne ho accennato qualche mese fa, parlando per esempio del libro di Twitchett, e i tratti fondamentali sono già abbastanza noti. In Cina, specularmente a quanto è successo in Occidente, l’invenzione della carta è sembrata un punto di svolta della civiltà, mentre la stampa non ha ricevuto particolare attenzione. Eppure, sicuramente già prima dell’VIII secolo, usando matrici di legno i cinesi erano in grado di riprodurre fogli semplici in decine di migliaia di copie, e libri in tirature discrete. La storia è affascinante, e il libro fornisce una miniera di informazioni in questo settore – direi che, salvo sorprese, è l’opera di riferimento fondamentale per chiunque si interessi all’argomento. Inoltre, le riproduzioni di cui è corredata, seppure in uno spartano bianco e nero, sono una gioia per gli occhi.
 
Qui però mi interessa soprattutto trattare il discorso più generale, relativo al mio antico interesse sul rapporto tra tecnologia e pensiero. L’autore parte dichiarando, come molti suoi contemporanei, che “the printed message has brought about changes in the intellectual mode of the human mind” (p. 1). Lo stesso messaggio viene poi ripetuto, molto più in dettaglio, all’inizio della sezione j del libro, dedicate a descrivere il “Contribution of paper and printing to world civilization”. Tsien parla infatti della stampa come di riconosciuto “turning point” per il passaggio, in Europa, dal Medioevo alla modernità (p. 360). E il suo quadro d’assieme è completamente basato su Eisenstein, Febvre e Martin, Hirsch e McLuhan:
 
Printing (…) had profound effects upon European thought and society in the late 15th and early 16th century. It stimulated the spirit of the Renaissance and the Reformation (…). In short, almost everything in the progress of modern civilization can be linked in one way or another to the introduction and development of printing in the Western world (p. 367).
 
Eppure… dopo aver riportato questo bel quadretto, Tsien deve notare che nel caso cinese le cose sono andate ben diversamente, come il suo libro mostra in dettaglio. Certo, alcuni tratti sono comuni. Sia Oriente sia a Occidente
 
printing promoted culture, widened the scope of subjects that interested scholars, helped shift the bias from religious to classical learning, it popularized education, spread literacy, and enriched art and literature; though it did so to a different degree in each (p. 382).
 
Tuttavia si nota che
 
in the West printing also stimulated intellectual unrest and promoted the development of national languages and their use in literature; in China, on the contrary, it facilitated the continuity and universality of the written language and thus became an important vehicle for sustaining the cultural tradition. This is seen especially in the printing of the Confucian classics and similar material for the civil service examinations, and therefore acted as an important element in the relative stability of Chinese culture and society (pp. 382-283).
 
E questo non è sufficiente a mostrare il disaccoppiamento tra stampa e rivoluzioni del pensiero? In sostanza, il grande esperimento di “dare la stampa a una civiltà e vedere se questo provoca una rivoluzione nel pensiero” è stato condotto due volte. La prima, non è stato correlato a nessuna rivoluzione. La seconda, sì. Il che fa pensare che il rapporto sia più casuale che causale, e che sia il contesto culturale, più che l’introduzione di una specifica tecnologia, a provocare cambiamenti. Con qualche legame, certo, ma comunque in modo assolutamente non deterministico.
 

martedì 3 settembre 2013

Antichità e stabilità del linguaggio

 
Schema riassuntivo di Dediu e Levinson
Poche settimane fa è stato pubblicato un interessante articolo sull’antichità del linguaggio umano. On the antiquity of language: the reinterpretation of Neandertal linguistic capacities and its consequences, di Dan Dediu e Stephen C. Levinson (Frontiers of Psychology, 5 luglio 2013; doi: 10.3389/fpsyg.2013.00397), non presenta nuove scoperte. Fa però il punto in modo molto intelligente su ciò che si sa. E, personalmente, credo che questa sia la cosa migliore che potesse fare, in un settore che da qualche decennio mi sembra molto sclerotizzato.
 
Contesto: nessuno oggi è in grado di dimostrare quando gli esseri umani, o le specie intelligenti che li hanno preceduti, abbiano iniziato a parlare. Però la tendenza dominante sembra quella a fornire date incredibilmente recenti, che cozzano con ciò che sappiamo della storia umana. Spesso proposte del genere sono opera di persone prive di competenze nell’argomento (come è successo di recente per Maurizio Ferraris); anche gli addetti ai lavori, però, tendono a fornire stime che, per una ragione o per l’altra, non sono molto verosimili.
 
Certo, il linguaggio parlato non può essere antichissimo. Tra le proposte a me note, la più estrema è quella di Mario Alinei, che ritiene possibile che non solo il linguaggio in sé, ma le stesse famiglie linguistiche contemporanee risalgano all’Homo erectus, e quindi potenzialmente a oltre due milioni di anni fa. Gli argomenti per sostenerla, oggi, sono molto deboli… ma non sarei troppo sorpreso se in futuro questa ipotesi estrema venisse rafforzata da qualche nuova scoperta!
 
All’altra estremità cronologica, invece, ho pochi dubbi sul fatto che le date più citate dai linguisti (tra i 30 e i 150.000 anni fa) siano decisamente troppo recenti. Si basano infatti sull’idea che solo l’homo sapiens sapiens moderno abbia sviluppato non solo la capacità di parlare, ma anche tutta una serie di attività culturali, dall’arte alla religione. Le date più recenti fornite per questo sviluppo sono però, appunto, assurdamente recenti, e non spiegano come praticamente tutti i gruppi umani, compresi quelli più isolati, abbiano sviluppato lingua, arte, religione…
 
Dediu e Levinson passano in rassegna acquisizioni provenienti da campi diversi, per mostrare come la frattura, se c’è stata, risalga almeno allo sviluppo dell’Homo sapiens heidelbergensis, mezzo milione di anni fa. Le novità recenti vengono soprattutto dallo studio genetico e da quello anatomico, che suggeriscono che già in questo periodo gli esseri umani avessero tutte le strutture fisiche necessarie a produrre linguaggio parlato in senso moderno. La revisione delle testimonianze archeologiche fa inoltre pensare che le attività simboliche da un lato siano molto più antiche del previsto, dall’altro lascino tracce solo in circostanze particolari. Secondo gli autori, tutto questo spinge a ritenere
 
that essentially modern language is phylogenetically quite old, being already present in the common ancestor of these two lineages [Sapiens sapiens e Neanderthal] about half a million years ago (that is, five to ten times older than is often assumed).
 
Questa rivalutazione ha ovviamente tutta una serie di conseguenze sugli studi linguistici in senso ampio. Dediu e Levinson la intrecciano però, giustamente, con altre considerazioni sulla stabilità e conservatività dei linguaggi, facendo notare che ciò che oggi sappiamo sulla rapidità del cambiamento linguistico – comunque, secondo me, sopravvalutata! – non si accorda bene con il quadro, oggi popolare, in cui solo pochi gruppi di sapiens sapiens sono usciti dall’Africa 50-70.000 anni fa. Possibile che quei pochi gruppi siano alla base di tutta la diversità linguistica moderna? L’ipotesi proposta è quindi che le famiglie linguistiche attuali possano in alcuni casi continuare la lingua di rami precedenti dell’umanità, come i neanderthaliani o i denisovani o i florinensi.
 
Insomma, viviamo in tempi interessanti! Per me, poi, è soprattutto incoraggiante vedere che il processo scientifico funziona, e che l’accumulo di dati incomincia a scalzare idee incrostate nei decenni (anzi, nei secoli, perché l’idea di rapido cambiamento nelle lingue risale in buona parte all’Ottocento, che ancora tentava di conciliare le scoperte archeologiche con la cronologia della Bibbia…). Un po’ alla volta, ci avviciniamo forse a una comprensione più realistica di ciò che è successo alle origini del linguaggio.