venerdì 11 novembre 2016

Tavosanis, Il linguaggio della comunicazione politica su Facebook

  
 
Copertina de L'italiano della politica e la politica per l'italiano
La settimana scorsa a Firenze ci sono stati convegno e assemblea dell’Associazione per la Storia della Lingua Italiana (ASLI). Nell’occasione ho ricevuto dall’editore Cesati anche la mia copia del volume L’italiano della politica e la politica per l’italiano (Firenze, Cesati, 2016), a cura di Rita Librandi e Rosa Piro, che presenta gli atti del precedente convegno ASLI, svoltosi a Napoli nel 2014.
 
Il volume è imponente (911 pagine!) e molti contributi non li ho ancora letti, ma all’interno c’è anche un mio intervento su Il linguaggio della comunicazione politica su Facebook (pp. 677-685). Nel mio lavoro noto in particolare la notevole importanza di Facebook nella vita comunicativa italiana… e la poca attenzione con cui è stato studiato. Gli studi sulla comunicazione politica elettronica coprono infatti di regola solo Twitter.
 
Questa preferenza anche in questo volume. Il mio intervento è collocato nella sezione Il linguaggio politico dei social network, ma in pratica tutti gli altri contributi sono dedicati al solo Twitter. Annarita Miglietta ha scritto infatti un contributo su Il dibattito politico in pochi cinguettii (un’analisi dei rapporti di conversazione in 20 tweet, pp. 633-643), Giuseppe Paternostro e Roberto Sottile hanno parlato di “In alto i cuori / L’Italia cambia verso”. Discorso politico e interazione nei social network (sulle dinamiche di comunicazione Twitter di Beppe Grillo e Matteo Renzi, pp. 645-660). Fabio Ruggiano illustra attraverso un piccolo campione di tweet Giudizi sul linguaggio dei politici e ideologia linguistica diffusa (pp. 687-696).
 
Soprattutto, Stefania Spina presenta una sintesi collegata ai suoi numerosi lavori su Twitter: La politica dei 140 caratteri: l’equivoco della brevità e l’illusione di essere social (pp. 645-659). Il suo esame, basato su un vasto corpus e sull’analisi dettagliata del lessico, mostra che il mezzo sembra aver spinto i politici italiani a scrivere “testi comprensibili, legati alla loro concreta attività di parlamentari, dai quali qualunque cittadino ha la possibilità di capire le azioni concrete che intraprendono nello svolgimento dei loro compiti e le posizioni che assumono sui temi politici in discussione” (p. 657).
 
L’autrice stessa nota poi che anche in questo contesto i politici non aprono veri dialoghi con i cittadini e puntano soprattutto all’autopromozione. Inoltre, l’abitudine alla chiarezza non sembra passare per esempio negli interventi televisivi degli stessi politici. Il contributo è un’importante messa a fuoco sulle caratteristiche della svolta comunicativa della politica italiana recente. Ma soprattutto, insisterei sul fatto che Twitter resta uno strumento di (relativamente) pochi per pochi.
 
Per quanto riguarda nello specifico Facebook, cioè uno spazio in cui gli italiani sono massicciamente presenti, nel mio contributo ho presentato come prima cosa le caratteristiche broadcast della comunicazione politica al suo interno. Su Facebook, infatti, i politici in pratica non dialogano mai: si limitano a inviare equivalenti di comunicati stampa (più o meno formali) e si astengono dall’intervenire nei commenti di risposta.
 
Il contributo era peraltro fatto in modo da permettere un confronto tra Twitter e Facebook, grazie ai dati ricavati da una tesi di laurea. I risultati mostrano che Facebook condivide per esempio la densità lessicale con Twitter, mentre su altri indicatori è più vicino al parlato televisivo. Saranno necessari ulteriori studi, ma mi sembra che la comunicazione politica di Facebook conservi molte caratteristiche che ha su Twitter, e che una parte di ciò che distingue Twitter sia dovuto, meccanicamente, ai limiti di brevità imposti dallo strumento, che obbligano a distorcere e concentrare il testo.
 
Resta il rimpianto di non aver ancora approfondito il modo in cui il pubblico commenta le comunicazioni dei politici. L’interazione del singolo cittadino è in effetti di estremo interesse; all’argomento è peraltro dedicata nello stesso volume una delle “comunicazioni”, quella di Alessandro Orfano, che ha preso in esame Lingua italiana e linguaggio politico dei forconi di Livorno e Piombino attraverso i social network (pp. 867-877). Speriamo sia solo il primo di una lunga serie di studi.
 
L’italiano della politica e la politica per l’italiano. Atti del XI Convegno ASLI Associazione per la Storia della Lingua Italiana (Napoli, 20-22 novembre 2014), a cura di Rita Librandi e Rosa Piro, Firenze, Cesati, 2016, pp. 911, ISBN 978-88-7667-609-3, € 65.
 

mercoledì 9 novembre 2016

L’intervista in Kenya

  
 

Logo KBC
Come ho raccontato a suo tempo, durante il mio viaggio in Kenya, a settembre, mi è stata fatta un’intervista. Non una cosa breve: una registrazione di un’ora per il servizio in inglese della radio pubblica, la Kenya Broadcasting Corporation. L’intervistatore era Khainga O’Okwemba, presidente della sezione locale del PEN Club, poeta e critico letterario, per il suo programma “Books Café”.
 
L’intervista è andata in onda qualche giorno fa. Da poco mi è arrivato anche il file (MP3) con la registrazione. Quindi, nel caso che qualche lettore italiano sia interessato a sentirmi ragionare per un’ora, in un inglese un po’ faticoso (ma spero migliore di quello di molti politici), su temi che vanno dalla lingua di Machiavelli alla politica universitaria italiana, eccolo qua, condiviso tramite Google Drive!
 
L’intervista è stata fatta praticamente a sorpresa, e mi ha fatto un po’ sudare. Tuttavia, è raro che si abbia occasione di parlare di questioni del genere con un interlocutore competente come Khainga O’Okwemba. Di questo ringrazio lui e Francesca Chiesa, addetta responsabile dell’Istituto Italiano di Cultura di Nairobi, che mi ha dato la possibilità di partecipare anche a questa interessante iniziativa.
 

lunedì 7 novembre 2016

La lingua della comunicazione elettronica sul sito Treccani

  
 
L'immagine di accompagnamento del mio articolo sul sito Treccani
Sul sito Treccani.it è uscito un nuovo Speciale curato da Silverio Novelli: Storia di un e-taliano. Dal PC a WhatsApp. Come il titolo fa intuire, l’argomento affrontato è l’italiano della comunicazione elettronica visto in prospettiva storica. Già, dato che ormai sono passati trent’anni dalla diffusione degli strumenti informatici. Tempo per un bilancio.
 
L’inquadramento è fornito da Gino Roncaglia, che parla di Testi, media e linguaggi nel mondo digitale. L’osservazione centrale del contributo è l’importanza accresciuta della multicodicalità, cioè “le nuove forme di integrazione fra uso della lingua e altri codici comunicativi”.
 
Poi, andando in ordine cronologico, c’è il mio contributo sull’impatto linguistico di Videoscrittura e passaggio al digitale (1985-1995). Qui, anche con rinvii ai lavori di Domenico Fiormonte e Matthew G. Kirschenbaum, presento la mia versione scettica dei fatti: “l’avvento del computer non ha avuto alcun effetto verificabile sulla lingua”.  

A questo segue un contributo di Massimo Prada su La posta elettronica e gli SMS (1995-2005), dedicato a illustrare la multicanalità e la flessibilità degli strumenti.
 
Infine, Stefania Spina presenta un profilo di alta qualità de L’era dei social network (2005-2015). Il nucleo dell’esposizione è rivolto alla “lingua aumentata”, in cui ogni enunciato, tra l’altro, è messo in stretto rapporto con tutta una rete di altri testi.
 

mercoledì 2 novembre 2016

Cignetti e Demartini, L’ortografia

  
 
Copertina di L'ortografia di Luca Cignetti e Silvia Demartini
Il libro di Cignetti e Demartini viene a colmare una lacuna. In ambito universitario l’ortografia italiana è poco studiata: assimilata nella pratica, poco nota in modo esplicito. Le questioni ortografiche sono trattate in tutte le grammatiche, ma ho il sospetto che al loro interno abbiano l’onore di essere le pagine meno lette. Di sicuro, nella mia esperienza i laureati italiani dell’area umanistica di regola scrivono correttamente sta e ma spesso non sanno spiegare perché – e a volte trovano difficoltà a risolvere dubbi anche semplici, quando li incontrano per la prima volta.
 
Questo libro rappresenta quindi un importante contributo. In particolare, è apprezzabile che contenga una ricostruzione storica dell’evoluzione dell’ortografia italiana: un ottimo mezzo per dare profondità al discorso e aiutare a comprendere la logica delle regole e la loro evoluzione.
 
Su un altro piano, mi chiedo chi possa essere il lettore ideale di questo libro. La quantità di informazioni presentate, e la presenza di indicazioni storiche, porterebbero a uno studente universitario dell’area umanistica. Il testo però non può essere facilmente usato come prontuario unico e pratico: un po’ per il carattere discorsivo, un po’ perché i dubbi grafici non sistematici (“propio” o “proprio”? “peronospera” o “peronospora”?) escono completamente dalla sua copertura. Su questo sarebbe stato senz’altro utile, in aggiunta a un inquadramento teorico, un rinvio a strumenti esterni; incluso l’invito a controllare i dizionari, accompagnato da qualche indicazione su ciò che si può consultare di valido anche in rete.
 
Per quel che mi riguarda, ho letto il libro soprattutto dal punto di vista degli insegnamenti di Laboratorio di scrittura e di Linguistica italiana che tengo regolarmente. Da qui ho ricavato le due serie di osservazioni che seguono: le prime a proposito della scelta degli argomenti da trattare (tenendo presente che un testo, e a maggior ragione un testo sintetico di presentazione, con un numero di pagine prefissato, deve sempre fare scelte), le seconde a proposito dell’angolazione con cui gli argomenti sono stati affrontati.
 
Scrivere a mano o su tastiera
 
Per la scelta degli argomenti, mi ha colpito il poco spazio dedicato ai diversi mezzi di scrittura, cioè mano o tastiera. L’ortografia italiana varia infatti un po’, a seconda dello strumento – non molto, certo, ma i punti di variazione creano molte incertezze negli scriventi e sono quindi particolarmente delicati.
 
Nel libro non c’è una discussione esplicita di questo problema ma il modello implicito è evidentemente la scrittura a mano. Solo in due casi, infatti, le indicazioni fornite sono applicabili alla scrittura su tastiera e non a quella a mano – o perlomeno, non a quella normalmente usata in Italia, in corsivo:
 
1. A livello minimo, a p. 46 si parla dell’uso della maiuscola nelle sigle, presentando anche un caso in cui la sigla è composta di tutte maiuscole, ONU. Chi volesse scrivere un testo a mano in corsivo troverebbe difficoltà a farlo in questo modo visto che i caratteri del corsivo maiuscolo non sono pensati per legarsi tra di loro. Davanti a parole del genere, chi scrive a mano tenderà quindi a separare le lettere maiuscole con punti (O.N.U.) o a scriverle in stampatello; questo, sospetto, senza nemmeno accorgersi, di aver cambiato tipo di scrittura. La stessa difficoltà, anche se il problema della legatura è meno grave, si ritrova in forme ormai in disuso come la maiuscola di rispetto all’interno di parola (comunicarLe: p. 47).
 
2. A livello un po’ più significativo, a p. 75 si parla di corsivo, grassetto e sottolineato. Ovviamente queste variazioni di carattere esistono solo per la scrittura su tastiera e non hanno equivalenti ben definiti nella scrittura a mano. In un testo scritto a mano in corsivo, un percorso di addestramento alla scrittura potrebbe invitare a usare lo stampatello minuscolo come equivalente del corsivo tipografico; ma non ho mai visto esempi di una pratica simile.
 
A parte questi due casi, tutte le indicazioni fornite nel libro riguardano l’ortografia “in generale” e sono applicabili sia alla scrittura a mano sia a quella su tastiera. Che il riferimento sia la scrittura a mano è però reso evidente dalla selezione degli argomenti. Nel libro non vengono infatti trattati i problemi ortografici più comuni con cui si trova a combattere chi lavora su tastiera: Che differenza c’è tra apice e apostrofo? Gli spazi vanno prima o dopo le parentesi tonde? Mi devo fidare dei suggerimenti del correttore ortografico? O anche, meccanicamente: come si fa a inserire la È, visto che sulla tastiera il carattere non compare? Come mai ho un solo carattere sulla tastiera per battere virgolette doppie, ma le virgolette compaiono in due forme diverse? E così via. Molte questioni che nell’ottica della scrittura a mano sono marginali (per esempio, la gestione degli spazi bianchi e in generale la paragrafematica) diventano centrali nell’ottica della scrittura su tastiera.
 
Certo, la scrittura a mano resta fondamentale all’Università per le prove d’esame, fino al dottorato; tuttavia i testi universitari più impegnativi vengono scritti su tastiera. Nella mia esperienza, diversi dubbi frequenti di chi si trova a scrivere una relazione universitaria, o la tesi di laurea, richiedono quindi un livello aggiuntivo di “ortografia per videoscrittura”.
 
Va inoltre precisato che la trattazione prende come riferimento un testo di tipo umanistico del tutto privo di numeri (a parte le date: un rapido accenno a p. 29). Restano quindi fuori anche i dubbi ortografici più comuni in materia: quando si deve scrivere un numero “in cifre” e quando “in lettere”? Si può mettere l’apostrofo davanti a una cifra araba? Ci vuole o no la lettera in esponente dopo gli ordinali espressi in numeri romani (“III” o “III°”)? E così via. Lo stesso vale per i diversi tipi di scrittura specialistica. Su questo, secondo me è sempre utile un rimando di approfondimento al classico manuale di Roberto Lesina.
 
La fonetica
 
Per quanto riguarda l’angolazione con cui sono affrontati gli argomenti, va preso in esame il ruolo della fonetica. Gli autori presentano a p. 10 una tabella “L’alfabeto italiano e i suoni corrispondenti”, scelta ragionevolissima. La tabella parte però dai grafemi e presenta i fonemi, mentre manca una tabella inversa, con la presentazione del modo in cui i fonemi vengono rappresentati dall’ortografia. Se il pubblico di questo libro ha una buona conoscenza del modo in cui si pronunciano le parole in italiano, il percorso più naturale sembrerebbe invece proprio quello: partire dalla fonetica per sciogliere dubbi ortografici.
 
Nel testo, in effetti, gli autori non parlano della pronuncia anche in alcuni casi in cui sembrerebbe naturale farlo. Per esempio, nelle spiegazioni sull’uso di -z- si dice che la lettera “deve essere doppia quando compare all’interno di una parola” (p. 37) e poi si elencano le eccezioni. Ma l’uso di -z- all’interno di parola è un problema ortografico solo perché la pronuncia regolare in parole come negozio o polizia prevede la consonante doppia, cosa evidente a moltissimi italiani, e la grafia con una -z- sola si è imposta solo per un vezzo etimologico. Gli apprendenti sarebbero quindi verosimilmente aiutati se fosse loro detto in modo esplicito che qui, eccezionalmente, non devono basarsi sul modo in cui pronunciano le parole (per chi invece non avesse sensibilità per le doppie, le stesse informazioni aiuterebbero a individuare un limite di pronuncia, cosa che non fa male).
 
Dal mio punto di vista sarebbe stato quindi preferibile integrare sistematicamente i due livelli e dare spesso priorità alla pronuncia. Non mancano però i casi in cui il libro procede comunque in questa direzione, e/o quelli in cui occorre comunque dare per scontato che chi scrive non conosca la pronuncia corretta: per esempio, gli autori trattano in questo modo il problema costituito dalle consonanti doppie e dal raddoppiamento fonosintattico per chi viene dall’Italia settentrionale.
 
Inoltre, le descrizioni fonetiche inserite nel libro ignorano quasi sempre la tabella iniziale. In sostituzione dei simboli dell’alfabeto fonetico presentati lì vengono usate invece distinzioni tradizionali come quelle tra suoni “duri” (tipo l’occlusiva velare sorda) e suoni “morbidi” (tipo l’affricata palatale sorda). È vero che etichette del genere, impressionistiche e prescientifiche, vengono ancora ampiamente usate – ahimè – nella didattica della scuola italiana; ma ormai non sono più le uniche, e mi sembra opportuno, soprattutto in un contesto di formazione superiore, evitarle del tutto e spingere nella direzione di una terminologia più solida.
 
Tutto questo non nega naturalmente il valore e l’utilità del libro. Anzi, mi sembra che gli spunti forniti dal testo possano essere un ottimo punto di partenza per andare a definire proposte didattiche future.
 
Luca Cignetti e Silvia Demartini, L’ortografia, Roma, Carocci, 2015, pp. 111, € 12, ISBN 978-88-430-8471-5. Copia ricevuta in omaggio dall’editore.
 

giovedì 27 ottobre 2016

Kirschenbaum, Track Changes

  
 
Copertina di Track Changes di Matthew G. Kirschenbaum
Di alcune sezioni di questo bel libro di Matthew Kirschenbaum ho parlato in due altri post: uno presentato su questo blog e uno (Il word processing, la luce e la voce) sul blog Interfacce vocali. Adesso è arrivato il momento di parlare del libro nel suo assieme e vederne le caratteristiche.
 
Kirschenbaum racconta il modo in cui gli scrittori di lingua inglese hanno adottato la videoscrittura e il personal computer a partire dagli anni Settanta. La sua è una storia fatta di dettagli, più che di generalizzazioni sull’impatto dell’informatica, e questa scelta è condivisibile. Come dice l’autore stesso nell’introduzione, domande come “l’avvento del computer ha portato a pensare e a lavorare in modo diverso?” sono infatti “unresolvable absent close and careful attention to the particular of individual writers and their writing instruments”.
 
Questa reticenza metodologica però nasconde un importante risultato. La descrizione qualitativa degli esiti diversificati collegati all’avvento della videoscrittura fa pensare che in realtà l’impatto delle tecnologie informatiche non sia stato a senso unico e ben definito, come vorrebbero invece molte posizioni teoriche. Si è trattato invece di un evento storico che ha avuto esiti molto differenziati.
 
Introduzione: It is Known (p. 1).
 
Il libro parte dall’interesse e dalle discussioni suscitate dalla scoperta che ancora oggi uno scrittore di successo come George R. R. Martin scrive i suoi libri usando vecchio programma di scrittura WordStar (che a suo tempo fu un software rivoluzionario, creato da Seymour Rubinstein e Rob Barnaby riducendo il ruolo dei “modi d’uso” nell’interfaccia). Questo rapporto con la materialità della scrittura non solo è importante dal punto di vista pratico (“writing invariably runs into resistance”, dice Kirschenbaum a p. 5), ma interessa molto i lettori: si ha la percezione che “knowing that Martin uses WordStar means more than knowing his favorite ice cream” (p. 6). Al tempo stesso, ciò non vuol dire che un programma di scrittura sia “in a position of authority over something as complex and multifaceted as the production of a literary text” (p. 7).

Ci sono anche elementi pratici in questo interesse per gli strumenti degli scrittori – per esempio, in rapporto al problema di conservarli – ma è ovvio che le ragioni profonde di questo interesse sono “umanistiche”. Perché Lucille Clifton rimase molto tempo attaccata a un VideoWRITER 250 (p. 11)? O John McPhee a una serie di modifiche su misura a un programma di scrittura chiamato Kedit (p. 12)? Difficile da dire, ma chiaramente c’è la percezione che sapere queste cose sia rilevante e ci aiuti a dare un fondamento alle nostre conoscenze sulle opere (p. 13).
 
Capitolo 1: Word processing as a literary subject (p. 14).
 
La diffusione del word processing non è stata inevitabile e i letterati hanno associato per molto tempo queste tecnologie alla ripetitività e alla burocrazia (p. 16). Del resto, i programmi di scrittura non sono stati inventati per i letterati… ma lo stesso valeva per la macchina da scrivere, che però col tempo ha preso anche un valore iconico.
 
Inizialmente gli scrittori tendevano a vedere il computer proprio come un sostituto della macchina da scrivere (p. 20). Del resto, molti non hanno abbandonato la macchina da scrivere neanche oggi: è il caso di Paul Auster, Don De Lillo, Cormac McCarthy e Joyce Carol Oates (p. 21). Altri alternano in vario modo computer, macchine da scrivere, penne stilografiche… (una fascinante casistica viene fornita a p. 22); e, come viene detto più avanti (p. 27), “there is no easy sorting of any of these writers into analog or digital binaries”. Scrivere è un processo complesso (p. 29) che non nasce nell’isolamento (p. 30). Vale quindi la pena concentrarsi sugli individui e sulle differenze.
 
In quanto al word processing, le storie dell’informatica ne parlano poco – anche se Till A. Heilmann ha scritto in tedesco una storia dedicata a questo (p. 23). Visionari come Ted Nelson hanno disdegnato il word processing in quanto rappresentava di un modo “conservativo” di concepire il testo (p. 24). D’altra parte, gli studiosi di alfabetizzazione e scrittura se ne sono occupati molto (p. 25), e in qualche occasione l’hanno fatto anche i filologi (p. 26).
 
Capitolo 2. Perfect (p. 33).
 
Una delle parole chiave per ricostruire la storia del word processing è l’aggettivo “perfetto”. Nei messaggi promozionali veniva spesso rivendicata la possibilità di ottenere grazie al word processing testi perfetti, senza tracce di revisioni. L’obiettivo era produrre risultati migliori e più in fretta (p. 34). A volte, però, la perfezione superficiale, visiva, veniva confusa con la perfezione dei contenuti del testo (p. 36)… o perlomeno c’era il dubbio che ciò avvenisse. A monte, c’erano molte preoccupazioni sulla scrittura automatica (vengono citati in rapida successione esempi di Leiber, Clarke, Swift: pp. 38-41).
 
Nello stesso periodo, l’etichetta di “perfetto” venne spesso usata per parlare di libri, come per esempio Caccia all’Ottobre rosso. Sono gli anni in cui il mercato librario si concentrò al tempo stesso sui grandi nomi e sui produttori di best-seller in serie, il cui campione è James Patterson. Tuttavia questo processo è scollegato rispetto all’informatizzazione… a tal punto che Patterson, per esempio, scrive a penna in corsivo (p. 44).
 
Avvicinandosi alla chiusura del capitolo, Kirschenbaum cita una definizione di Daniel Chandler secondo cui la videoscrittura è una forma di “iscrizione sospesa” (p. 46). Seguono poi alcune osservazioni filosofiche e l’esperienza di Anne Rice.
 
Capitolo 3. Around 1981 (p. 51).
 
“1981 was about the time word processing entered public awareness at large and became a topic of conversation and debate in the literary world and elsewhere” (p. 52), mentre uscivano modelli e software. Asimov raccontò in dettaglio su Popular computing le sue esperienze in proposito, passate dalla diffidenza allo studio di manuali e poi a una vera e propria passione – soprattutto per quanto riguarda l’uso del computer per le revisioni (pp. 54-58). “What’s happening there is the redistribution of labor. Asimov, as author, is performing work that he would have previously and cheerfully left to his copy editor (…) The computer is the venue for producing clean copy” (p. 58). Come dice Asimov stesso: “it’s not a question of speed after all, but of perfection” (p. 59).
 
Da p. 59 a p. 63 si parla dell’esperienza di Stephen King e Peter Straub nella scrittura del Talismano (pubblicato nel 1984). Il word processing occupò anche in questo caso il suo spazio “among existing work habits and networks – and it reconfigured them to varying degrees – but it never simply replaced them” (p. 63). Da p. 63 a p. 67 si racconta di Amy Tan, come utente di Kaypro II e del programma Perfect Writer, nonché fondatrice del gruppo di utenti Bad Sector. Da p. 67 a p. 70 si parla di Arthur C. Clarke e della sua collaborazione via satellite con Peter Hyams sul testo di 2010 (usando WordStar su un microcomputer Archives III). Il capitolo si chiude con le esperienze informatiche di Harold Brodkey e Michael Chabon.
 
Capitolo 4. North of Boston (p. 74).
 
I ritratti fotografici di Jill Krementz (1996) mostrano scrittori alle loro scrivanie, a volte con computer. Stephen King, fotografato nel 1995, ha ancora in casa il suo word processor Wang vecchio di quasi quindici anni (p. 76). Alle pp. 77-83 viene riassunto in dettaglio il racconto di King “Word Processor for the Gods”, “Likely the first extended fictional treatment of word processing by a prominent English-language author written in a realist manner” (p. 77; con l’ultima precisazione Kirschenbaum intende un racconto in cui si parla di prodotti esistenti). King ha inoltre usato in modo creativo la comunicazione elettronica in diverse circostanze.
 
John Updike ha scritto la poesia “The Word Processor” nel marzo del 1983 (p. 85), imitando i punti che vedeva sullo schermo (“INVALID.KEYSTROKE”). “Updike’s relationship to the screen wold remain ambivalent” (p. 88). Dopo una citazione del Pendolo di Foucault viene descritto in dettaglio l’ambiente di lavoro di Updike, che a seconda del lavoro scrive a penna, a macchina o con il computer (l’ultima lettera con la sua vecchia macchina è un addio al dattilografo).
 
Capitolo 5. Signposts (p. 92).
 
L’inizio di questo capitolo, tutto dedicato agli scrittori di fantascienza, l’ho già riassunto parlando del problema dell’identificazione della prima opera letteraria scritta al computer: forse un racconto di Jerry Pournelle. Il primo discepolo di Pournelle fu poi il suo coautore Larry Niven. D’altra parte, Pournelle prese a presentarsi alle convention di fantascienza con computer portatili e tenne traccia di chi comprava i diversi sistemi.
 
Anche Frank Herbert, come Pournelle, tentò di costruirsi un computer (p. 104); non ci riuscì, ma assieme al suo amico Maxwell Barnard scrisse (a macchina) un libro appassionato sull’argomento, Without Me You Are Nothing (1980), in cui descrisse il suo sistema informatico ideale e inserì esempi di programma.
 
Barry Longyear comprò nel 1979 un sistema di videoscrittura Wang 5, come Stephen King (p. 108). Anche i suoi giudizi sono positivi: “‘Now that the burdens of typing, correcting, and retyping had been lifted from me by my Wang… there was no need to begin a story with a title and a perfect first sentence’” (p. 109). Su questo si trovò a discutere con Pournelle, che preferiva i computer ai sistemi di videoscrittura.
 
In modo del tutto indipendente, Robert L. Forward iniziò a scrivere al computer perché aveva accesso a un mainframe che faceva girare l’editor TECO. Anche Eileen Gunn iniziò a lavorare su un PDP-8 fornito dalla sua azienda.
 
In Gran Bretagna, Terry Pratchett comprò un Sinclair ZX81 non appena il computer fu disponibile (1981); Douglas Adams comprò nel 1982 un word processor Nexus e poi un Apricot, e così via (p. 111), aiutando il pubblico a cambiare il modo in cui tali strumenti erano percepiti. Vengono poi citati tra gli utenti precoci Jack Vance (che aveva problemi di vista) e Samuel R. Delany. Oppositori erano invece Harlan Ellison e Andre Norton e numerosi altri. Si introduce poi il caso di William Gibson, che iniziò a usare il computer solo nel 1988 e collaborò in seguito con Bruce Sterling lavorando al computer (p. 116).
 
In generale, quindi, le persone che lavoravano “in various forms of genre fiction tended to adopt word processing earlier tha writers who perceived themselves to be engaged in the craft of belles lettres” (p. 117).
 
Per quanto riguarda le conseguenze, “Many writers professed a newfound commitment to the craft of writing after their sojourns in the electronic empyrean. Whether or not the prose really did get “better” (by whatever standard) is a question I leave for readers of particular authors to debate” (p. 118). È in effetti opinione diffusa che in molti generi letterari i romanzi siano diventati più lunghi con l’avvento del word processor, ma quello era comunque un periodo di cambiamenti  nel mercato editoriale e Kirschenbaum è tutt’altro che convinto della cosa. “I am suspicious of any claims to account for broad shifts in literary trends solely through technological factors (…) Word processing doubtless played its part in the numbers and the girths of novels or other books – except for wherever it didn’t”. Il caso di Octavia Butler mostra che anche con i computer si poteva continuare, per esempio, a fare false partenze.
 
Capitolo 6. Typing on glass (p. 119).    

Qui ho smontato i contenuti del capitolo in due testi diversi. Della sezione iniziale ho parlato nel post sulle Interfacce vocali. Della sezione finale, che riguarda il lavoro di John Hersey, ho parlato nel post precedente su questo blog.
 
Capitolo 7. Unseen Hands (p. 139).
 
Anche qui, ho sintetizzato l’inizio del capitolo sul mio blog Interfacce vocali. Il testo poi prosegue mostrando che il “word processing” è anche tecnologia associata con l’automazione. Daniel Chandler ha mostrato che molti scrittori abituati alla scrittura a mano non hanno apprezzato computer e macchine da scrivere (p. 160). La presentazione di “letterforms as a constantly available inventory contributed to the typewriter’s association with industrialization, as well as to the sense of language itself as a commodity”, oltre a contribuire ad alcune idee dell’avanguardia. Oggi le parole vengono facilmente contate e Twitter e messaggini hanno reso “character counts the most vital metric for assessing the viability of a text”.
 
Questa atomizzazione permetteva di selezionare e modificare non solo caratteri ma anche parole, frasi e paragrafi (p. 161). Ma per il futuro si immagina spesso la scrittura prodotta direttamente attraverso gli impulsi nervosi, che interromperebbe il rapporto con la mano (p. 163). D’altra parte, Stanley Elkin iniziò a scrivere su un sistema Lexitron VT 1303 già nel 1979 perché le sue condizioni di salute gli rendevano impossibile scrivere in altro modo.
 
Capitolo 8. Think Tape (p. 167).
 
L’apertura di capitolo è dedicata alla descrizione del lavoro di Len Deighton, di cui ho già parlato. Kirschenbaum ricorda però che il sistema MT/ST comprato da Deighton veniva presentato come qualcosa che da un lato avrebbe prodotto testi perfetti, dall’altro avrebbe eliminato molte segretarie. Non venne data molta attenzione al fatto che proprio le segretarie avrebbero dovuto occuparsi poi del nuovo strumento.
 
L’apprendimento dei comandi dell’MT/ST era peraltro complicato, e richiedeva di imparare la “logica del nastro” in un modo efficacemente sintetizzato da un invito IBM: “Think Tape” (p. 177). I caratteri venivano infatti registrati su un nastro magnetico e cancellati o sostituiti durante le revisioni. La logica non era poi troppo diversa da quella di sperimentatori come Burroughs e Gysin (p. 179).
 
Da qui, fino a fine capitolo, Kirschenbaum ritorna poi sulla storia di Deighton e Handley.
 
Capitolo 9. Reveal codes (p. 184).
 
Il capitolo comincia presentando esempi di scrittori che hanno fatto riferimento a programmi di scrittura all’interno delle loro opere: John Barth, Joan Didion, Paul Kafka, Anna Carson, Elly Bulkin, Douglas Coupland, Jeannette Winterson, Gary Snider, Chalres Bukowski, Jacques Derrida… Del resto, visto che gli scrittori passano così tanto tempo davanti alla tastiera, è inevitabile che facciano esplorazioni, e la possibilità di usare computer e word processor come “literary devices” nelle opere è stata ampiamente sfruttata (p. 186). Alcuni si sono lmitati a citare i propri computer (Ann Rice, Tom Clancy, Umberto Eco), altri, come De Lillo, hanno raccontato il rifiuto di usarli. Kirschenbaum cita ancora Stephen King e John Updike, e poi John Varley e Russell Hoban. In tutti questi ultimi casi compaiono nomi di prodotti specifici. Henry Roth usa un computer come importante strumento di dialogo nella sua tetralogia Mercy of a Rude Stream (2014; p. 187).
 
D’altra parte, il senso comune dice che il word processing “encourages authors to overwrite because it is so easy for them to continue revising and embellishing their prose” (p. 188). La disponibilità di dizionari dei sinonimi e ricerche sul web “no doubt exacerbates these tendencies”. Il participio “Overwritten” viene usato per indicare “the combination of efficiency and easy access that is associated with word processing in the popular imagination”.
 
Un romanzo satirico basato su questa idea è Potboiler di Jesse Kellerman (2012), il cui protagonista riscrive il romanzo “overwritten” di un collega. Tuttavia, dice Kirschenbaum, qui entra in gioco anche un altro significato di “overwrite”: riscrivere un testo lavorandoci e scrivendoci sopra. Questo è anche ciò che hanno fatto Gibson e Sterling in The Difference Engine, “scrivendo sopra” ciò che loro stessi avevano prodotto, ma anche sopra testi base di età vittoriana (p. 190). Gibson dichiara che ancora oggi il suo lavoro funziona così: inizia a leggere quanto ha già scritto, lo rielabora, e solo alla fine della revisione aggiunge altro testo (p. 191). Anche Seth Grahame-Smith ha lavorato così per generare Pride and Prejudice and Zombies (2009), in una logica di remix. Tuttavia, esperimenti del genere “are notable precisely because of their comparative scarcity” e funzionano solo in casi particolari: non c’è il rischio che il mondo letterario venga sommerso da una marea di remix.
 
Viene poi discusso il caso di 1Q84 (2011) di Murakami (pp. 192-195).
 
Per quanto riguarda le macchine, all’inizio il Macintosh venne poco considerato dai professionisti (p. 195). D’altra parte, l’idea Apple era proprio quella di produrre un computer che non fosse associato al ripetitivo lavoro da ufficio, anche grazie ai font e alle icone disegnate da Susan Kane (p. 196). Presto si cominciò a parlare di “desktop publishing”: “Some prescient authors and editors had already realized the potential use of computer for publishing and distribution as well as composition” (p. 196). Un esperimento per esempio fu la rivista “Between C&D” (1983). Tuttavia, il più entusiasta sperimentatore con il Macintosh è stato Edward Kamau Brathwaite, nato nelle Barbados (p. 197). In questo caso, “the Mac’s font libraries and layout capabilities are used to visually orchestrate and arrange the language of Brathwaite’s poems on the page” (p. 198): Braithwaithe ha parlato di “Sycorax [il nome dato al suo computer] Video Style”. Le sue idee, “in sympathy” con quelle di Ong, è che “‘The computer is getting as close as you can to the spoken word’” (p. 199). D’altra parte, come ha notato Carrie Noland, “many of the typographic gestures that he employs resist vocalization”… e non ne sono sorpreso. Seguono molti dettagli sul suo lavoro, sull’uso di Kaypro, Eagle, ecc. Oggi il suo lavoro sembra molto retro (p. 202).
 
Alcuni scrittori hanno lavorato al confine tra scrittura e desktop publishing (p. 203). Mark Z. Danielwski ha scritto a mano la prima stesura del suo romanzo, poi l’ha revisionata su un word processor e infine ha fatto l’impaginazione su QuarkXPress. Dave Eggers, si dice, scrive sempre su Quark. Altri esempi sono Steve Tomasula, Tan Lin, David Daniels. Elisabth Tonnard ha pubblicato nel 2010 una serie di classici della letteratura “as rendered by Word’s AutoSummary feature” (p. 204; la funzione è stata rimossa a partire da Office 2010) – un lavoro ispirato da Kenneth Goldsmith, che è stato a sua volta oggetto di esperimenti di Brian Kim Stefans (p. 205). Elaborazioni artistiche sui programmi di scrittura sono state fatte da Matthew Fuller e Tomoko Takahashi. Joel Swanson ha esibito una stampa della barra spaziatrice Apple su sfondo bianco (p. 206).
 
Capitolo 10. What remains (p. 207).
 
Salvare file divenne un’abitudine così rapidamente che si dice che alcuni spettatori abbiano emesso gemiti quando, alla fine della versione cinematografica di Stand By Me (1986), il protagonista spegne il computer senza aver dato visibili comandi di salvataggio. Tra gli esempi di persone che hanno avuto danni da mancato salvataggio, o che si sono attrezzate per gestire il problema, figurano Jimmy Carter, Len Deighton, Frank Herbert e Max Barnard, Jack Vance, Piers Anthony, Robyn Carr e Michael Parfit. Le vecchie ansie sono state affiancate da quelle nuove (p. 208).
 
Alle carte degli scrittori viene data una venerazione particolare… ma è molto dubbio che gli archivi elettronici possano essere visti allo stesso modo, o conservati allo stesso modo. E questa è una preoccupazione molto sensibile in Italia! Maxine Hong Kingston racconta della perdita del suo manoscritto e dei suoi dischi in un incendio (pp. 211-212). I contenuti dei dati del VideoWRITER 250 usato da Lucille Clifton sono stati salvati solo stampandoli (pp. 213-214).
 
Oggetti come lo scomparso Wang di Stephen King o il Dell usato da Jonathan Franzen sono oggetti “intimately associated” con le pratiche di scrittura dei loro autori o semplicemente prodotti da gettar via? Molti autori hanno lasciato materiali digitali in molti importanti archivi letterari. L’esempio più noto è quello di Salman Rushdie: la Emory University ha quattro dei suoi Macintosh e uno di questi è disponibile come “complete virtual emulation” (p. 215). Altri esempi riguardano Peter Carey, Norman Mailer, Michael Joyce e Gabriel García Márquez (p. 216). In alcuni casi, questi computer (come nel caso di Stieg Larsson) possono contenere testi inediti importanti. “Perhaps best of all”, il Wang 5 di Barry Longyear è stato usato in una recita scolastica come parte della cabina di comando di un’astronave. Per quanto riguarda Pournelle, Zeke fu cannibalizzato per parti di ricambio, mentre Zeke II è nei depositi dello Smithsonian Museum (p. 217). Molti dei pezzi citati in questa storia, da quelli di Brthwaite a quelli di Amy Tan, oggi sono stati distrutti.
 
I floppy disk, invece, sono “residual media” (p. 219), anche se sopravvivono come icona. Testi incompiuti su floppy disk sono stati ritrovati per Douglas Adams e David Foster Wallace (p. 221), e così via. Ballard non ha mai usato computer, e quindi il suo forse sarà “‘the last solely non-digital literary archive of this stature’” (p. 223). Updike ha lasciato molti materiali, anche elettronici, ma Paul Moran ha raccolto molte cose dalla spazzatura di Updike a partire dal 2006 (pp. 223-226).
 
Comunque, e anche qui siamo in un terreno familiare alla cultura italiana e ai lavori di Domanico Fiormonte, “Students and scholars have long been fascinated by the extent to which access to an author’s manuscripts opens a window onto the mysteries of the creative process” (p. 227). Molto si perde, ma in Word “What is today know to us as the ‘Track Changes’ feature was initially called ‘Redlining’”, funzione che “began as a stylesheet in Microsoft Word 3.11 (released in 1986) and was a fully integrated feature in Word 4.0 the following year” (p. 228). Più tardi la funzione divenne prima “Mark Revisions” e poi, con Word 97, “Track Changes”. Tuttavia l’idea era più antica: Word Perfect aveva sempre avuto funzioni simili e il Source Code Control System era stato sviluppato dai Bell Labs nel 1972.
 
Quindi, paradossalmente, “as fragile as electronic media are and as fleeting to the historical record as they may be, they create enormous and potentially unprecedented opportunities for scholarship”. Max Barry ha reso disponibili tutte le versioni di elaborazione di un suo romanzo (p. 230). In quest’ottica, “text becomes less like an object or an artifact and more like an event”. Oggi siamo anche abituati a pensare ai media digitali come dotati di “idiosyncratic forms of resilience” (p. 232). Non è inconcepibile pensare a uno studio dei testi in parallelo a ciò che l’autore faceva in quel momento, alle e-mail che scriveva, ai siti web visitati… un lavoro del genere è in corso per le opere di Thomas Kling (p. 233).
 
After word processing (p. 235).
 
Kittler lamentava in passato l’assenza di studi sulla dattilografia. Nel 1994, Word aveva il 90% del mercato americano dei programmi di scrittura: la versione 1.0 per DOS era stata rilasciata da Charles Simonyi con la collaborazione di Richard Brodie nel 1983. Questo programma è stato molto criticato, per esempio da Charles Stross, ma “It is indisputable that creative writing was never imagined as an important marketplace for word processing” (p. 236). E in tempi recenti l’egemonia di Word è stata incrinata da programmi come Scrivener (p. 237) e “austerityware” come WriteRoom (p. 238) o da altri che propagandano scelte ancora più radicali, come Write or Die. Anche se il concorrente più diretto di Word oggi è naturalmente Google Docs (p. 239).
 
Tastiera e schermo nel frattempo si sono ritrovate in uno spazio virtuale (p. 240), è ricomparso lo stilo e sono venuti fuori strumenti curiosi come la macchina da scrivere Hemingwrite, dotata di schermo a inchiostro elettronico. Più radicalmente, alcuni testi oggi possono essere scritti direttamente dal computer (p. 242).
 
Tuttavia, Kirschenbaum pensa che “the future of word processing will prove significantly more variegated”: scelte come quella di George R. R. Martin sono “not eccentric but symptomatic”. Oggi, più che fare word processing, “we mostly just write, here, there, and everywhere, across ever-increasing multitudes of platforms, services, and surfaces” (p. 243). I computer non hanno sostituito le tecnologie precedenti ma hanno iniziato una coesistenza (p. 244). Seguono le considerazioni sul primo autore al computer, che ho riportato a parte.
 
Soprattutto, e qui torniamo al discorso iniziale, Kirschenbaum nota: “Every impulse that I had to generalize about word processing – that it made books longer, that it made sentences shorter, that it made sentences longer, that it made authors more prolific – was seemingly countered by some equally compelling exemplar suggesting otherwise” (p. 245). La diffusione di questo word processing di massa attorno al 1981 fu “an event of the highest significance in the history of writing” (p. 246), ma il suo impatto fu “more diffuse” di quello che si potrebbe pensare. Qualche scrittore passò al computer, qualcun altro no, ecc. ecc. Forse il “distant reading” prima o poi ci dirà qual è stata la tendenza prevalente (p. 247), ma Kirschenbaum preferisce “to err on the side of individual circumstance and plurality rather than hard determinism”. In fin dei conti, questo sistema di scrittura è sia banale sia straordinario… e qui si conclude il libro.
 
Matthew G. Kirschenbaum, Track Changes. A Literary History of Word Processing, Cambridge (Massachusetts), Belknap Press, 2016, pp. xvi + 344, € 25, ISBN 978-067441707-6. Letto nella copia della Biblioteca di Lingue e letterature romanze dell’Università di Pisa.
 
Creative Commons License
Blog di Mirko Tavosanis by http://linguaggiodelweb.blogspot.com is licensed under a Creative Commons Attribuzione-Non opere derivate 2.5 Italia License.