venerdì 30 novembre 2012

Sport autunnali


Foto di Michal Švarný
Anche a Hong Kong è arrivato il freddo; in senso relativo, naturalmente… e, visto che domani partirò per Pechino (massima prevista: quattro gradi sopra lo zero; minima prevista: quattro gradi sotto lo zero), sono acutamente consapevole di quanto sia mite la stagione, qui al sud.
 
Comunque, finito il tempo delle nuotate domenicali, per fortuna è iniziato quello delle escursioni e delle camminate. Il 17 di novembre sono andato con un gruppo di colleghi (MULTI e non MULTI) a fare un po’ di kayak a nei Nuovi Territori. Ci vuole un’ora di metropolitana e un doppio tragitto in autobus, ma ne vale la pena, perché si arriva in una baia quasi completamente vuota. I cellulari non prendono più neanche il segnale di Hong Kong, ma solo quello cinese… Noi comunque ci siamo divertiti a saltellare per qualche ora di spiaggia in spiaggia, su un mare mosso quel tanto che bastava a richiedere un po’ di impegno. Nel complesso, una discreta soddisfazione!
 
Foto di Michal Švarný

La settimana dopo, con un altro gruppo, sono invece andato a fare una camminata nel sentiero “Dragon Back” sopra la spiaggia di Shek O, sull’isola di Hong Kong – ma dal lato opposto, rispetto ai grattacieli di Central. Niente male, anche se in mezzo a vento, nuvole e pioggia:
 

E poi… E poi ormai sono agli sgoccioli, con la mia permanenza! Al rientro dalla Cina, sarà già ora di preparare i bagagli e di margine per escursioni ne rimarrà, temo, ben poco. Nel frattempo, comunque, meglio non accennare alle mie brevi esperienze al chiuso, con lo squash…
 

mercoledì 28 novembre 2012

La lettura e gli schermi ad alta densità


Droid HTC: foto di Alex Washburn da Wired, licenza CC
Per decenni si è parlato della dimensione dei pixel come di uno dei fattori che rendono la lettura su schermo più lenta rispetto alla lettura su carta. È davvero così? E questo continua a essere un problema?
 
Alla prima domanda la risposta è ufficiale: sì, è davvero così. Tutti citano il dato dichiarato da Jakob Nielsen nel 2000 nel suo famoso libro Web usability: la lettura su schermo è più lenta del 25 % rispetto a quella su carta (p. 101 della traduzione italiana pubblicata da Apogeo). In realtà, le conclusioni delle ricerche sono decisamente più sfumate, come ha mostrato pochi anni dopo Andrew Dillon nel secondo capitolo del suo Designing usable electronic texts (che mi sembra ancora la migliore sintesi in materia). In ogni caso, l’anno scorso ho provato a fare diverse misure di velocità di lettura con gli studenti del corso di Linguistica italiana II a Pisa, e i risultati venuti fuori sono stati molto difficili da interpretare.
 
Di sicuro, le ricerche fatte finora sembrano confermare due punti: 
  1. forse la lettura su schermo non è più lenta… però di sicuro non è più veloce. 
  2. non sembra sia una questione di abitudine, ma una questione di meccanismi fisici e mentali profondi 
Comunque, per la presentazione che ho fatto la settimana scorsa, ho fatto anche una rassegna del panorama tecnologico. Che, proprio negli ultimi due anni, ha visto una piccola rivoluzione: per la prima volta alcuni schermi offrono immagini di una densità paragonabile a quella della stampa su carta. Le unità di misura sono diverse, ma diciamo, per semplicità, che da decenni le stampanti individuali possono stampare con una densità di 300 punti per pollice. Fino a tempi recenti, la densità di riferimento degli schermi di computer era invece di soli 72 pixel per pollice, o PPI. Il mercato degli smartphone è stato però il punto di partenza per un drastico cambiamento: nel 2010 Apple ha introdotto sull’iPhone 4 (e sulla corrispondente generazione di iPod Touch) uno schermo con densità di 326 PPI. Con una buona mossa pubblicitaria, ha inoltre chiamato questo genere di schermi “Retina display”, dichiarando che su di essi l’utente normale, a normale distanza dagli occhi, non riesce a vedere i singoli pixel. Il discorso non è del tutto vero, ma il punto chiave è che nella percezione della qualità da parte dei lettori, come si sa da decenni, i 300 PPI sono una soglia importante.
 
Col tempo, Apple ha comunque introdotto i “Retina display” su vari altri tipi di dispositivo – spesso usando densità inferiori ai 300 PPI, per gli schermi destinati a essere tenuti più lontani dagli occhi, come quelli dei personal computer. La rincorsa non si è fatta attendere. Diversi prodotti dei concorrenti hanno raggiunto rapidamente densità simili o superiori, e lo smartphone Droid DNA della HTC (che non ho ancora visto), presentato sul mercato americano da pochi giorni, offre uno schermo con 440 PPI. Recensendo con scarso entusiasmo questo prodotto su Wired due giorni fa, Nathan Olivarez-Giles ha riassunto in questo modo la situazione:
 
The DNA’s display is gorgeous, and arguably the best-looking smartphone display out there. But to the naked eye, and over a couple of weeks of daily use, it doesn’t look significantly better than the phones mentioned above, and that’s a good thing. The fact is, they all look great. On any one of them, pixels are indiscernible and text looks crisp and clean, rivaling a printed page. Colors are vivid and bright. Photos, video, apps, websites, magazines, every single thing displayed on screen is rendered beautifully.
 
The bottom line is that while a 1080p screen is mighty pretty, it’s not a killer feature on a smartphone, and it does not make the device significantly better than the current crop of 720p-capable phones. And this is a wonderful thing for consumers. Smartphone displays are better than they have ever been. Today, we expect top-tier phones to come with Retina-quality screens, and anything less is deemed unacceptable.
 
Insomma, dal punto di vista dell’utente, la densità di pixel avrebbe superato una soglia fisiologica importante, e aggiungerne altri non può migliorare gran che la situazione. Così come, aggiungo io, aumentare la risoluzione di stampa nelle normali stampanti da ufficio non è stata una necessità molto sentita negli ultimi venticinque anni.
 
Sì, ma la velocità di lettura? Nessuno, mi sembra, ha fatto ancora confronti dettagliati. Eppure, telefoni a parte, schermi di questo genere cominciano a essere diffusi anche su schermi di discrete dimensioni. Nielsen ha fatto nel 2010 un confronto (che io ho riprodotto l’anno scorso assieme ai miei studenti) tra lo schermo dell’iPad di prima generazione, un Kindle di seconda generazione e la carta, giungendo alla conclusione che la lettura su iPad è solo del 6,2% più lenta di quella su carta. Però l’iPad esaminato aveva ancora uno schermo relativamente tradizionale, a 132 PPI. Studi sugli schermi più recenti, mi sembra, non se ne sono ancora visti, nonostante non siano troppo difficili da realizzare.
 
In compenso, il solito Nielsen quest’anno ha finalmente cambiato una delle sue linee guida per l’usabilità dei siti web: grazie alla maggiore qualità degli schermi di computer, preferire i caratteri senza grazie a quelli con grazie, per i testi destinati a essere letti su schermo, non è più necessario. Già da qualche anno, nei miei corsi avevo presentato questo cambiamento come “imminente”… e adesso, finalmente, ci siamo!
 
Poi, naturalmente, la velocità di lettura è solo una (piccola) componente dei problemi di usabilità che le interfacce informatiche mostrano ancora oggi, rispetto alla carta. Per lo studio e molti tipi di lavoro da ufficio, per esempio, la manipolabilità sembra un problema assai più rilevante – e su cui, per il momento, non sono in vista sviluppi di nessun genere. Ma insomma, un passo alla volta, almeno una fase del percorso sembra quasi terminata.
 

martedì 27 novembre 2012

Hanging out, messing around, and geeking out

 
Hanging out, messing around, and geeking out
Mi lamento spesso del fatto che del modo in cui vengono usati i nuovi mezzi di comunicazione si parla molto, ma si sa poco. Hanging out, messing around and geeking out è un grande passo avanti in direzione della conoscenza. Sottotitolato Kids living and learning with new media, il libro (MIT Press, Cambridge, Massachusetts e Londra, 2010, pp. xix + 419, ISBN 978-0-262-01336-9; io l’ho preso in prestito su carta alla Pao Yue-Kong Library qui alla PolyU) presenta i risultati di un articolato progetto di ricerca americano in questo settore. Tanto articolato che, anche se i “principal investigators” del progetto sono stati quattro (Peter Lyman, scomparso prima della pubblicazione, Mizuko Ito, Michael Carter e Barrie Thorne: p. 355) in copertina sono riportati i nomi di 15 autori, mentre altri 7 vengono ricordati per i loro contributi.
 
Questa schiera di collaboratori, a quel che si vede, non è un accidente: è una necessità dovuta al fatto che il lavoro dietro al libro si è basato su 27 diversi progetti etnografici di ricerca, condotti tra il 2005 e il 2008, che hanno coinvolto centinaia di soggetti (non tutte le ricerche sono poi confluite nel prodotto finito, ma la lista completa viene riportata alle pp. 371-372). I diversi progetti hanno coperto comunità sia online (tipo: “Transantional anime fandoms and amateur cultural production”) sia offline (tipo: “Bedroom culture and the studio apartment: media, parents and children in urban Los Angeles”). Per fortuna, però, i prodotti del lavoro non sono presentati come la classica raccolta di contributi indipendenti. Sono stati invece rielaborati in una trattazione comune che, a parte il primo capitolo, “Media ecologies”, segue una suddivisione per contesti, e cioè:
 
2. Friendship
3. Intimacy
4. Families
5. Gaming
6. Creative production
7. Work
 
Lo studio prende in esame i “giovani”, definiti in modo un po’ esteso come tutte le persone che hanno meno di 25 anni, ma il centro dell’analisi è costituito dalla fascia di età tra i 12 e i 19 anni (p. 357).
 
Il libro fa ricorso ad alcuni concetti importanti e già diffusi (a cominciare da quello di “ecologia dei media”) ma ne introduce anche altri nuovi. Uno interessante è quello di “networked publics”, cioè a situazione che si crea con la “active participation of a distributed social network in the production and circulation of culture and knowledge” (p. 19), al posto della massa di consumatori che forma l’“audience” di tipo televisivo.
 
Un altro concetto interessante è poi quello che fornisce il titolo al libro: i “genres of participation” nell’uso dei mezzi digitali di comunicazione. I tre generi di riferimento discussi sono appunto:
 
  • “hanging out”, che in italiano si potrebbe rendere con il “perder tempo” (e, forse più correttamente, con il “cazzeggio”) adolescenziale e postadolescenziale in compagnia degli amici, spesso contro la volontà dei genitori – e spesso, oggi, attraverso la mediazione degli strumenti elettronici, che permettono di mantenere un contatto ininterrotto (pp. 37-53)
  • “messing around”, che “represents the beginning of a more intense engagement with new media” (p. 54), magari perché si vuole cercare un modo migliore di condividere le proprie foto, e così via
  • “geeking out”, cioè il raggiungere “an intense commitment or engagement with media or technology, often one particular media property, genre, or a type of technology” (p. 65), fino all’acquisizione di conoscenze specialistiche
 
Gli autori parlano a questo proposito di “genres of participation” perché ritengono, giustamente, che sia difficile classificare le singole persone nelle tre modalità: a seconda delle situazioni, le attività di uno stesso individuo possono benissimo rientrare in tutti e tre i generi anche all’interno di una stessa giornata.
 
Questa capacità di osservazione, piuttosto sofisticata, è senz’altro uno dei punti di forza del libro, che, invece di dichiarazioni semplificate e sensazionalistiche, fornisce analisi estese e accurate. Il risultato è che le situazioni descritte risuonano perfettamente con la mia esperienza: invece delle solite tirate sui bambini di due anni che imparano a usare il telefono dei genitori, qui si ritrovano le storie di ragazzi che spendono le giornate in un MMORPG e di altri che, per ragioni economiche, non hanno un accesso regolare ai computer; oppure di ragazze che devono litigare con i genitori per mettere foto su Facebook e di altre che scrivono fan fiction su Harry Potter…
 
Ci sarebbero infinite cose da dire su questo libro (e spero di poterne dire effettivamente qualcuna più avanti). Per il momento, mi limito a un’ultima nota: il libro fa giustizia di tutte le speculazioni sulle novità nei rapporti sociali tra giovani. Il quadro rilevato dai ricercatori è di sostanziale continuità con la situazione pre-digitale, e presenta novità importanti ma che non modificano la struttura dei rapporti e la cultura adolescenziale che in America hanno preso forma negli anni Cinquanta (e… non per fare il vecchio marxista, ma… sarebbe sorprendente se lo facessero, in mancanza di alterazioni nei rapporti economici, o anche solo in quelli di potere!). Le osservazioni linguistiche sono pochissime, ma vanno anch’esse in questa direzione – dando come implicita, direi, la continuità tra i gerghi giovanili online e quelli usati in passato in altre situazioni.
 
In generale, quindi, la lettura di questo libro è fortemente raccomandata a chiunque sia interessato allo stato della comunicazione elettronica oggi. E la casa editrice ha perfino messo in linea gratuitamente il testo in formato PDF!

lunedì 26 novembre 2012

Strumenti per individuare i testi copiati


Oggi pomeriggio (pomeriggio di Hong Kong, naturalmente) sono andato a sentirmi un’interessante dimostrazione qui alla PolyU. La dimostrazione era dedicata a “Preventing student plagiarism: using electronic tools and beyond”, cioè agli strumenti per individuare gli studenti che presentano elaborati in cui è presente testo indebitamente copiato.
 
La cosa mi riguarda molto da vicino, perché per i miei laboratori di scrittura impiego molto tempo nel controllo dei testi prodotti dagli studenti (e in alcuni casi rimango con il sospetto, ma non riesco a dimostrare che ci sia o non ci sia stata una copia). Automatizzare i controlli potrebbe quindi essere utile… anche se in Italia la sensibilità al problema mi sembra minore che all’estero. La PolyU, per esempio, si è dotata di dettagliate linee guida per la lotta al plagio, mentre l’Università di Pisa, nel suo recentissimo codice etico, si limita a ribadire (articolo 11) che il plagio non va bene, senza fornire indicazioni specifiche e senza neanche nominare il fatto che il problema può riguardare i testi prodotti dagli studenti.
 
Comunque, oggi ho imparato che nell’individuazione automatica delle copiature indebite lo standard attuale consiste nell’avere un sistema che, una volta caricato un elaborato, esegue una serie di controlli automatici per verificare se il testo è stato ripreso in tutto o in parte da fonti già esistenti. Il confronto di solito si fa con i testi disponibili sul web, con database di testi “accademici” e con i testi che, all’interno di un’istituzione, vengono di volta in volta caricati dagli studenti (il che permette di identificare il plagio interno).
 
La dimostrazione di oggi si è svolta in buona parte su Turnitin, che al momento sembra il prodotto migliore sul mercato. Ahimè, Turnitin, come del resto i principali concorrenti, non ha ancora il supporto per l’italiano (anche se sul suo sito web lo promette come imminente). In compenso si integra con le principali piattaforme didattiche, o LMS. Qui alla PolyU usano Blackboard, e le dimostrazioni si sono svolte in quell’ambiente; nella ex Facoltà di Lettere e Filosofia a Pisa si usa invece, anche se in situazione precaria, Moodle, ma Turnitin ha un plugin anche per questa piattaforma.
 
Decisamente da scartare sembra invece il più diretto concorrente di Turnitin, SafeAssign. Non solo si fonda su database a copertura minore, ma, prodotto da Blackboard, è disponibile solo per quella piattaforma.
 
Un plugin open source per Moodle è invece Crot; che però, a quel che ho capito, da qualche mese non ha più accesso alla ricerca sul web, ma solo alla ricerca tra i documenti caricati sul sistema. Il che limita drasticamente le sue funzionalità! Per i testi che faccio scrivere io, il controllo sul web è in pratica essenziale.
 
Quindi, in sostanza: per il momento direi che per me è ancora impossibile fare a meno dei controlli artigianali. Quando arriveranno in Italia sistemi più sofisticati come Turnitin, sarà invece una buona idea prenderli in considerazione (ammesso che io abbia a disposizione una piattaforma su cui farli installare!). A quel punto, immagino poi che le variabili fondamentali saranno le solite due: funzionalità effettiva e costo.
 

giovedì 22 novembre 2012

Usare la scrittura nei nuovi mezzi di comunicazione


Il manifesto della (doppia) presentazione di domani
Domani pomeriggio (ora locale) farò una presentazione qui all’Università Politecnica di Hong Kong . Tema: “Understanding and using written texts from the new media” (stanza M1603, Lin Ka Shing Tower, al centro del campus, con partenza alle 15.30 e una precedente presentazione di Philippe Blache). Oggi sto rifinendo le diapositive e mettendo a fuoco il lavoro, che è un po’ una sintesi delle mie riflessioni recenti – e del corso che ho fatto l’anno scorso per Linguistica italiana II a Informatica umanistica.
 
In buona parte del discorso, direi, esprimerò la mia frustrazione per lo stato corrente delle conoscenze: le indicazioni pratiche per la scrittura e per la progettazione di interfacce sono tutto sommato poche. E perfino quel poco che si sa è ben lontano dal diventare patrimonio comune: ci si trova a combattere le stesse battaglie all’infinito, e le idee corrette non si diffondono mai.
 
Comunque, tanto per dare un’idea della varietà degli strumenti e dei compiti con cui si ha regolarmente a che fare anche nel mondo dello studio, tra le altre cose proietterò una serie di foto che ho scattato oggi tra i tavolini all’aperto della PolyU. In pratica, sono andato a chiedere agli studenti il permesso di fotografare gli “attrezzi di studio” che avevano in quel momento sul tavolo: dai manuali ai dizionari, dalle stampate di diapositive ai tablet…
 
Per molti lavori, non c'è tablet che regga il confronto con una bella cartina...
 
Insomma, è un mondo complesso, e noi spesso cerchiamo di affrontarlo con strumenti troppo semplici. Soprattutto quando si pretende poi che una soluzione diventi, obbligatoriamente, l’unica, senza aver riflettuto bene sulle conseguenze (come penso stia succedendo oggi in Italia con le leggi sui libri di testo elettronici).
 

mercoledì 21 novembre 2012

Addio al desktop


Dopo quasi un mese di uso, posso dire che con Windows 8 mi trovo sorprendentemente bene. Certo, preferivo Linux (sì, perfino Ubuntu, perfino Unity), e se potessi tornerei immediatamente lì, ma purtroppo:
  1. ho troppi programmi, irrinunciabili, che girano stabilmente solo sotto Windows 
  2. mi sono affezionato al prendere appunti a mano libera (riconoscimento della scrittura incluso), e Linux non offre nulla di paragonabile al collaudatissimo sistema Windows e a OneNote 
  3. per la compatibilità con hardware esterno, e anche con proiettori, Linux mi ha dato spesso fastidi
Il mio attuale schermo Start

Sul mio HP TouchSmart tm2, poi, Windows 8 ha rappresentato un netto miglioramento rispetto a Windows 7. Dopo un po’ di lotta con i driver, non solo il sistema fa tutto quello che faceva prima, ma è chiaramente più veloce e più stabile. Mi dà poi una curiosa soddisfazione l’abbandono della metafora del desktop. Con quella, così come con quella di “cartelle”, ho lottato per decenni. I primi sistemi di questo tipo ho iniziato in effetti a provarli sul mio primo computer, se ricordo bene, nel 1990, con Framework, che innestava su Dos un ambiente grafico in interfaccia a carattere. Poi sono passato a Windows 3, e infine a Windows 3.1 nel 1992. In tutti i casi, fin dall’inizio le varie applicazioni della metafora del desktop mi sono sembrate non solo inutili, ma fuorvianti. Tipo: che cosa ci fa un cestino sulla scrivania? E che cosa ci fanno i mobili porta-cartelle, accanto, che so, all’orologio?
 
All’epoca non sapevo che tutti quei programmi, e anche quelli Apple, non avevano fatto che copiare meccanicamente l’interfaccia sviluppata quarant’anni fa per lo Xerox Alto. Lì la metafora del desktop aveva un minimo di logica, ed era comunque una specie di primo tentativo; vent’anni più tardi, lo studio del modo in cui lavorano gli utenti avrebbe dovuto suggerire qualcosa di diverso. Io del desktop ho sempre fatto un uso ridottissimo: di regola lo ripulisco in fretta di tutti i link o collegamenti a programmi (che piazzo in altre sezioni, a seconda del sistema) e lo riduco a cartella di parcheggio per i file di uso temporaneo. Non ho mai capito perché, invece del desktop, il punto di partenza non fosse una bella panoramica dei contenuti del filesystem, tipo Esplora risorse, o una lista di programmi, tipo lo “springboard” dell’iPhone…
 
Bene, con Windows 8 in sostanza ciò che compariva all’interno del menu “Start / Avvio” è stato semplicemente spostato in una paginona “Start” a schermo pieno, che è la prima cosa che si vede quando ci si identifica sul computer. Questa già di partenza mi sembra una soluzione molto più pulita e funzionale delle precedenti.
 
Problema: la paginona “Start” è coperta, inizialmente, di icone che rimandano ad altrettante “app” Metro (il nome dell’interfaccia ufficialmente non è più quello, ma in mancanza di meglio continuiamo a chiamarla così). E il livello di Metro e delle sue app è probabilmente destinato a migliorare in fretta, ma per adesso è ridicolo, oltre che in contraddizione con regole che, batti e ribatti, si sperava fossero state assimilate. Del tipo, l’app di Skype non solo occupa lo schermo pieno (lo schermo del mio computer ha dimensioni troppo ridotte per sopportare lo “snap”, cioè la suddivisione automatica, che dovrebbe essere una caratteristica di Windows 8), ma non permette di ricevere file. L’app Foto ci mette più di Picasa, a caricare, è lentissima e piena di bachi – o incomprensibile. Non mi dilungo, perché l’ha già fatto, con il dovuto senso di incredulità, e ripescando il mio caro Tufte, Jakob Nielsen.
 
Beh, in fin dei contri Metro è perfettamente aggirabile. Io ho fatto piazza pulita delle app, e nel menu Start in pratica ho lasciato solo le icone che rinviano ai programmi “desktop” che uso più di frequente. Certo, cliccando su quelle icone si abbandona l’interfaccia Metro e si viene portati a quella classica… ma il desktop stesso rimane in pratica invisibile e io trovo molto comodo questo salto diretto. Così come, alla fine, trovo comodo cercare un programma poco usato digitandone il nome dentro una casella di ricerca, invece che frugando all’interno di un menu complesso. Inoltre, Windows 8 ha tutta una serie di scorciatoie da tastiera che semplificano molto la vita e spesso consentono di fare a meno del mouse (e ha perfino il prompt dei comandi che si può richiamare dall’interno di una cartella, mantenendo la posizione in cui ci si trova: comodissimo per un vecchio utente come me, che ogni tanto fa ancora le cose con un “copy ab*.*”, o simili).
 
Conseguenza: in pratica non vedo più lo sfondo del desktop. E questo… beh, non dico sia un evento da festeggiare, ma è l’eliminazione di un fastidio periferico che se ne era rimasto lì per vent’anni. Quindi, in definitiva: zero impatto di Metro, un computer più scattante, una metafora fastidiosa scomparsa – il bilancio per me è positivo.
 

lunedì 19 novembre 2012

Grieve e altri, Variation among blogs

 
All’interno del già citato Genres on the web, uno dei primi capitoli che ho letto è il quattordicesimo, firmato da Jack Grieve, Douglas Biber, Eric Friginal e Tatiana Negrasova: Variation among blogs: a mult-dimensional analysis (pp. 303-322, DOI 10.1007/978-90-481-9178-9_14, autore per la corrispondenza Jack Grieve). Naturalmente, qui è anche questione di interesse diretto. Mi sembra infatti che la mia analisi e classificazione del linguaggio dei blog italiani, che forma il settimo capitolo del mio libro sull’Italiano del web (pp. 141-169), da un lato sia ancora il contributo italiano più completo sull’argomento, dall’altro abbia un gran bisogno di aggiornamenti, visto che il materiale su cui si basa proviene dalle ricerche che ho fatto tra il 2007 e il 2008, prima che Facebook si abbattesse sull’Italia distruggendo (probabilmente) l’intera categoria dei blog-diario.
 
Purtroppo, sul fronte degli aggiornamenti il contributo di Grieve e altri non dà aiuto. I post raccolti risalgono infatti, sembra, al periodo 2003-2005 (p. 305), e il testo in sé sembra essere stato scritto entro il 2008 (o perlomeno, la bibliografia si ferma al 2007). Pazienza: in questo caso l’interesse è soprattutto dovuto alla metodologia di analisi, che si basa naturalmente sui lavori di Biber e ha fatto ampio ricorso agli strumenti della linguistica computazionale.
 
Il campione sui cui si è basato il lavoro è un corpus di oltre due milioni di parole estratto da 500 blog americani, e per la precisione 10 per ogni stato dell’Unione. La procedura non è stata casuale, perché “blogs were selected so as to obtain as even a distribution as possible across age and gender” (p. 308). Il che, viene detto, è stato fatto per esaminare le differenze tra le diverse fasce demografiche – lavoro che poi però è stato abbandonato. Nessun problema, ma noto che probabilmente un campionamento di questo tipo avrà dato ad alcune fasce demografiche uno spazio molto superiore alla loro presenza effettiva nel mondo dei blog: non ci sono informazioni in merito, ma è probabile che i maschi anziani siano stati, per esempio, sovrarappresentati.
 
L’unità di misura è stata comunque il blog, non il post. Scelta anche questa perfettamente sensata, in molti tipi di analisi, ma che secondo me porta a sottovalutare le differenze dal punto di vista del lettore. Molti blog usano infatti un certo stile con coerenza, ma altri (una minoranza, direi) cambiano sensibilmente il linguaggio da un post all’altro.
 
Il punto chiave del lavoro comunque è stata l’analisi linguistica automatica. Gli autori hanno misurato all’interno del corpus 131 la distribuzione di tratti linguistici (per esempio, “verbs, private verbs… contraction, stranded prepositions, split auxiliaries…”: la lista completa è alle pp. 320-321) e su questa base hanno eseguito un’analisi dei fattori, identificando quattro blocchi (“dimensions”) di complessivi 54 tratti che compaiono frequentemente assieme. Le “dimensions” sono (combinando le informazioni fornite alle pp. 308 e 320):
  1. opposizione tra “informational” e “personal focus” (alcuni tratti presi in considerazione: presenza di forme enfatiche, verbi di attività, pronomi di prima persona…) 
  2. addresse focus (alcuni tratti presi in considerazione: verbi al presente o al passato, pronomi di seconda persona…) 
  3. thematic variation (alcuni tratti presi in considerazione: pronomi dimostrativi, avverbi che esprimono probabilità…) 
  4. narrative style (alcuni tratti presi in considerazione: subordinate con verbi fattitivi introdotte da that , sostantivi, aggettivi con valore attributivo…) 
Su questa base gli autori analizzano il corpus in termini di “text type”, un interessante concetto introdotto, credo, da Biber stesso e basato solo sulle caratteristiche linguistiche dei testi, escludendo le caratteristiche non-linguistiche pertinenti invece per i registri (p. 315; all’integrazione di questo concetto con quello di genere testuale viene dedicata solo una nota a piè di pagina). Basandosi su “an analysis of peaks in the clustering criterion and the pseudo-F statistic”, gli autori individuano quindi come “optimal solution” tre “cluster” di blog (p. 316): sull’aspetto statistico non ho competenze, ma i gruppi identificati sono interessanti (pp. 317-319):
  1. blog con “a clear personal focus”: personal diary blog 
  2. molto rari (solo 27 in tutto il campione), blog “highly impersonal and informational” expert blog type 
  3. blog caratterizzati da “an informational style” ma che spesso “use a personal voice to discuss and offer opinions on impersonal topics” commentary blog type 
Come dicono gli autori:

It was therefore concluded that there are two basic types of blogs: personal blogs and thematic blogs. This finding confirm common assumptions about blog registers (p. 320). 

Indeed… Anch’io ho usato la spaccatura tra “personale” e “tematico” come punto di riferimento fondamentale per le mie classificazioni. Sono quindi lieto che questa procedura formalizzata e basata su analisi statistiche confermi in sostanza ciò che io e diversi altri abbiamo ricavato da una semplice lettura e classificazione soggettiva dei testi (e d’altra parte, mi chiedo: se fosse saltato fuori qualcosa di diverso, e di invisibile ai lettori umani, non sarebbe stato il caso di mettere in discussione il senso dell’analisi statistica dei tratti?). E anch’io avevo distinto su base linguistica un terzo e minoritario gruppo rispetto ai due dominanti: nel mio caso, però, si trattava di quello dei blog con linguaggio letterario, più che enciclopedico e specialistico (pp. 163-169 del mio libro). D’altra parte, la presenza e la composizione di questi sottogruppi potrebbe proprio essere una delle caratteristiche che distinguono le “blogosfere” delle diverse culture (come ipotizzavo a p. 169): non c’è dubbio che sembri conforme ai luoghi comuni il fatto che in Italia si trovano tante persone che pubblicano sul blog le proprie poesie, e negli Stati Uniti tante persone che scrivono “in very formal and impersonal style” con lo scopo di “convey information on a particular topic” e quindi producono testi che “read like newspaper and academic articles because of their similar communicative goals” (p. 319).

A lettura finita, devo dire poi che mi sento molto stimolato a cercare di rimetter mano alla vecchia questione dei blog. Insomma, è vero che oggi i blog diario sono praticamente scomparsi? O perlomeno che la loro funzione si è ridimensionata? La risposta a queste domande, sembra, non la sa nessuno (o se qualcuno la sa, la tiene ben nascosta); l’unica cosa da fare, quindi, è incominciare a prendere appunti, raccogliere un corpus aggiornato e verificare di persona.
 

sabato 17 novembre 2012

Primo contatto con Surface

 
Surface RT con tastiera classica
Oggi ho provato Surface RT in un negozio di Hong Kong Central. Non perché mi interessi il dispositivo in sé… ma perché potrebbe interessarmi un Surface completo, con la possibilità di installare software reale e un pieno supporto al riconoscimento della scrittura. La prima esperienza, comunque, mi ha già detto molte cose.
 
Innanzitutto, l’interfaccia mi è risultata ormai intuitiva – visto che da diverse settimane ho cominciato a usare Windows 8 su un computer con touchscreen. Da questo punto di vista, la strategia Microsoft sembra che funzioni.
 
Il punto caratterizzante del dispositivo è tuttavia la sua fisicità. Tenuto in mano, Surface RT è esattamente quel che deve essere: un tablet. Con la differenza che sopra ci si può usare, per esempio, la versione RT di Office. Per il resto, le dimensioni sono adeguate all’uso, lo schermo permette di scrivere documenti più o meno come su un laptop, il peso non è eccessivo, non ci sono ventilatori per il raffreddamento e non ci sono ronzii fastidiosi... Anche il sostegno posteriore si apre e si chiude in modo soddisfacente, e tutto l’apparecchio fa un’ottima impressione dal punto di vista costruttivo. Sembra, insomma, roba seria.
 
La sorpresa più grossa però me l’ha data la tastiera usata come “copertina” staccabile. Sapevo che la Microsoft la rende disponibile in due versioni: una cosiddetta “soft cover” e una un po’ più simile a quelle classiche da laptop. Bene, ho provato quella che pensavo fosse la classica, con discreta soddisfazione… e mi sono accorto solo dopo che era in realtà la “soft cover”! Avevo dei dubbi di base sull’usabilità di questa tastiera, ma direi che la prova pratica me li ha cancellati. E il sistema di agganciamento / sganciamento mi è sembrato adeguatamente funzionale.
 
In sintesi: anche dopo la prova non ho nessuna intenzione di comprare un Surface RT. Però, per la prima volta, ho avuto la sensazione che un dispositivo potesse mantenere tutte le funzionalità di un laptop all’interno di un corpo da tablet. Se il Surface completo (o un prodotto simile, possibilmente a prezzo ridotto) manterrà le promesse, potrebbe diventare veramente il mio strumento di lavoro principale.
 

venerdì 16 novembre 2012

Addio alla piscina

 
La piscina, vista da casa mia, nel suo penultimo giorno di gloria
L’autunno, un po’ alla volta, sta arrivando anche a Hong Kong. Oggi il cielo è grigio e si aspetta pioggia; certo, ci sono sempre 25 gradi, ma in calo… E soprattutto, oggi hanno chiuso la piscina scoperta del mio complesso di appartamenti.
 
Io non sono mai stato un grande appassionato di piscine, ma trovarmene una direttamente sotto la finestra di casa è stata una fortuna. Certo, la profondità massima di un metro e mezzo lasciava poco spazio ai tuffi (d’altra parte, subito sotto c’è l’atrio carrabile dell’Harbourview: la piscina è al quinto piano). Certo, infilata in mezzo a tre torri di quaranta piani dava un po’ l’impressione di essere il fondo di un canyon. Certo, negli ultimi giorni l’acqua cominciava a essere un po’ fredda. Ma a suo tempo ho scoperto in fretta che farsi tre quarti d’ora di nuoto e poi stendersi al sole a lavorare era un ottimo modo per cominciare la giornata.
 
Alla fine, nell’ultimo mese e mezzo sono riuscito ad andare in piscina quasi tutti i giorni, e direi che la cosa mi ha migliorato notevolmente il fisico e il morale. Il giorno del mio arrivo, ricordo, sono riuscito ad attraversare la piscina in crawl per la bellezza di quattro volte … con lunghe pause tra l’una e l’altra, le braccia indolenzite e curiose macchioline nere che mi ballavano davanti agli occhi. In pochi giorni sono arrivato allo standard di 14 traversate consecutive, aggiungendo un po’ di dorso e un po’ di rana. Niente di trascendentale, certo, ma considerato il punto di partenza…
 
Sui lettini al sole ho poi macinato una quantità sorprendente di materiali con il mio vecchio Kindle Keyboard, che come macchina per le annotazioni si è rivelato sorprendentemente funzionale – una volta trovato il modo di esportare e stampare le note. La levetta di comando permette di selezionare il testo in modo molto comodo, e soprattutto, senza preoccuparsi di bagnare il touchscreen (che non esiste) con dita che magari sono ancora umide. Mi chiedo se un Kindle più recente, con touchscreen, si rivelerebbe altrettanto pratico. Forse sarebbe il caso di fare una prova simile, la prossima estate? Di sicuro, ho scoperto che mi preoccupo meno di bagnare il Kindle che non di bagnare libri cartacei che, ormai, in certi casi non sono molto meno costosi del Kindle.
 
Bene, Kindle o no, ieri ho fatto l’ultima nuotata, e oggi è tutto malinconicamente chiuso. Peccato, ma pazienza: non mi posso certo lamentare. Diciamo che avere tutta quell’acqua a portata di mano è stata anche un’occasione per ripassare una lezione importante – e di cui continuo a dimenticarmi – sulla mia produttività.
 

giovedì 15 novembre 2012

Istruzioni per il CORIS

 
Maschera di interrogazione del CORIS
Qualche mese fa, uno degli strumenti di ricerca più importanti per la linguistica italiana ha avuto un potenziamento spettacolare. Lo strumento è il gruppo di corpus che per brevità chiamerò CORIS nel suo assieme, ma che in realtà corrisponde a diversi prodotti:
Non sto ora a spiegare in dettaglio l’importanza di queste raccolte di materiali: diciamo solo che sono una delle più importanti fonti di informazioni sull’italiano scritto moderno e contemporaneo. Una ricerca al loro interno permette per esempio di vedere se una determinata costruzione grammaticale è usata o non usata, in quali percentuali è usata, e infinite altre cose.
 
Fino a qualche mese fa l’accesso al materiale richiedeva una registrazione (gratuita). Adesso nome utente e password non sono più richiesti, e già questo fatto rende il prodotto infinitamente più accessibile, sia agli studenti sia ai ricercatori - l’accesso è concesso esclusivamente per scopi di ricerca scientifica.
 
Seconda novità, i testi del CORIS sono stati lemmatizzati. Il che significa, per esempio, che tutte le forme del verbo essere adesso possono essere ricercate in un colpo solo, senza dover cercare separatamente sono, sei, e così via.
 
Terza novità: ai preesistenti CORIS e CODIS è stato aggiunto un corpus diacronico, il DiaCORIS, che fornisce campioni a partire dal 1861.
 
Descrivere in pieno le caratteristiche del CORIS richiederebbe molto spazio. Lavorando però, prima della partenza, con studenti e laureandi italiani, ho notato che un ostacolo immediato all’uso dei materiali è dato dalla documentazione. Il linguaggio di ricerca usato sul sito è infatti presentato solo in inglese (il che non dovrebbe essere un problema…) e in forma molto sintetica. Inoltre, il sistema di ricerca è in parte variato rispetto a quello usato negli anni scorsi. Infine, il linguaggio di ricerca usato è CQP, e il sito rinvia correttamente al relativo tutorial per una documentazione completa, ma mi sembra che realizzi poi alcune funzioni in modo diverso dallo standard. Per esempio, CQP prevede che le stringhe da ricercare possano essere inserite sia tra apici doppi, sia tra apici singoli, ma nel caso del CORIS mi pare che funzionino solo gli apici doppi.
 
Io ho fatto un po’ di prove, e mi sembra utile mettere in linea qui sotto una breve guida in italiano sia al linguaggio di interrogazione sia al modo di presentazione dei risultati. Lascio fuori per il momento le parti relative alla ricerca lemmatizzata, che però, partendo da questa base e dalle istruzioni presentate sul sito, dovrebbero essere quasi intuitive.
 
Linguaggio di interrogazione
 
Punto di partenza: la parola. Nel corpus si può eseguire solo la ricerca per parole intere, o meglio, per stringhe contenute all’interno di apici doppi (mentre non vanno bene le virgolette generate da molti programmi di scrittura… quindi occhio al copia e incolla!) e prive di spazi. Di conseguenza, ricercare che non produce risultati: occorre scrivere "che".
 
Nota importante: questo sistema di interrogazione funziona solo per parole intere, e non permette la ricerca per sottostringhe. In sostanza, cioè, "che" non restituisce chele. E, no, l’asterisco non funziona… anche se io, inserendolo, ottengo risultati un po’ strani e non documentati: per esempio, se scrivo "ch*" vengono ritrovate non le parole che cominciano per ch- ma le parole composte unicamente dalla lettera c, come in questo esempio:
 
ma non <c>' era da preoccuparsi.
 
Non è possibile nemmeno inserire due o più parole all’interno della stessa coppia di virgolette: "che le" non restituisce nulla. Le parole devono essere inserite all’interno di diverse coppie di virgolette e accostate l’una all’altra, in questo modo:
 
"che" "le"
 
A differenza della versione precedente del linguaggio, non occorre quindi inserire operatori di concatenazione (tipo un “+”) tra le due parole: basta scriverle una dopo l’altra. Le parole però vengono trovate solo se compaiono nelle sequenza indicata (quindi "mia" "casa" restituisce “mia casa” ma non “casa mia”).
 
In una ricerca si possono indicare più alternative usando le parentesi tonde e la barra verticale. Per esempio, questa ricerca:
 
"il" ("mio" | "suo") "amico"

… ritrova sia “il mio amico” sia “il suo amico”.
 
Sembra invece scomparsa la possibilità di usare l’asterisco come sostituto di una parola intera, presente nella precedente versione. A dire il vero, però, scrivendo
 
"il" * "nome"
 
… si ottengono sia occorrenze di nome semplice, sia occorrenze di “il nome” (ma non di “il” semplice); non si trova invece “il suo nome” o simili. Quindi sembra che l’asterisco qui operi con la stessa funzione della barra verticale.
 
Risultati simili a quelli che si avevano con l’asterisco si ottengono però con l’ultima funzione descritta nelle istruzioni. Usando comandi di questo tipo:
 
"word1" []{0,AFT} "word2"
 
… le istruzioni dicono che il sistema “Retrieve all the occurrences of word2 in the context following the word word2”. In effetti, questo non è molto chiaro… Diciamo che i due valori messi tra parentesi graffe e separati da virgola indicano quante parole devono essere presenti, al minimo e al massimo, tra la parola inserita come “word1” e quella inserita come “word2”. Quindi:
  • "il" []{0,0} "nome" fornisce come risultati solo le sequenze “il nome"
  • "il" []{0,1} "nome" fornisce come risultati sia “il nome” sia “il suo nome”, “il vostro nome”, eccetera 
  • "il" []{1,1} "nome" fornisce come risultati solo quelli del tipo “il suo nome” (ma non “il nome”) 
  • "il" []{0,2} "nome" fornisce come risultati solo quelli del tipo “il suo vero nome” (ma non “il nome” o “il suo nome”)
… e così via, combinando i due numeri a piacimento. Non mi sembra ci sia nemmeno un limite superiore, nel senso che io ho provato a fare la ricerca indicando anche come intervallo {20,20} e ho ottenuto comunque risultati – anche se, certo, non risultati linguisticamente significativi!
 
Altra variazione: adesso la ricerca di default è case sensitive, ma per renderla case insensitive basta aggiungere %c alla parola ricercata, subito dopo le virgolette e senza spazi in mezzo.
 
Infine, le istruzioni attuali non includono un’altra informazione importante: i segni di punteggiatura e i simboli vengono trattati come parole. Quindi, per cercare “ma, in” occorre scrivere "ma" "," "in", mettendo anche la virgola tra doppi apici.
 
Risultati
 
I dati vengono restituiti sotto forma di concordanze KWIC, fino a un massimo di 1000 (o, in alternativa, un massimo di 30, default, o 100, o 300). Nel caso che le concordanze nel corpus siano più del massimo impostato, se ne vede solo un campione. Sembra scomparsa la possibilità di scegliere il modo per realizzare il campione, che nella precedente versione del corpus poteva essere determinata dall’utente scegliendo tra due criteri: “1 every n-h” o “Random”. Non è indicato quale dei due criteri venga utilizzato adesso (immagino comunque il primo).
 
Allo stesso modo, è scomparsa la possibilità di indicare l’ampiezza del contesto: adesso vengono forniti solo i 30 caratteri precedenti e i 30 caratteri seguenti. Sia questa opzione sia quella precedente sono comunque ancora attive nel CODIS.
 
Per ogni risultato viene fornita l’indicazione del sottocorpus di provenienza (ma non del testo di provenienza.
 
Il menu a tendina “Unsorted” dà la possibilità di non presentare in ordine alfabetico le concordanze (default) o di ordinarle in base alle parole a destra e a sinistra della forma cercata (fino a un massimo di 4 parole). Anche in questo caso i segni di punteggiatura vengono trattati come parole a sé stanti.
 
Le collocazioni possono essere ottenute o non ottenute (default). Se si richiedono le collocazioni, non è piu possibile scegliere se averle “before reduction” o “after reduction” (estraendo i collocati dai contesti dei nodi prima o dopo della riduzione delle occorrenze, calcolandoli cioè su TOT contesti oppure su K). Il sistema non precisa quale delle due impostazioni sia applicata adesso.
 
Per quanto riguarda il metodo di calcolo delle collocazioni, sapevo (su indicazione di Fabio Tamburini) che la mutual information veniva ricavata secondo la formula:
 
MI = 100 * log2 f(node,collocate)*DimCorpus / (f(node)*f(collocate))
 
Il T-score veniva invece calcolato secondo la formula:
 
Tscore = 100 * (f(node,colloc) - f(node)*f(colloc)/DimCorpus) / sqrt(f(node,colloc))
 
Le formule erano tratte da M. Stubbs (1995), “Collocations and semantic profiles”, Functions of Language, 2, 1, pp. 23-55. Immagino che anche con l’aggiornamento del sito siano rimaste invariate.
 

mercoledì 14 novembre 2012

L’inglese in pericolo

Venendo da un’Italia che ancora si preoccupa della diffusione dell’inglese, è strano ritrovarsi a Hong Kong, in cui l’idea è che l’inglese, perlomeno sul posto, sia minacciato. Che cioè la Cina voglia, sul lungo periodo, ridurne il peso nel territorio di Hong Kong.

Ora, la presenza della Cina a Hong Kong è discreta ma ben avvertibile, e sui giornali si parla molto di “sinificazione” strisciante della ex colonia. Il che fa il paio con un’altra idea molto diffusa tra gli abitanti: che Hong Kong abbia iniziato un inevitabile periodo di decadenza, e si stia avviando a diventare solo una specie di parco di divertimenti per i ricchi (e non solo) della “mainland”. Del resto, la prima cosa che ti dicono di Hong Kong è sempre: “ah, è una piccola città, qui ci conosciamo tutti…” Gli abitanti sono sette milioni e mezzo, quanto Roma e Napoli messe assieme, ma venendo da Pechino si capisce che in questa descrizione c’è più verità di quel che si potrebbe pensare in astratto.
 
Alla PolyU, qualche studente un po’ più anziano degli altri mi mostra manifesti scritti esclusivamente in cinese: “Ecco,” mi dice, “questi qualche anno fa non si vedevano… le cose stanno cambiando.” Secondo me gli esempi sono pochi, in un mare di comunicazione ufficiale saldamente bilingue, ma mi fido del suo giudizio.
 
D’altra parte, è vero che il ruolo dell’inglese qui è strutturalmente in pericolo. Finora ho evitato di informarmi sulla situazione linguistica locale, e l’impressione indipendente che mi sono fatto finora (forse destinata a essere smentita dai dati statistici, ma non credo) è che l’inglese non sia lingua materna quasi per nessuno. Per molti, anche a Hong Kong, non è nemmeno una lingua nota: qualche parola la sanno tutti, ma mi capita di frequente di parlare con persone che hanno un inglese tanto limitato che non riusciamo a intenderci nemmeno su informazioni di base… di solito la soluzione, in questi casi, consiste nel chiamare in fretta qualcuno più bravo. Del resto imparare l’inglese non è facile, se si ha come madrelingua il cantonese!
 
L’inglese, insomma, è una lingua per lo scambio e per il lavoro, e in moltissimi la conoscono fin dai primi anni di scuola, ma ha tutte le caratteristiche di una lingua franca. E, come tale, potrebbe sparire quasi da un giorno all’altro dal repertorio delle giovani generazioni. Basterebbe cambiare i programmi scolastici, penso, per far calare enormemente il livello di conoscenza dell’inglese in quella che si vanta di essere “Asia’s international city”.
 
Non sarebbe nemmeno il primo caso recente di questo genere. Durante la decolonizzazione, in Africa, molte ex colonie britanniche hanno cancellato da un giorno all’altro lo studio dell’inglese dai programmi scolastici. Risultato: di regola, una popolazione che non è diventata particolarmente compatta dal punto di vista dell’unità nazionale, ma che è stata tagliata fuori dai contatti con il resto del mondo (qualche dettaglio su questa storia si ritrova in uno dei contributi di The making of literate societies, a cura di David R. Olson e Nancy Torrance).
 
Non penso che Hong Kong sia avviata su questa strada: in fin dei conti, in Cina il governo cinese si impegna molto, con scarsi risultati, per la diffusione dell’inglese. Ma già il fatto che molti abbiano questa preoccupazione è indicativo.
 

martedì 13 novembre 2012

Mehler, Sharoff e Santini, Genres on the web

 
Mehler, Sharoff e Santini, Genres on the web
Mi sto facendo strada adesso, con molto ritardo, all’interno del fondamentale volume Genres on the web, a cura di Alexander Mehler, Serge Sharoff e Marina Santini (Dordrecht, Springer, 2011, pp. XIV + 362, ISBN 978-90-481-9177-2). L’editore lo vende al signorile prezzo di € 149,75 in rilegato, “ribassato” a € 129,99 in formato elettronico... Per fortuna, però, la meravigliosa biblioteca della PolyU di Hong Kong ha accesso alla versione elettronica, e quindi io sto andando avanti con i relativi PDF, stampando e annotando.
 
In partenza, però, vale la pena di notare che secondo me l’argomento è fondamentale e merita tutta l’attenzione degli addetti ai lavori. Come ho cercato di mostrare nel mio libro sull’italiano del web, l’articolazione in “generi testuali” molto articolati è fondamentale per capire il modo in cui si usa il linguaggio scritto all’interno della comunicazione elettronica e non solo. Anzi, in un contributo in corso di stampa, scritto assieme a Elisa Bianchi, spero di mostrare che questa idea è centrale per capire il modo in cui la variazione del mezzo di comunicazione influisce, o non influisce, sul linguaggio usato – il che porta poi a ridimensionare drasticamente il ruolo della variazione diamesica, così come viene interpretato oggi.
 
Se si vuole approfondire la questione, si incontra però un problema di base: le attuali definizioni di genere testuale sono molto limitate e spesso contraddittorie. Un buon punto di partenza per orientarsi in proposito è dato proprio dal primo capitolo di questo libro, firmato da tutti e tre i curatori, Marina Santini, Alexander Mehler e Serge Sharoff. Intitolato Riding the rough waves of genre on the web. Concepts and research questions, il capitolo (pp. 3-30) introduce la questione fondamentale partendo dalle motivazioni: “why is genre important? The short answer is: because it reduces the cognitive load by triggering expectations through a number of conventions”. E le convenzioni a loro volta, in questa prospettiva, sono “regularities that affect information processing in a repeatable manner” (p. 4).
 
Io, devo dire, sono meno convinto che la risposta alla domanda di partenza sia proprio quella (e tornerò a fine post su questo argomento). Ma non c’è dubbio che questo sia il modo in cui il problema viene visto oggi dalla maggioranza degli addetti ai lavori. Anche perché una concezione del genere lascia intravvedere la possibilità di applicazioni pratiche fondamentali: come dicono gli autori, “The potential of predictivity is certainly highly attractive when the task is to come to terms with the overwhelming mass of information available on the web” (p. 4).
 
L’uso pratico dei generi è però ancora agli albori. Due esempi di successo sono ovviamente Google Scholar (che copre una varietà di generi “accademici”) e Google News (che nella terribile presentazione italiana si presenta come dedicato agli “articoli di notizie”), ma a parte questi i prodotti funzionanti sono pochi. Gli autori citano due prodotti, X-SITE e WEGA, che però mi sembra non siano ancora disponibili in rete.
 
Come mai queste difficoltà? In buona parte perché, come dice il titolo del paragrafo 1.2, cercare di definire i generi sembra un po’ un “Trying to grasp the ungraspable” (p. 6). È chiaro a chiunque abbia lavorato nel settore che una semplice lista di generi non riesce a rendere conto della complessità di ciò che si trova effettivamente su carta e su web; le classificazioni più recenti sono quindi molto sofisticate, e propongono di regola l’uso di più parametri in contemporanea. E questa complessità si manifesta con tutti gli approcci, sia quello linguistico sia quello editoriale sia quello cui gli autori dedicano più attenzione, cioè quello computazionale.

La sintesi definitiva sembra ancora lontana, né il volume ambisce a presentarla. Vuole invece contribuire alla discussione contemporanea, nella prospettiva degli autori, in quanto (p. 23):
  1. It depicts the state of the art of genre research, presenting a wide range of conceptualisations of genre together with the most recent empirical findings. 
  2. It presents an overview of computational approaches to genre classification, including structural models. 
  3. It focuses on the notion of genres “for the web”, i.e., for the medium that is pervading all aspects of modern life. 
  4. It provides in-depth studies of several divergent genres on the web. 
  5. It points out several representational, computational and text-technological issues that are specific to the analysis of web documents. 
  6. Last but not least, it presents a number of intellectually challenging positions and approaches that, we hope, will stimulate and fertilise future genre research.
Anch’io non ho dubbi sul fatto che questa  ricerca affronti una delle questioni oggi più importanti per la linguistica, e una delle più dotate di potenzialità pratiche. Però, partendo dalla didattica della scrittura, mi chiedo se il modo più produttivo per affrontare il genere non sia alla fine un altro. Quello cioè che prende il punto di vista non della lettura, ma quello della produzione del testo: lì sì che le considerazioni sul “cognitive load” hanno un peso fondamentale. Ma, appunto, spero di avere le idee un po’ più chiare a studio terminato.
 

lunedì 12 novembre 2012

La vista dalla finestra

 
Il blocco di appartamenti in cui risiedo si chiama Horizon Harbourview per una ragione: quasi tutti gli appartamenti hanno in effetti almeno una strisciolina di panorama sul “porto” di Hong Kong, cioè sul tratto d’acqua tra l’isola di Hong Kong e il promontorio di Kowloon. Oggi la zona non è più usata come porto vero e proprio, ma la finestra mi fa vedere comunque un discreto traffico navale. Ieri, domenica, era questo:


Se si prendono in considerazione natura, grandezza e ricchezza della città, Hong Kong presenta un numero sorprendentemente basso anche di barche a vela. Ma ieri, alla fine, qualcosa si è visto: a vivacizzare un panorama che di solito, con autobus a due piani che attraversano svincoli sospesi tra pareti di grattacieli, sembra un po’ il futuro di Dan Dare. A parte le bandiere della Repubblica Popolare Cinese, cioè, e la campagna sul Diciottesimo Congresso del Partito…

sabato 10 novembre 2012

Comunicare a voce in ufficio

 
Momenti produttivi secondo il manuale di Valve
Negli ultimi giorni ho letto un paio di documenti americani interessanti sulla comunicazione in ufficio. Il primo, il più formale, è il rapporto su How college graduates solve information problems once they are in the workplace, pubblicato il 16 ottobre 2012 all’interno del Project Information Literacy e firmato da Alison J. Head. La ricerca su cui il lavoro si basa parte, come al solito, da un campione molto ridotto (23 datori di lavoro e 33 studenti), ma sospetto che giunga a conclusioni ragionevoli.
 
Sintesi: oggi i laureati sono molto bravi a fare ricerche online, ma rispetto ai predecessori mostrano una capacità molto più scarsa nel trovare informazioni “thumbing through bound reports, picking up the telephone, and interpreting research results with team members” (p. 1). La cosa è interessante, anche perché le ricerche di solito si concentrano sul mostrare le capacità aggiuntive che hanno i giovani rispetto alle generazioni precedenti, non su quelle eventualmente perse.
 
Per me sarebbe poi stata particolarmente importante scoprire che l’esame della documentazione stampata tradizionale (“bound reports”) da un lato è ancora fondamentale nel mondo del lavoro, dall’altro è tanto poco intuitivo che i giovani allenati a base di Google non riescono a farlo e sono svantaggiati per questo. Ahimè, il rapporto mette questo aspetto in evidenza, ma poi nella pratica fa capire tra le righe che questo è un discorso accessorio. Il punto importante, quello di cui si lamentano i datori di lavoro, è assai più tradizionale: i giovani non riescono a parlare con i colleghi e a scambiarsi informazioni a voce.
 
A differenza della comunicazione elettronica, questa non è una novità. Da sempre gli studi sul mondo del lavoro hanno mostrato che nel settore dei servizi la capacità di comunicare bene con l’interno e con l’esterno è, secondo i datori di lavoro, addirittura più importante delle stesse conoscenze disciplinari. Realtà che in Italia si tende a ignorare, ma che penso che spieghi bene il motivo per cui i laureati in Lettere, checché se ne dica, continuano anche da noi a non cavarsela male nel mondo del lavoro anche se non finiscono a fare gli insegnanti. In questo rapporto viene tra l’altro doverosamente presentata una scala delle dieci qualità più importanti che devono avere i candidati a un lavoro (inchiesta NACE, p. 9) e, anche se un po’ mi dispiace che lì la “Ability to create and/or edit written reports” venga piazzata solo al nono posto, la “Ability to verbally communicate with people inside and outside the organization” è addirittura al secondo posto, subito dopo la capacità di lavorare in squadra, più in alto anche di capacità strettamente intrecciate con la scrittura come quella “to plan, organize and prioritize work” (le conoscenze disciplinari sono al settimo...).
 
Un documento molto diverso nello stile, ma vicino a questo nelle conclusioni, è il Valve handbook for new employees 2012, realizzato dalla ben nota casa produttrice di videogiochi (famosa soprattutto per Half-life e per la piattaforma Steam). Il manuale è un perfetto esempio di scrittura “alternativa”, popolare più in America che da noi: invece di essere un pretenzioso documento interno è una lista di suggerimenti ironici su come lavorare in un posto che si vanta di non avere una gerarchia formale, con capi, sottocapi e responsabili, ma in cui ognuno è responsabile di quello che fa e viene giudicato fondamentalmente dai colleghi.
 
In un ambiente del genere la comunicazione è affidata soprattutto ai contatti individuali. O, come dice il testo (p. 9), per avere informazioni sulle attività in corso “There are lists of stuff, like current projects, but by far the best way to find out is to ask people”. La fig. 2-4 di p. 22 elenca i metodi in dettaglio:
 
I metodi per capire che cosa sta succedendo in azienda

Ovviamente io sono un po’ scettico rispetto alla corrispondenza tra ciò che viene descritto qui e ciò che avviene nella realtà. Tuttavia, avendo accumulato ormai un filino di esperienza su come vanno le cose nelle organizzazioni, non ho nessun dubbio sul fatto che la comunicazione personale sia un elemento chiave. Le mie simpatie linguistiche vanno, è ovvio, soprattutto alla scrittura, ma so anche bene che per alcuni compiti l’efficienza di uno scambio a voce non ha uguali. Più in dettaglio, sono convinto, da un lato, che una delle sfide organizzative più grandi sia quella di creare una struttura in cui la gente si parla (arte in cui gli americani sono maestri); e, dall’altro, che la parte più produttiva di molte delle mie giornate standard sia quella passata con i colleghi al bar, davanti a un marocchino appena ricoperto di polvere di cacao.
 

venerdì 9 novembre 2012

Tra uscio e bottega

 
Tipico paesaggio, al rientro verso casa
Hong Kong è decisamente un posto interessante. E anche il modo in cui si muove la gente è interessante. I motorini sono proibiti, le auto private in strada sono pochissime, biciclette in città non ne ho mai viste: o si usano i mezzi pubblici, taxi inclusi, o si va a piedi.
 
Io ho la fortuna di avere un alloggio a poco più di dieci minuti a piedi dal mio ufficio alla Polytechnic University (PolyU), e il mio percorso è, credo, abbastanza indicativo per questo genere di spostamenti. Appena sono arrivato, ho provato a farlo a livello del suolo e ho scoperto che è fisicamente impossibile – le strade sono bloccate con cancellate o muri che impediscono l’attraversamento ai pedoni. A quel punto, mi sono adeguato. È vero che, quando esco dalla porta, giro a destra su un marciapiede “normale”, ancorché tra i grattacieli:


Questo tratto dura però solo poco più di cento metri. Dopodiché, devo salire su una passerella pedonale:


Da quel punto in poi, abbandono definitivamente il livello del suolo. Il passo successivo è, al termine della passerella, l’attraversamento di un semaforo su un incrocio sopraelevato. Dall’altro lato del passaggio si apre un ingresso secondario del centro commerciale Metropolis. Due rampe di scale mobili portano a una galleria di negozi, con bar da architetti dove si paga con liPhone e aria condizionata a 15 gradi…


…, e poi all’atrio principale del centro, dove da qualche giorno è già in preparazione un’installazione natalizia basata su Cars e dotata non solo di tricolore, ma di una grande sagoma con la Torre di Pisa, per la gioia di grandi e piccini:


Fuori dall’atrio c’è un’altra passerella, in discesa, che porta alla stazione di Hung Hom:


Io non entro in stazione, e mi limito a costeggiarla sulla sinistra. Accanto al punto di discesa c’è, del resto, la parte più pittoresca, e più inquietante, del percorso: uno spiazzo tra le scale e la tettoia dei taxi dove, da quando sono arrivato, tutti i giorni si ritrovano dimostranti pro o contro il Falung Gong. Il metodo principale di protesta consiste, sembrerebbe, nello stare seduti a occhi chiusi tra gli striscioni, o nel praticare il tai chi. A volte ci sono i sostenitori, a volte gli avversari (che danno l’idea di essere pagati dal Partito Comunista, o qualcosa di simile), e a volte lo spazio è diviso equamente in due.


Io, devo dire, mi diverto molto agli improbabili slogan degli avversari (“Cherish your life! Falung Gong hoodwinks people and seeks glory in the name of religion!”); ma in ogni caso, costeggiata la stazione, compaiono altre scale e si scende. Altra passerella pedonale, che scavalca il mostruoso traffico che entra ed esce dall’imboccatura del tunnel sottomarino per Victoria:


Questa passerella è un po’ la classica fetta di prosciutto nel panino. C’è il traffico sotto, ma c’è anche il traffico sopra, perché il tetto è in effetti uno svincolo stradale. Comunque, dopo centocinquanta metri o giù di lì il percorso fa una curva, la passerella prosegue verso Mandarin Plaza e io invece stacco a destra, su una più modesta passerellina che è anche il punto di accesso al “Podium”, lo spazio principale della PolyU:


Anche qui non siamo a livello del suolo: il “Podium” è in pratica al secondo piano, e per arrivare occorre scendere parecchio. A livello del suolo, davanti a un pratino interno, c’è però il miglior bar della zona, dotato anche di caffè Illy; e quindi io di solito punto in quella direzione, scendo due rampe di scale e ordino un marocchino. Che qui tende ad assomigliare pericolosamente a un cappuccino grande con un po’ di cioccolato sul fondo, ma insomma, viste le circostanze non mi lamento.
 

giovedì 8 novembre 2012

Quando si è cominciato a mettere le parole in ordine alfabetico?

 
Il trionfo dell’alfabeto latino si porta dietro parecchie conseguenze. Il libro di Ann Blair di cui ho parlato pochi giorni fa dedica ampio spazio a uno strumento di gestione delle informazioni che oggi sembra intuitivo, ma non lo è sempre stato: l’ordine alfabetico. Cioè, banalmente, il prendere parole, o nomi, e scriverli ordinandoli non secondo criteri di coerenza interna, ma in base all’ordine alfabetico dei caratteri che li compongono in sequenza.
 
Certo, oggi i motori di ricerca permettono in molti casi di fare a meno di questo strumento, ma gli impieghi dell’ordine alfabetico sono ancora oggi tanto numerosi da rendere il sistema un punto di riferimento costante. Insomma, più che la sua presenza si nota la sua assenza, come nel caso dei dizionari di caratteri cinesi.
 
Le cose però non sono sempre andate così. Tuttavia, direi che non c’è un’opera di riferimento che racconti questa storia in modo articolato. Alcuni resoconti fanno pensare che l’idea di presentare liste in ordine alfabetico sia un’invenzione dell’età moderna; altri portano più indietro nel tempo. La voce di Wikipedia in lingua inglese dedicata all’ordine alfabetico presenta alcuni casi esemplari in tono dubitativo e basandosi su bibliografia spesso molto invecchiata.
 
Too much to know non tratta sistematicamente dell’ordine alfabetico, ma vi fa riferimento in diversi punti. Poiché il libro si basa su una bibliografia ampia e aggiornata, provo a riassumere qui ciò che viene detto al suo interno.
 
Il primo riferimento che compare nel libro (loc. 435) è quello alle Pinakes della Biblioteca di Alessandria: una bio-bibliografia della letteratura greca che
 
built on preexisting practices of list making (including Aristotle’s pinakes of poets), sorting (such as Theophrastus’s doxographies sorted topically and chronologically), and alphabetizing, the principles of which were likely already understood although they had never been put to such extensive use before.
 
In nota, l'autrice precisa che le fonti per queste informazioni sono: 
  • Rudolf Blum, 1991, Kallimachos: The Alexandrian Library and the Origins of Bibliography, traduzione inglese di Hans H. Wellisch, Madison, University of Wisconsin Press: pp. 226-39, 22-24 (Aristotele), 46 (per Teofrasto)
  • Lloyd W. Daly, 1967, Contributions to a History of Alphabetization in Antiquity and the Middle Ages, Brussels, Latomus, p. 94
  • in generale, Francis J. Witty, 1958, “The Pinakes of Callimachus”, Library Quarterly, 28, pp. 132-136
  • e, sull'ordinamento delle Pinakes, Friedrich Schmidt, 1922, Die Pinakes des Kallimachos, Berlin, Emil Ebering, pp. 90-91. 
Il libro di Blum è quindi la sintesi moderna più recente (l’orginale tedesco è del 1977), che dovrebbe tener conto di tutte le altre. Per fortuna, il testo della traduzione inglese dell’opera si può sbirciare tramite Google Books, e da quel che leggo mi sembra di capire che sia l’inventario della biblioteca, sia il catalogo di copie delle biblioteca sia le Pinakes destinate alla pubblicazione indicizzavano gli autori “by the first letter of their name only” (pp. 233-234; mi chiedo quale sia la fonte di queste informazioni, visto che delle Pinakes sopravvivono solo frammenti, ma questo richiederebbe una lettura più approfondita del testo… per il momento, direi che posso andare sulla fiducia). Basandosi su questo uso, Blum dà poi per scontato “that the principle of alphabetical arrangement was not new but had been used for a long time”, in quanto “the librarian wanted to make it as easy as possible to survey the holdings of the library” (p. 187). In base a tanti anni di esperienza con la creazione di interfacce, io ostenterei meno sicurezza nel fare deduzioni del genere!
 
Comunque, in sintesi, direi che i dati acquisiti sono questi: 
  • l’ordine alfabetico è stato già usato nel mondo antico per fini di ordinamento (origine e diffusione sono più nel vago)
  • il prodotto più famoso di questo genere di lavoro, le Pinakes, ordinava gli elementi solo in base alla prima lettera del nome, senza andare oltre
Blair nota poi, sempre sulla scorta di Blum, che le Pinakes esercitarono un’enorme influenza sulla produzione enciclopedica successiva, incluso il lessico bizantino della Suda (loc. 603), che peraltro, vedo, è strutturato con un sistema alfabetico diverso da quello del semplice ordinamento delle lettere. Nel Medioevo islamico, invece,
 
bibliographies and biografical dictionaries made use of alphabetical order, often within thematic or other systematic categories; alphabetization in dictionaries often followed final rather than first root letter (presumably to aid in finding rhymes). Alphabetization was typically not strict (involving only the first few letters) and might place the Mohammeds first in a list of names for symbolic reasons (loc. 629).
 
Nel Medioevo europeo l’uso dell’ordine alfabetico era abbastanza diffuso. Ann Blair descrive l’uso dell’ordine alfabetico come “already the norm” nei primi dizionari dell’undicesimo secolo (loc. 965), ma nota al tempo stesso che il sistema era incompleto. Per gloria di patria è d’obbligo la citazione delle Derivationes di Uguccione da Pisa, che sono un vocabolario etimologico ordinato solo per la prima lettera, ma anche il lessico di Papia (XI secolo) era ordinato solo in base alle prime tre lettere.
 
Sì, ma qual è il primo esempio di un prodotto completo, in cui i nomi o gli elementi vengono ordinati in base a tutte le lettere che li compongono? Questa informazione non mi sembra venga fornita, o meglio, viene fornita solo per il settore specialistico dei dizionari, in cui Ann Blair dice esplicitamente che il Catholicon di Giovanni Balbi (1286) “was the first Latin dictionary to be completely alphabetized”.
 
Da qui in poi, è un’esplosione. Con tutte le caratteristiche, però, della diffusione di simili pratiche culturali. Per cui, anche se il principio generale era ben noto, le opere che praticano un ordinamento solo in base alle prime lettere continueranno a essere diffuse anche a stampa – e dall’altro lato della barricata, fino al Seicento diversi autori di dizionari riterranno utile spiegare al lettore nelle pagine introduttive il modo giusto per cercare le parole all’interno dell’opera. Cosa che a voce, a scuola, si fa del resto ancora oggi.