Visualizzazione post con etichetta HaPoC. Mostra tutti i post
Visualizzazione post con etichetta HaPoC. Mostra tutti i post

martedì 13 ottobre 2015

HaPoC 2015

  
 
HaPoC 2015: logo di Elisabetta Mori
Alla fine della scorsa settimana sono stato molto impegnato con il convegno HaPoC 2015, di cui ero uno degli organizzatori. I convegni HaPoC (History and Philosophy of Computing) hanno cadenza biennale; l’ultimo si è tenuto appunto a Pisa dall’8 all’11 ottobre e mi sembra che abbia retto bene il confronto con i precedenti incontri di Ghent (2011) e Parigi (2013).
 
In sostanza, si è trattato di quattro giorni di interventi sulla storia e sulla filosofia dell’informatica… io mi piazzo saldamente dal lato della storia, e della storia esterna, ma questa è solo una delle tante angolazioni da cui è stata affrontata la materia. Senza nulla togliere agli altri, per ovvi motivi di ricerca per me è stato comunque particolarmente interessante un intervento di Federico Nanni e Rudi Bonfiglioli, From Close to Distant and Back: how to read with the help of machines.

Per quanto riguarda i numeri, in totale hanno partecipato ad HaPoC 32 relatori, in buona parte provenienti dall’Europa settentrionale. Sede del convegno, il Museo degli strumenti per il calcolo, che fa parte della rete museale dell’Università di Pisa.
 
In attesa di pensare alla pubblicazione degli atti, al momento del convegno sono usciti a cura di Fabio Gadducci e mia i “pre-proceedings”: Fabio Gadducci e Mirko Tavosanis (a cura di), Preliminary Proceedings of the Third International Conference on the History and Philosophy of Computing (HaPoC 2015), Pisa, Pisa University Press, 2015, pp. VIII + 95, ISBN 978-88-6741-576-2, € 7.
 

mercoledì 30 ottobre 2013

A Parigi con Licklider

 
 
La locandina di HaPoC all'Ecole Normale Superieure
In questi giorni sono a Parigi per partecipare al convegno HaPoC – History and Philosophy of Computing. La partecipazione non solo da parte italiana, ma anche solo da parte pisana (e dintorni) è sorprendentemente entusiasta… sono presenti anche Fabio Gadducci, Giovanni Cignoni ed Elisabetta Mori, che hanno fatto due ottimi interventi sulla storia dell’informatica in Italia.
 
Io invece ho parlato del lavoro di J. C. R. Licklider, e in particolare del suo libro Libraries of the Future (1965), che mi sembra la prima descrizione dettagliata di un progetto di sistema informatico destinato non solo ad archiviare, ma anche ad elaborare la conoscenza umana depositata in libri e articoli scientifici. Un ringraziamento particolare in proposito va ad Elisa Bianchi e Simona Turbanti, che gentilmente mi hanno fornito indicazioni molto utili sul rapporto tra il progetto di Licklider e le attuali tecnologie del web semantico (in particolare RDF e OWL).
 
Come mai sono ritornato fino a Licklider? Beh, negli ultimi anni mi sto interessando molto alla storia dell’informatica perché presenta molti sistemi di interazione che negli anni sono stati abbandonati a favore di un modello molto ristretto. Adesso si può sperimentare con maggiore libertà – anche dal punto di vista dell’hardware – ma mi sembra che ci sia una scarsa produzione di concetti veramente nuovi… tornare indietro può essere illuminante.
 
D’altra parte, nel caso di Licklider uno dei concetti di base non è, ahimè, recuperabile, perché si basa su un percorso di ricerca che non ha compiuto progressi significativi: l’analisi del linguaggio naturale. La speranza espressa dall’autore era che, semplicemente, fosse possibile tradurre con facilità un testo dall’inglese tecnico a un “unambiguous English” elaborabile in automatico. O meglio, gli esseri umani avrebbero potuto scrivere direttamente in “unambiguous English” oppure tradurre in questa lingua (facendosi aiutare da computer e controllando poi la traduzione con gli autori del testo originale… Licklider si spinge fino a stimare che un articolo di dieci pagine avrebbe potuto essere controllato attraverso una riunione lunga solo un’ora!).
 
Naturalmente il problema qui è alla radice. Il linguaggio umano, incluso quello dei testi tecnici, non può essere facilmente trasformato in linguaggio formalizzato. Le ambiguità sono frequentissime e scioglierle formalmente richiede uno sforzo enorme – e a occhio molto superiore, nella maggior parte dei casi, ai vantaggi che si possono avere da una traduzione su cui le macchine possono lavorare. Stato di cose che viene confermato, su un altro versante, dall’impossibilità pratica per gli esseri umani di parlare lingue molto formalizzate, a cominciare dal lojban.
 
Creative Commons License
Blog di Mirko Tavosanis by http://linguaggiodelweb.blogspot.com is licensed under a Creative Commons Attribuzione-Non opere derivate 2.5 Italia License.