venerdì 24 luglio 2020

Tavosanis, Misurazione del lessico specialistico nei sistemi per il trattamento automatico del parlato

  
 
Copertina di: Linguaggi settoriali e specialistici
Ho appena ricevuto una copia del corposo volume Linguaggi settoriali e specialistici curato da Jacqueline Visconti, Manuela Manfredini e Lorenzo Coveri. Il volume presenta gli atti del XVI congresso della Società Internazionale di Linguistica e Filologia Italiana, tenuto a Genova nel 2018, e al suo interno c’è anche un mio contributo.
 
Il contributo è dedicato alla Misurazione del lessico specialistico nei sistemi per il trattamento automatico del parlato. In pratica, presenta i risultati di due indagini sul modo in cui la terminologia specialistica in italiano viene gestita dai sistemi commerciali di riconoscimento del parlato.
 
La prima indagine ha riguardato la capacità di definizione di terminologia specialistica da parte di Google Home: su 21 termini selezionati a caso nel dizionario di De Mauro, per 13 è stata fornita la definizione corretta; per 8 è stata fornita la definizione di una parola sbagliata ma affine foneticamente; per 4 è stato fornito un messaggio di errore. Non c’è niente di sorprendente in questo, visto che spesso anche gli esseri umani, fuori contesto, hanno problemi a decidere se una richiesta di chiarimento riguarda la catàstasi o la catarsi, il floccaggio o il bloccaggio, il widia o la lìbia, ‘donna libica’. Semmai, migliorare la capacità di definizione richiede fare ricorso a una base dati più ampia (questa funzione di Google si basa sul dizionario Devoto-Oli ripreso da WordReference). Inoltre, i dubbi di pronuncia potrebbero venir risolti spiegando chiaramente all’utente che può dettare le parole lettera per lettera (una possibilità già attiva); e questo è solo un problema di interfaccia, non di distanza dalla prestazione umana.
 
La seconda indagine ha riguardato la trascrizione attraverso le Google Cloud Speech API di due video tutorial tecnici pubblicati su YouTube. I video riguardavano rispettivamente:


In entrambi i video, la registrazione è semiprofessionale e i parlanti presentano un accento regionale non forte ma ben percepibile. Il WER complessivo, cioè il numero di parole trascritte male, o non trascritte, è stato del 21,8% in un caso, del 12,3% dell'altro, ma il grosso degli errori riguarda interiezioni o parole poco rilevanti. Per quanto riguarda la terminologia, invece, gli errori sono stati pari solo al 6,25% nel primo caso e assenti nel secondo. Questo è molto incoraggiante per quanto riguarda le possibilità di sottotitolatura automatica… che del resto, nel frattempo, sono state potenziate da Google proprio su YouTube (le mie misurazioni risalgono al 2018, e spero che adesso il livello sia più alto).
 
In conclusione, la terminologia sembra gestita da questi strumenti in modo soddisfacente quando è presentata in un contesto. In ciò non c’è nulla di sorprendente; però, per valutare davvero la qualità, e capire se ci sono sviluppi interessanti o meno, è importante fare valutazioni quantitative ed esaustive.
 
Mirko Tavosanis, Misurazione del lessico specialistico nei sistemi per il trattamento automatico del parlato, in Linguaggi settoriali e specialistici. Sincronia, diacronia, traduzione, variazione. Atti del XV Congresso SILFI – Società Internazionale di Linguistica e Filologia Italiana (Genova, 28-30 maggio 2018), a cura di Jacqueline Visconti, Manuela Manfredini e Lorenzo Coveri, Firenze, Cesati, 2020, pp. 451-456, € 45, ISBN 978-88-7667-817-2. Copia autore ricevuta dall’editore.
 
Creative Commons License
Blog di Mirko Tavosanis by http://linguaggiodelweb.blogspot.com is licensed under a Creative Commons Attribuzione-Non opere derivate 2.5 Italia License.