Home |  English version |  Mappa |  Commenti |  Sondaggio |  Staff |  Contattaci Cerca nel sito  
Istituto di linguistica computazionale "Antonio Zampolli"

Torna all'elenco Contributi in atti di convegno anno 2017

Contributo in atti di convegno

Tipo: Contributo in atti di convegno

Titolo: How "deep" is learning word inflection?

Anno di pubblicazione: 2017

Formato: Elettronico

Autori: Cardillo, Franco Alberto; Ferro, Marcello; Marzi, Claudia; Pirrelli, Vito

Affiliazioni autori: Istituto di Linguistica Computazionale ILC-CNR, Pisa, Italy

Autori CNR:

  • FRANCO ALBERTO CARDILLO
  • MARCELLO FERRO
  • CLAUDIA MARZI
  • VITO PIRRELLI

Lingua: inglese

Abstract: Machine learning offers two basic strategies for morphology induction: lexical segmentation and surface word relation. The first one assumes that words can be segmented into morphemes. Inducing a novel inflected form requires identification of morphemic constituents and a strategy for their recombination. The second approach dispenses with segmentation: lexical representations form part of a network of associatively related inflected forms. Production of a novel form consists in filling in one empty node in the network. Here, we present the results of a recurrent LSTM network that learns to fill in paradigm cells of incomplete verb paradigms. Although the process is not based on morpheme segmentation, the model shows sensitivity to stem selection and stem-ending boundaries.

Lingua abstract: inglese

Altro abstract: La letteratura offre due strategie di base per l'induzione morfologica. La prima presuppone la segmentazione delle forme lessicali in morfemi e genera parole nuove ricombinando morfemi conosciuti; la seconda si basa sulle relazioni di una forma con le altre forme del suo paradigma, e genera una parola sconosciuta riempiendo una cella vuota del paradigma. In questo articolo, presentiamo i risultati di una rete LSTM ricorrente, capace di imparare a generare nuove forme verbali a partire da forme già note non segmentate. Ciononostante, la rete acquisisce una conoscenza implicita del tema verbale e del confine con la terminazione flessionale.

Lingua altro abstract: italiano

Pagine totali: 6

Rivista:

CEUR workshop proceedings M. Jeusfeld c/o Redaktion Sun SITE, Informatik V, RWTH Aachen.
Paese di pubblicazione: Germania
Lingua: multilingue
ISSN: 1613-0073

Numero volume: 2006

Collana:

CEUR workshop proceedings M. Jeusfeld c/o Redaktion Sun SITE, Informatik V, RWTH Aachen.
Paese di pubblicazione: Germania
Lingua: multilingue
ISSN: 1613-0073

Titolo del volume: Proceedings of the Fourth Italian Conference on Computational Linguistics (CLiC-it 2017)

N. volume della serie/collana: 2006

Curatore/i del volume: R. Basili; M. Nissim; G. Satta

Editore: CEUR-WS.org , Aachen (DEU)

Referee: Sì: Internazionale

Stato della pubblicazione: Published version

Indicizzato da: Scopus [2-s2.0-85037368972]

Parole chiave:

  • LSTM
  • Morphology induction
  • Cognitive modelling

URL: http://www.scopus.com/record/display.url?eid=2-s2.0-85037368972&origin=inward

Congresso nome: Fourth Italian Conference on Computational Linguistics

Congresso luogo: Roma

Congresso data: 11-13/12/2017

Congresso rilevanza: Internazionale

Congresso relazione: Contributo

Altre informazioni: ISSN 1613-0073

Strutture CNR:

Moduli:

Allegati: How "deep" is learning word inflection? (application/pdf)
CLiC-it_2017_paper75

 
Torna indietro Richiedi modifiche Invia per email Stampa
Home Il CNR  |  I servizi News |   Eventi | Istituti |  Focus