Chi sono

Dopo essere stato folgorato dal fascino dell'Intelligenza Artificiale grazie alla mia prima esperienza in Parsit, ho continuato ad approfondire le mie conoscenze in questo campo applicandole all'Elaborazione del Linguaggio Naturale (NLP) grazie all'aiuto e all'esperienza di Matteo Grella, fino ad ottenere il mio attuale impiego presso Advanced Analytics, dove mi occupo di ricerca e sviluppo di algoritmi di Intelligenza Artificiale e reti neurali applicati all'analisi di testi in linguaggio naturale.
Ho potuto inoltrarmi in questa complicata realtà lavorativa grazie alle competenze ottenute durante il mio percorso di laurea in Ingegneria Informatica presso il Politecnico di Torino.

Posizione lavorativa attuale

Sviluppatore software presso Advanced Analytics GmbH.

Luogo

Torino, Italia - Konstanz, Germania.

Esperienze lavorative

ADVANCED ANALYTICS
[2015 - now]
Un'azienda tedesca che opera nel campo dell'intelligence cognitiva e fornisce strumenti che usano processi semantici per analizzare dati strutturati e non, provenienti da diversi tipi di sorgenti come i Social Media, l'informazione Open Source, dati di analisti e molte altre.

DAMANTIC
[2014 - 2015]
Sorta dalle fondamenta di Parsit, il backgroud tecnologico di Damantic offre software di analisi del testo all'avanguardia, in grado di comprendere testi scritti in linguaggio naturale (Italiano, Inglese, Spagnolo, Francese e Tedesco) e affrontare le sfide dei Big Data, offrendo soluzioni tecnologiche avanzate.

PARSIT
[2014]
Una startup italiana fondata da Matteo Grella e Marco Nicola. È la prima iniziativa che dà un valore commerciale e industriale ai risultati del loro lavoro di ricerca nel campo dell'Elaborazione del Linguaggio Naturale (NLP).

Pubblicazioni

Non-Projective Dependency Parsing via Latent Heads Representation (LHR)
[Matteo Grella e Simone Cangialosi - 2018]
Abstract: In this paper we introduce a novel approach based on a bidirectional recurrent autoencoder to perform globally optimized non-projective dependency parsing via semisupervised learning. The syntactic analysis is completed at the end of the neural process that generates a Latent Heads Representation (LHR), without any algorithmic constraint and with a linear complexity. The resulting “latent syntactic structure” can be used directly in other semantic tasks. The LHR is transformed into the usual dependency tree computing a simple vectors similarity. We believe that our model has the potential to compete with much more complex state-of-the-art parsing architectures.