Venerdi 2 Ottobre 2020, Piero Cornice di Signal AI ci ha raccontato da Londra la sua esperienza da Software Engineer incaricato di mettere in produzione in real time i modelli di NLP realizzati dal team di Data Scientists dell’azienda. La sfida è tecnica ma anche umana.
Piero Cornice è Technical Lead a Signal AI , un’azienda britannica che si occupa di aumentare il potere decisionale dei propri clienti estraendo informazioni da notizie in tempo reale. Ingegnere informatico con un background in sistemi embedded e media streaming, negli ultimi anni ha lavorato su sistemi di raccomandazione e Natural Language Processing.
La Data Platform di Signal AI processa oltre 4 milioni di documenti al giorno, analizzando in tempo reale entità, argomenti, sentimenti, e altri fattori. Allo stesso tempo tale infrastruttura consente di sviluppare e sperimentare agilmente nuovi modelli di machine learning.
Estrarre informazioni automaticamente da un grande volume di testi in tempo reale presenta sfide su più livelli. In Signal AI abbiamo individuato due aspetti fondamentali per affrontarle: le scelte tecnologiche e la collaborazione tra ingegneria e ricerca.
Le scelte tecnologiche richiedono di bilanciare l’adozione di soluzioni off-the-shelf con lo sviluppo di tool specializzati. La collaborazione tra ricercatori e ingegneri gioca un ruolo vitale per l’innovazione e la velocità con cui temi di ricerca possono trovare uno sbocco applicativo. Tuttavia non è facile trovare un punto d’incontro tra i processi della ricerca e quelli della messa in produzione.
Questo intervento descrive le principali soluzioni tecniche e organizzative che hanno permesso al team di raggiungere tali risultati, con l’obiettivo di condividere le lezioni imparate lungo il percorso.
Il decimo meetup di datascienceseed è stato ospitato nel contesto del C1A0 EXPO – Accessible Innovation, la fiera internazionale dedicata all’Intelligenza Artificiale, che si à svolta a Genova il 15-16 novembre 2019, a Palazzo San Giorgio.
Abbiamo avuto il piacere di ospitare tre relatori selezionati con call nazionale nei mesi scorsi. Il risultato è stata una carrellata approfondita tra le applicazioni principali del deep learning:
Natural Language Processing, con Cristiano De Nobili
Internet Of Things, con Emanuele Pomante
Computer Vision, con Alessandro Ferrari
Di seguito i video ed il materiale degli interventi!
State-of-the-art concepts in NLP and their limits
Come una macchina può comprendere il linguaggio? Quali erano e come stanno evolvendo gli algoritmi? Quali sono i successi e soprattutto i limiti? Alla base dei moderni algoritmi di deep learning per il linguaggio ci sono dei meccanismi molto semplici che hanno rivoluzionato il settore. Tra questi troviamo il concetto di Autoencoder e il meccanismo di Attenzione. Comprenderne la struttura, la base teorica che poi invoca la teoria dell’informazione classica è sia utile che interessante. L’idea è di mostrare con esempi semplici questi concetti ed enfatizzarne le applicazioni. Queste vanno dalla traduzione, alla generazione di testi fino alla diagnosi di malattie neurodegenerative. Ci sono però anche dei limiti, problemi che difficilmente una macchina è in grado di risolvere e che invece il nostro cervello comprende (quasi) al volo. E’ proprio navigando in questi limiti dell’intelligenza artificiale che comprendiamo quanto la nostra mente, oltre ad essere fonte di ispirazione per la ricerca, sia straordinaria.
Cristiano De Nobili è un fisico teorico delle particelle, con un Ph.D. in fisica statistica alla SISSA di Trieste. Partendo dalla computer vision, ora è scienziato senior di Deep Learning nel team AI che lavora attivamente sul linguaggio intelligente presso Harman, una società Samsung. Cristiano è anche istruttore di Machine / Deep Learning per Deep Learning Italia, per AINDO (Trieste) e recentemente anche per il Master in High Performance Computing (SISSA / ICTP) tenutosi a Trieste.
Applicazione su sensoristica IoT di reti neurali per la predizione
Le reti neurali possono essere utilizzate per apprendere pattern ricorrenti su sequenze temporali di misure fisiche da sensoristica IoT. Nel caso d’uso che esamineremo, la rete neurale viene utilizzata per prevedere il consumo di energia elettrica di un edificio e monitorare il comportamento dei sensori IoT, con gli obiettivi di ottimizzare i consumi a partire dalle previsioni e di identificare la presenza di anomalie nei consumi o nel comportamento dei sensori. Le principali caratteristiche che rendono le reti neurali preferibili rispetto ad altri sistemi “classici” sono la capacità di adattarsi al compito e al contesto in cui operano e la loro velocità di esecuzione. Nell’ambito delle nuove sfide da affrontare per poter sfruttare a pieno le potenzialità offerte dall’intelligenza artificiale nel mondo dell’IoT, ci proponiamo di estendere i modelli di rete neurale a scenari più complessi (multi-edificio e multi-sensore) e implementare algoritmi “embedded” che consentano di fare inferenza direttamente sui device riducendo latenze ed instabilità di un sistema di machine learning.
Emanuele Pomante ha un dottorato in fisica all’università di Trieste, con studi focalizzati sull’analisi e sull’elaborazione di segnali spettrali molto deboli di origine astrofisica. Nel 2017 a Londra ha preso parte ad un programma intensivo di Data Science rivolto ai dottori di ricerca grazie al quale ha ottenuto il suo primo incarico in un progetto di AI presso un’azienda di Londra.
Dal 2018 è Data Scientist presso Gruppo Filippetti azienda leader in Italia per le tecnologie di smart safety, nei settori dell’ Internet of Things e dell’ Industria 4.0.
L’evoluzione della computer vision nell’era neurale: scienza & impresa
Nel corso di questo intervento esamineremo l’evoluzione del paradigma di detection, tracking e classification in computer vision: partendo dalla localizzazione di oggetti fino alla generazione di contenuti sintetici, con un excursus finale sugli “adversarial attack” anni ’90 (non “neurali”). Il caso d’uso che considereremo è CyclopEye, una Smart parking solution basata su reti neurali. CyclopEye è una soluzione personalizzabile e a basso costo per parcheggi intelligenti: consiste in un sensore video in grado di controllare lo stato occupazionale fino a sei posti auto contemporaneamente e di segnalarlo all’utente. Cyclopeye inoltre sfrutta la computer vision per fornire supporto alla gestione del parcheggio con funzionalità aggiuntive come: lettura targhe, riconoscimento oggetti abbandonati, parcheggio abusivo, riconoscimento volti, find-your-car e molti altri ancora. In altre parole una tecnologia che aiuta sia gli automobilisti che stanno cercando parcheggio, sia i responsabili dei parcheggi, che possono così monitorare lo stato della loro area controllando gli ingressi, identificando le categorie di veicoli che circolano e rilevando eventuali violazioni.
Alessandro Ferrari ha una Laurea Magistrale in Informatica e 10+ anni di esperienza in Computer Vision e del Machine Learning, con particolare attenzione a localizzazione, tracking e riconoscimento di oggetti. Nel 2016 fonda ARGO Vision (www.argo.vision), una startup innovativa che sviluppa soluzioni proprietarie AI-based per diversi mercati (AR, VR, Smart Parking, etc.).