Al prossimo meetup, venerdi 7 maggio a partire dalle ore 18:00, parleremo di un tema “green” ovvero Economia Circolare e Intelligenza Artificiale. Ne discuteremo con Giorgio Spreafico e Daniele Bonventre di algoWatt S.p.A., green tech solution company che progetta, sviluppa e integra soluzioni per la gestione dell’energia e delle risorse naturali.
Registrati come al solito su eventbrite per ricevere il link all’evento online:
Giorgio e Daniele ci parleranno di soluzioni innovative basate su reti neurali per il supporto alle decisioni nella cosiddetta “biodigestione” di rifiuti solidi urbani.
Un biodigestore è un impianto che funziona trasformando la frazione organica di rifiuti solidi urbani (FORSU) e altre matrici organiche, i quali vengono miscelati con batteri per ottenere biogas (una miscela di diversi tipi di gas composti in prevalenza da metano ed anidride carbonica) tramite un processo di fermentazione in condizioni di assenza di ossigeno e, come residuo, producendo del compost di qualità da utilizzare in agricoltura o compost grigio per la riambientazione di emergenze ambientali
Questi impianti possono essere considerati come fonti di energia rinnovabile, riducendo l’emissione di gas serra. Il recupero energetico dalla produzione di biogas da parte di un biodigestore può arrivare a diversi GWh/anno, producendo milioni di metri cubi di biogas, facendo risparmiare ogni anno milioni tonnellate di CO2 e riducendo il consumo di suolo per lo smaltimento dei rifiuti.
In un primo intervento, Giorgio ci introdurrà l’argomento e le problematiche collegate, seguito da Daniele che invece ci racconterà qualche dettaglio in più dal punto di vista tecnico sulle soluzioni adottate.
Giorgio Spreafico Laurea magistrale in Fisica, ha pluridecennale esperienza di modellistica nei settori ambientali e industriale e di modellazione geostatistica. Attualmente è il responsabile della Divisione Prodotti di algoWatt.
Daniele Bonventre Ha una Laurea magistrale in Fisica presso l’Università degli Studi di Genova. Ha lavorato due anni presso i laboratori Smart Materials dell’Istituto Italiano di Tecnologia ed ora, in qualità di Data Scientist, si occupa dello sviluppo di prodotti basati su Intelligenza Artificiale ed algoritmi di analisi tensoriale.
algoWatt S.p.A. progetta, sviluppa e integra soluzioni per la gestione dell’energia e delle risorse naturali, in modo sostenibile e socialmente responsabile, garantendo un vantaggio competitivo. La Società fornisce sistemi di gestione e controllo che integrano dispositivi, reti, software e servizi con una chiara focalizzazione settoriale: digital energy e utilities, smart cities & enterprises e green mobility.
Cosa è Apache Spark? Sicuramente una delle più inflazionate buzzword nel mondo del Big Data Analytics ma soprattutto un consolidato standard per il Massive Parallel Processing.
Nel mondo dello streaming tanti sono i competitor ma quando si parla di batch processing, “no way” Spark è un must assoluto. Ci piace definire Spark un ecosistema!
Infatti, grazie alle funzionalità ad esso collegate, come MlLib, Hive, Delta e tante altre rende possibile lo sviluppo di una pipeline end-to-end di dato partendo dall’ingestion, fino alla visualization passando per il Machine Learning. La combinazione di Spark con le sue tecnologie satellite spinge ad un altro livello lo sviluppo di datalake aziendali che permettano una gestione ottimale anche in use case tipici dei classici DWH ma su di una architettura open source molto più economica.
Vediamo insieme come l’ecosistema Spark può essere impiegato per estrarre valore da massive moli di dato sfruttandone al massimo le potenzialità tecniche e commerciali.
Andrea Picasso è un Senior Big Data Engineer presso NTTData. Il suo background accademico è in ingegneria del software con specializzazione in Big Data architecture e Machine Learning modeling. Andrea ha preso parte in progetti di ricerca nel mondo dell’intelligenza artificiale nel periodo in cui si trovava a Singapore. Tornato in Italia circa 2 anni fa si è concentrato nell’applicare la sua conoscenza nel mondo dell’industria del Big Data. Le sue attività principali sono il design e lo sviluppo di architetture Big Data per workflow di ETL ed Analytics. Il suo focus tecnologico verte principalmente su tool per il processing distribuito di dato come Spark e Flink, inoltre è un grande promoter del paradigma di programmazione funzionale e del linguaggio Scala.
Il primo meetup Online del 2021 per DataScienceSeed, si è svolto Venerdi 22 Gennaio dalle 18 in poi, tutto dedicata al Reinforcement Learning, uno dei tre paradigmi principali del machine learning (oltre al supervised e all’unsupervised ML) in grado di risolvere problemi decisionali complessi.
Lo scopo del Reinforcement Learning consiste nel realizzare agenti autonomi capaci di apprendere comportamenti complessi tramite ripetute interazioni di tipo “trial and error” con un ambiente dinamico in cui sono immersi.
Le azioni vengono valutate tentando di massimizzare un valore numerico di “reward” (ricompensa), in modo di premiare quei comportamenti dell’agente che ottimizzano gli obiettivi prefissati, ed allo stesso tempo penalizzare quei comportamenti che allontanano l’agente da questi obiettivi.
Per questo meetup, abbiamo ripreso il filo dall’evento organizzato Martedi 14 Gennaio da Cagliari Machine Learning Meetup e Italian Association for Machine Learning, dove Alessandro oltre ad introdurre l’argomento del Reinforcement Learning ci ha parlato della piattaforma Diambra, un luogo virtuale in cui osservare agenti di Reinforcement Learning crescere e imparare, combattere l’uno contro l’altro o contro gli umani.
I giochi in ambienti simulati sono ideali per ed affilare gli algoritmi di Reinforcement Learning, ma non ci fermiamo a questo: Durante il 7 meetup Online di DataScienceSeed abbiamo approfondito l’argomento parlando delle numerose possibili applicazioni in ambito industriale e commerciale, così come di quelle in campo militare, tra le quali ce ne sono molto di interessanti e promettenti.
Qui trovate il video del meetup:
Mentre quello qui di seguito è il video dell’incontro di Martedi 14 Gennaio:
Alessandro Palmas è un ingegnere aerospaziale con più di 8 anni di esperienza nello sviluppo di software per applicazioni scientifiche avanzate e sistemi software complessi. In qualità di responsabile R&D in una PMI italiana in campo aerospaziale e difesa, coordina progetti in contesti che vanno dalle dinamiche del volo spaziale ai sistemi autonomi basati sull’apprendimento automatico. Il suo obiettivo principale nel ML è il deep reinforcement learning, la visione artificiale e modelli 3D. Ha fondato iniziative innovative, l’ultima delle quali è Artificial Twin, che fornisce tecnologie avanzate per il machine learning, la modellazione fisica e le applicazioni di geometria computazionale. Due aree chiave in cui si concentra l’attuale lavoro di Artificial Twin Deep RL sono l’intrattenimento con videogiochi e i sistemi di guida, navigazione e controllo.
Torniamo in UK ad incontrare Pier Paolo Ippolito, Freelance data scientist con un portafoglio di competenze impressionante e la passione per la divulgazione. Ci parlerà di un tema importante nel Machine Learning: distinguere le cause dalle correlazioni, con un esempio purtroppo sempre alla ribalta, legato alla diffusione delle epidemie.
Al giorno d’oggi le tecnologie di Machine Learning si basano solo sulle correlazioni tra le diverse “features”. Ció nonostante, questo approccio può eventualmente portare a conclusioni errate poiché correlazioni non implicano necessariamente causalità.
Come esempio di questo studio di ricerca, Pier Paolo ha creato e distribuito una suite di modelli “agent based” e comportamentali al fine di simulare gli sviluppi di malattie epidemiche in diversi tipi di comunità.
Nel meetup quindi, oltre ad imparare qualcosa sul tema del causal reasoning, esploreremo un esempio molto concreto, sviluppato in open source e disponibile come applicazione web.
Pier Paolo Ippolito è un SAS Data Scientist e MSc in Intelligenza Artificiale laureato presso l’Università di Southampton. Ha un forte interesse per i progressi dell’IA e le applicazioni di apprendimento automatico. Al di fuori del suo lavoro, è uno scrittore per Towards Data Science e un Kaggle Contributor.
Nicolò Annino ci racconta la sua esperienza di ingegnere ed imprenditore nel progettare sistemi di Machine Learning per le piccole e medie imprese e per la PA in Italia, vivendo sulle nuvelo del Cloud e sulla terra di confine dell’Edge.
L’evento è collegato a C1A0 Expo 2020 – La fiera internazionele dell’AI di Genova
Può una piccola azienda contribuire ad influenzare ed ispirare le modalità di sviluppo di un intero paese?
Per rispondere affrontiamo con un viaggio tra tecnologia e opportunità, dove per realizzare sistemi complessi servono competenza, rapidità ed intuizione. Tra sistemi di produzione e di fund raising parleremo di come il Machine learning può entrare nelle PMI e nella Pubblica Amministrazione anche senza “santi in paradiso”.
Nella seconda parte della chiacchierata si affronta il problema dell’organizzazione di un progetto di AI dal punto di vista del Team. Nicolò Annino, dopo la laurea con tesi in bio-robotica ha fondato varie società tra cui la Idealarm Ltd, che oggi è attivamente impegnata nello sviluppo di sistemi di sicurezza avanzati per il contrasto alla criminalità ed al terrorismo. La società ha un focus specifico nella computer-vision e machine learning, vantando numerose invenzioni ed innovazioni che le hanno permesso di veder adottati i suoi sistemi più innovativi in ambito militare,in particolari settori di sicurezza nazionale, oltre a numerose applicazioni specifiche per le forze dell’ordine.Ha fondato la social community Machine Learning Italia,coinvolgendo oltre 3000 tra docenti, ricercatori, professionisti e studenti di Machine Learning ed Intelligenza Artificiale ed è cofondatore del guppo Machine Learning Catania che organizza seminari ed eventi di divulgazione scientifica in Sicilia orientale. E’ consulente tecnico per editori italiani nello sviluppo di sistemi di Intelligenza Artificiale applicata alla profilazione utente, analisi dati e processing del linguaggio naturale e supporta come mentor di varie startup ed aziende.
Venerdi 23 Ottobre 2020 sempre a partire dalle 18:00, DataScienceSeed è tornato questa volta in versione internazionale, completamente in inglese, con degli ospiti di eccezione dagli U.S.!
The First internation DataScienceSeed event, in our 4th online meetup we have had the pleasure to meet the Linux Foundation AI, part of the Linux Foundation. Their mission is to build and support an open AI community, and drive open source innovation in the AI, ML and DL domains by enabling collaboration and the creation of new opportunities for all the members of the community.
We started from an intro to LFAI, then we dig deeper in two of their projects, touching technical and ethical topics. Two sides of the same coin of Artificial Intelligence, now and more and more in the future.
LF AI and Open Source: Accelerating Innovation in the AI Market
Over the past two decades, open source software — and its collaborative development model — has disrupted multiple industries and technology sectors, including the Internet/web, telecom, and consumer electronics. Today, large scale open source projects in new technology sectors like blockchain and artificial intelligence are driving the next wave of disruption in an even broader span of verticals ranging from finance, energy and automotive to entertainment and government.
In this talk, Dr. Haddad provided a quick overview of the efforts of the LF AI Foundation in supporting the development, harmonization, and acceleration of open source AI projects and how to get involved.
Ibrahim Haddad (Ph.D.) is the Executive Director of the LF AI Foundation. Prior to the Linux Foundation, Haddad served as Vice President of R&D and Head of the Open Source Division at Samsung Electronics. Throughout his career, Haddad has held several technology and portfolio management roles at Ericsson Research, the Open Source Development Lab, Motorola, Palm and Hewlett-Packard. He graduated with Honors from Concordia University (Montréal, Canada) with a Ph.D. in Computer Science, where he was awarded the J. W. McConnell Memorial Graduate Fellowship and the Concordia University 25th Anniversary Fellowship.
End-to-End Deep Learning Deployment with ONNX
A deep learning model is often viewed as fully self-contained, freeing practitioners from the burden of data processing and feature engineering. However, in most real-world applications of AI, these models have similarly complex requirements for data pre-processing, feature extraction and transformation as more traditional ML models.
Any non-trivial use case requires care to ensure no model skew exists between the training-time data pipeline and the inference-time data pipeline. This is not simply theoretical – small differences or errors can be difficult to detect but can have dramatic impact on the performance and efficacy of the deployed solution. Despite this, there are currently few widely accepted, standard solutions for enabling simple deployment of end-to-end deep learning pipelines to production.
Recently, the Open Neural Network Exchange (ONNX) standard has emerged for representing deep learning models in a standardized format. While this is useful for representing the core model inference phase, we need to go further to encompass deployment of the end-to-end pipeline. In this talk Nick introduced ONNX for exporting deep learning computation graphs, as well as the ONNX-ML component of the specification, for exporting both “traditional” ML models as well as common feature extraction, data transformation and post-processing steps. He covered how to use ONNX and the growing ecosystem of exporter libraries for common frameworks (including TensorFlow, PyTorch, Keras, scikit-learn and Apache SparkML) to deploy complete deep learning pipelines. Finally, I will explore best practices for working with and combining these disparate exporter toolkits, as well as highlight the gaps, issues and missing pieces to be taken into account and still to be addressed.
Nick Pentreath (Open Source Developer, Developer Advocate) – Principal Engineer, IBM CODAIT – Nick is a Principal Engineer at IBM. He is an Apache Spark committer and PMC member and author of Machine Learning with Spark. Previously, he co-founded Graphflow, a startup focused on recommendations and customer intelligence. He has worked at Goldman Sachs, Cognitive Match, and led the Data Science team at Mxit, Africa’s largest social network. He is passionate about combining commercial focus with machine learning and cutting-edge technology to build intelligent systems that learn from data to add business value.
AI Fairness 360 – an open source toolkit to mitigate discrimination and bias in machine learning models
Machine learning models are increasingly used to inform high-stakes decisions. Discrimination by machine learning becomes objectionable when it places certain privileged groups at the systematic advantage and certain unprivileged groups at a systematic disadvantage. Bias in training data, due to prejudice in labels and under -or oversampling, yields models with unwanted bias. The AIF360 R package is a R interface to AI Fairness 360 – a comprehensive toolkit that provides metrics to check for unwanted bias in datasets and machine learning models and state-of-the-art algorithms to mitigate such bias. This session explored the metrics and algorithms provided in AI Fairness 360 toolkit, as well as a hands-on lab in R.
Saishruthi Swaminathan (Developer Advocate, Open Source Developer) is a developer advocate and data scientist in the IBM CODAIT team whose main focus is to democratize data and AI through open source technologies. She has a Masters in Electrical Engineering specializing in Data Science and a Bachelor degree in Electronics and Instrumentation. Her passion is to dive deep into the ocean of data, extract insights and use AI for social good. Previously, she was working as a Software Developer. On a mission to spread the knowledge and experience, she acquired in her learning process. She also leads education for rural children initiative and organizing meetups focussing women empowerment.
Venerdi 2 Ottobre 2020, Piero Cornice di Signal AI ci ha raccontato da Londra la sua esperienza da Software Engineer incaricato di mettere in produzione in real time i modelli di NLP realizzati dal team di Data Scientists dell’azienda. La sfida è tecnica ma anche umana.
Piero Cornice è Technical Lead a Signal AI , un’azienda britannica che si occupa di aumentare il potere decisionale dei propri clienti estraendo informazioni da notizie in tempo reale. Ingegnere informatico con un background in sistemi embedded e media streaming, negli ultimi anni ha lavorato su sistemi di raccomandazione e Natural Language Processing.
La Data Platform di Signal AI processa oltre 4 milioni di documenti al giorno, analizzando in tempo reale entità, argomenti, sentimenti, e altri fattori. Allo stesso tempo tale infrastruttura consente di sviluppare e sperimentare agilmente nuovi modelli di machine learning.
Estrarre informazioni automaticamente da un grande volume di testi in tempo reale presenta sfide su più livelli. In Signal AI abbiamo individuato due aspetti fondamentali per affrontarle: le scelte tecnologiche e la collaborazione tra ingegneria e ricerca.
Le scelte tecnologiche richiedono di bilanciare l’adozione di soluzioni off-the-shelf con lo sviluppo di tool specializzati. La collaborazione tra ricercatori e ingegneri gioca un ruolo vitale per l’innovazione e la velocità con cui temi di ricerca possono trovare uno sbocco applicativo. Tuttavia non è facile trovare un punto d’incontro tra i processi della ricerca e quelli della messa in produzione.
Questo intervento descrive le principali soluzioni tecniche e organizzative che hanno permesso al team di raggiungere tali risultati, con l’obiettivo di condividere le lezioni imparate lungo il percorso.
Continuano gli incontri online di DataScienceSeed, la 2a edizione ha avuto luogo Mercoledi 17 Giugno a partire dalle 18:30. A seguito della vittoria nella UNOSAT AI4EO Challenge, Cristiano Nattero, Andrea Rapuzzi e Marco Chini ci hanno raccontato la loro esperienza alle prese con questa entusiasmante sfida.
Il Challenge è stato lanciato da UNOSAT, un importante programma delle Nazioni Unite per fornire analisi di immagini satellitari, insieme a ESA e CERN openlab ed era volto realizzazione di una soluzione AI4EO (Artificial Intelligence for Earth Observation) per il rilevamento di impronte di edifici in Iraq, allo scopo supportare il governo locale nella pianificazione di attività di ricostruzione e sviluppo nell’area.
Come hanno affrontato Cristiano, Andrea e Marco le differenti fasi della gara (segmentazione semantica e per istanze di aree urbane in immagini satellitari)? Perchè l’Earth Observation (EO) sta diventando un tema sempre più centrale dell’AI? Quali sono i suoi aspetti peculiari e le sue sfide originali (piattaforme, problematiche specifiche, algoritmi)?
Cristiano Nattero ha un dottorato di ricerca in Ingegneria Matematica e Simulazione, ed un forte background in ottimizzazione combinatoria. Oggi è senior developer in FadeOut Software, dove si occupa principalmente di WASDI, una piattaforma web distribuita a supporto di chi fa analisi di immagini satellitari.
Marco Chini, ingegnere elettronico, ha un dottorato in geofisica. Dal 2013 lavora al Luxembourg Institute of Science and Technology. Tra il 2003 ed il 2012 ha collaborato con il Dipartimento di Ingegneria dell’Informazione, Elettronica e Telecomunicazioni all’Università La Sapienza. Tra il 2006 ed il 2008 è stato Visiting Researcher nel “Department of Aerospace Engineering Science, University of Colorado”, Boulder, dove ha partecipato a progetti di monitoraggio urbano con immagini ottiche ad altissima risoluzione spaziale. Tra il 2008 e il 2012 ha lavorato con il gruppo di telerilevamento dell’ Istituto Nazionale di Geofisica e Vulcanologia, Roma. E’ stato coinvolto in progetti per la mappatura di aree allagate, per individuare i danni causati da terremoti e per la definizione del rischio. I suoi interessi di ricerca includono l’analisi di dati multitemporali, la classificazione, l’estrazione di feature, la data fusion e la segmentazione con immagini SAR ed ottiche, e l’interferometria SAR per applicazioni geofisiche.
Andrea Rapuzzi è il fondatore di A-SIGN, un’azienda che progetta e sviluppa soluzioni software per diversi domini dell’ingegneria (aerospazio, navale, reti idriche, telecomunicazioni). Ingegnere elettronico per formazione, da 23 anni progetta e sviluppa architetture software. I suoi interessi più recenti di ricerca e sviluppo coinvolgono Machine Learning, Deep Learning, Reinforcement Learning e Probabilistic Programming.
Al talk si sono affiancati Marta Ziosi e Gabriele Graffieti, cofounder e head of research di AI for People, che avevamo già incontrato a Gennaio, con un aggiornamento sul progetto di analisi immagini satellitari nato proprio al meetup di Gennaio. AI for People è un’associazione che ha come obiettivo quello di capire e promuovere l’uso dell’intelligenza artificiale per il bene sociale, la cui strategia è quella di condurre analisi, progetti e proposte che comprendono AI e società. L’associazione è formata da un team eterogeneo di persone che ha come scopo quello di creare un cambiamento positivo nella società attraverso l’uso consapevole ed etico della tecnologia.
In attesa di poterci vedere nuovamente di persona quando finalmente sarà passato questo brutto periodo di emergenza, DataScienceSeed ritorna con la sua prima edizione Online!
Ovviamente si parla di Datascience & COVID, anche se vogliamo farlo da un punto di vista particolare, pensando agli effetti che l’epidemia potrà avere sull’industria del turismo. Ce ne ha parlato Anna Codispoti, Data Science Manager in Costa Crociere. Per approfondire alcuni temi e stimolare la discussione tra i relatori e con il pubblico, abbiamo previsto gli niterventi di Francesco Cricchio, CEO di Brain e Riccardo Beltramo, dell’Università degli Studi di Torino. A loro si è aggiunto un interessantissimo intervento fuori programma di Lara Congiu.
Viaggiare ha un ruolo importante nella vita di tutti noi. Ci aiuta ad ampliare i nostri orizzonti ed a soddisfare il nostro istinto primario di scoperta e esplorazione. E’ questo probabilmente il motivo per cui l’industria del turismo è riuscita negli anni ad affrontare diverse sfide e crisi globali, quali attacchi terroristici, epidemie e disastri naturali. Anche nella situazione attuale, che sta vendendo l’intera economia globale vivere una crisi profonda, il settore turistico sarà probabilmente uno di quelli che porterà i segni lasciati dal Covid-19 più a lungo. Nonostante la situazione senza precedenti renda difficile fare stime affidabili, analizzando modellizzazioni di eventi passati, dati di trend e survey sull’attuale consumer sentiment, è possibile scomporre la “travelling anxiety” nei suoi elementi essenziali e cercare di misurare in questo modo l’impatto che l’attuale pandemia avrà sulla domanda turistica, separando impatti a breve e a lungo termine.
Anna CodispotièData Science Manager in Costa Crociere S.p.A., con un Ph.D. in Matematica e Applicazioni conseguito presso l’Università degli studi di Genova ed un G.M.P. conseguito presso la ESCP Business School. I progetti curati dal team di Data Science che coordina coinvolgono diverse aree aziendali, come ad esempio il pricing dei prodotti di bordo, lo sviluppo di sistemi di ottimizzazione e forecasting o sistemi di raccomandazione su piattaforme web. Le sue principali aree di interesse sono la Modellazione Matematica, il Machine Learning e Big Data come strumenti di Business Decision Making e Customer Engagement.
Francesco Cricchio e’ il CEO di Brain, un’azienda di ricerca che crea set di dati e algoritmi proprietari per strategie di investimento, combinando competenze in Finanza con competenze in Statistica, Machine Learning e Natural Language Processing. L’intervento sarà focalizzato sull’applicazione di queste tecniche per monitorare le conseguenze dell’epidemia sui mercati finanziari e su settori specifici.
Riccardo Beltramo è Professore Ordinario all’Università degli Studi di Torino, Dipartimento di Management. Svolge ricerche nel campo del turismo sostenibile prevalentemente in ambito montano. Lavora nel campo dell’Ecologia industriale e svolge ricerche sui sistemi di gestione integrati, applicati ad attività manifatturiere e di servizi ed alle aree industriali. Attualmente insegna Environmental Management Systems, Tourism Eco-Management ed Ecologia industriale presso la Scuola di Management ed Economia.
Purtroppo il collegamento con Riccardo è saltato prima che potesse iniziare l’intervento in diretta, quindi ha registrato il suo contributo successivamente.
Agli interventi previsti si è aggiunto un interessantissimo fuori programma della gentilissima Lara Congiu, che lavora presso la Commissione Europea di Bruxelles proprio all’intersezione tra turismo, sostenibilità e data science.
Ecco il folder di documenti a cui fa riferimento Lara nel suo intervento. Una miniera di informazioni e link.
ATTENZIONE: vista la recente ordinanza di Regione Liguria in materia di prevenzione relativamente all’emergenza COVID-19, la quale include la sospensione nei prossimi giorni di manifestazioni pubbliche di qualsiasi natura, abbiamo deciso di rimandare il meetup#12 di DataScienceSeed. Comunicheremo la nuova data non appena la situazione generale si sarà chiarita.
Il DataScienceSeed torna questa volta agli Erzelli, ospite dell’auditorium di Liguria Digitale per la dodicesima edizione del nostro meetup. L’evento si svolgerà Lunedi 2 Marzo come al solito dalle 18:00 alle 20:30. Vi aspettiamo numerosi!
Di seguito il Programma:
Il Machine Learning per la prevenzione degli incidenti industriali
Continua il filone di interventi legati all’utilizzo dell’intelligenza artificiale per l’utilità sociale con un intervento sull’applicazione di tecniche di machine learning alla prevenzione di incidenti industriali. Tomaso Vairo, analista di rischio presso l’Agenzia Regionale per la Protezione dell’Ambiente Ligure (ARPAL) ci parlerà di analisi dei rischi e resilienza dei sistemi complessi, illustrandoci l’evoluzione di paradigma dalla “safety I” alla “safety II”, e toccando argomenti nell’ambito del probabilistic programming, quali Fault Trees e Bayesiang Reasoning, prior probabilities, Markov Chains MonteCarlo, e molto altro.
Tomaso Vairo, Ingegnere chimico e PhD, svolge attività di ricerca e docenza presso l’Università degli Studi di Genova, nei campi dell’analisi del rischio e della modellistica ambientale. E’ inoltre analista di rischio presso l’Agenzia Regionale per la Protezione dell’Ambiente Ligure (ARPAL) e divulgatore scientifico.
Presentazione della Borsa di Studio DataScienceSeed
A seguire, la grande novità del dodicesimo meetup! DataScienceSeed istituisce una Borsa di Studio, con la quale premieremo il progetto che più si distingue per innovatività, utilità e realizzabilità nel dominio delle tematiche sociali, ambientali, logistiche o della “smart city” legate al territorio genovese. Il progetto dovrà basarsi, per essere realizzato o prototipato, su competenze tipiche di Data Science e Machine Learning. Il premio del valore di 1000 euro, risultato del terzo posto conquistato dal team DataScienceSeed all’Hackaton tenuto scorso novembre nel contesto del C1A0 Expo, consisterà in servizi di didattica e incubazione su misura presso DigitalTree, finalizzati ad aiutare i membri del team a completare le proprie competenze in ambito Data Science. Oltre ai servizi di DigitalTree, Talent Garden Genova ha aggiunto al premio 6 mesi di coworking in formula “flex”. Tutti i dettagli per la partecipazione verranno illustrati durante il meetup.
Di seguito una intro alla Borsa di Studio DSS registrato nello scorso meetup
Il meetup DataScienceSeed fa parte delle iniziative dell’associazione