Tutorial di ricerca

Evidential Reasoning and Learning

Data: 24 luglio 2022, ore 15:30

Docenti: Federico Cerutti, Lance M. Kaplan

Sede: Vienna, Austria, Messe Wien Exhibition and Congress Center, Lehar 1

Pagina originale

Quando: domenica 24 luglio 2022, ore 15:30.

Dove: Vienna, Austria, Messe Wien Exhibition and Congress Center, Lehar 1.

Docenti: Federico Cerutti e Lance M. Kaplan.

Slides

Per citare i contenuti del tutorial: Federico Cerutti, Lance Kaplan, and Murat Sensoy, "Evidential Reasoning and Learning: a Survey", IJCAI 2022.

Descrizione breve

Quando si collabora con un sistema di AI, occorre capire quando fidarsi delle sue raccomandazioni. Se lo si considera affidabile proprio nelle regioni in cui e' piu' probabile che sbagli, il rischio e' di incorrere in fallimenti catastrofici. Da qui nasce l'interesse per approcci bayesiani che consentano di ragionare sull'incertezza epistemica associata alle probabilita' di un esito interrogato. I metodi pienamente bayesiani, tuttavia, possono avere costi computazionali elevati, e il tutorial introduce quindi approssimazioni efficienti ed efficaci basate sull'aggiornamento bayesiano di ipotesi alla luce di nuove evidenze.

Il percorso e' rivolto a dottorandi e ricercatori agli inizi della carriera e offre un'introduzione graduale all'area dell'evidential reasoning and learning, ai risultati di ricerca piu' aggiornati e alle questioni ancora aperte.

Descrizione del tutorial

Il tutorial distingue innanzitutto tra due fonti di incertezza: quella aleatoria, legata alla variabilita' intrinseca di un fenomeno, e quella epistemica, che dipende dal livello di conoscenza dell'agente e puo' essere ridotta raccogliendo nuovi dati. Su questa base viene esplorata la quantificazione congiunta di incertezza aleatoria ed epistemica in scenari di ragionamento e apprendimento.

Il focus principale e' sulle probabilita' incerte rappresentate tramite distribuzioni beta o Dirichlet. A differenza di molte survey dedicate all'incertezza epistemica nel deep learning, questo tutorial discute in modo esteso sia il ragionamento sia l'apprendimento, con dati completi e parziali. La parte sul ragionamento mostra come i probabilistic circuits offrano un quadro unificante per piu' problemi inferenziali, mentre la parte finale affronta il problema di ottenere probabilita' incerte dal mondo reale, sia tramite esperti umani sia tramite apprendimento da dati grezzi.

Scaletta dettagliata

Primer di statistica bayesiana

  • Fondamenti di statistica e del teorema di Bayes.
  • Distribuzioni beta e Dirichlet come rappresentazioni di probabilita' incerte.

Evidential reasoning

  • Dalla logica ai probabilistic circuits.
  • Probabilistic circuits come metodo unificante per il ragionamento probabilistico.
  • Probabilistic circuits con probabilita' incerte.

Evidential parameter learning

  • Apprendimento con osservazioni complete.
  • Apprendimento con osservazioni parziali: prime proposte e discussione critica.

Ottenere evidenza dal mondo reale

  • Intelligence analysis e gestione dell'incertezza.
  • Evidential Deep Learning.
  • Proposte alternative.

Sintesi conclusiva