<div dir="ltr"><div dir="ltr">Ambas charlas serán el miércoles 20 de Noviembre próximo.<br></div><div dir="ltr"><br></div><div>Saludos.</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">El jue., 14 nov. 2019 a las 18:41, Manuel Saenz (<<a href="mailto:saenz.manuel@gmail.com">saenz.manuel@gmail.com</a>>) escribió:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>Les informamos que la semana próxima habrá <i>SESIÓN DOBLE </i>del Seminario de Probabilidad del Departamento de Matemática.<div><br></div><div><b><font size="4">PRIMERA CHARLA:</font></b></div><div><br><b>Fecha y hora: </b>Miércoles 6/11/2019, 12hs<br><b>Lugar: </b>Sala de Conferencias, 2do Piso, Departamento de Matemática, Pabellón 1<br><b>Expositor: </b>Bernardo Nunes Borges de Lima (UFMG)</div></div><b>Título: </b><i>The Constrained-degree percolation model</i><div><b>Abstract:</b> In the Constrained-degree percolation model on a graph $(\V,\E)$ there are a sequence, $(U_e)_{e\in\E}$, of i.i.d. random variables with distribution $U[0,1]$ and a positive integer $k$. Each bond $e$ tries to open at time $U_e$, it succeeds if both its end-vertices would have degrees at most $k-1$. We prove a phase transition theorem for this model on the square lattice $\mathbb{L}^2$, as well on the d-ary regular tree. We also prove that on the square lattice the infinite cluster is unique in the supercritical phase. Joint work with R. Sanchis, D. dos Santos, V. Sidoravicius and R. Teodoro.</div><div><br></div><div><br></div><div><b><font size="4">SEGUNDA CHARLA:</font></b><br></div><div><br></div><div><div><div><b>Fecha y hora: </b>Miércoles 20/11/2019, 14hs<br><b>Lugar: </b>Aula a confirmar, Pabellón 1<br><b>Expositor: </b>Martín Arjovsky (NYU)</div></div><b>Título: </b><i>Towards Learning Causal Features</i><div><b>Abstract:</b> The talk will center on the deep relationship between out of distribution generalization, causality, and invariant correlations. From the study of this relationship, we introduce Invariant Risk Minimization (IRM), a learning paradigm to estimate invariant correlations across multiple training distributions. To achieve this goal, IRM learns a data representation such that the optimal classifier, on top of that data representation, matches for all training distributions. Through theory and experiments, we show how the invariances learned by IRM relate to the causal structures governing the data and enable out-of-distribution generalization. </div></div></div>
</blockquote></div></div>