In signal processing applications, the knowledge of scatter matrix is of crucial importance. It arises in diverse applications such as filtering, detection, estimation or classification. Generally, in most of signal processing methods the data can be locally modelled by a multivariate zero-mean circular Gaussian stochastic process, which is completely determined by its covariance matrix. In that case, the classical covariance matrix estimator is the sample covariance matrix (SCM) whose behavior is perfectly known. Indeed, it follows the well-known Wishart distribution. Nevertheless, the complex normality sometimes presents a poor approximation of underlying physics. An alternative has been proposed by introducing elliptical distributions, namely the Complex Elliptically Symmetric distributions. In this context the SCM can perform very poorly and M-estimators appear as very interesting candidates, mainly due to their flexibility to the statistical model and their robustness to outliers and/or missing data. However, the behavior of such estimators still remains unclear and not well understood since they are described by fixed-point equations that make their statistical analysis very difficult. To fill this gap, the main contribution of this work is to prove that these estimators distribution is more accurately described by a Wishart distribution than by the classical asymptotic Gaussian approximation. These results can be of great interest in a wide range of signal processing problems such as adaptive detection problems, polarimetric SAR images restoration, target detection, clustering etc.
Seminario de Probabilidad y Estadística (formato antiguo)
We study the local behaviour of critical points of smooth Gaussian stationary and isotrope fields$R^N \to R$ . In dimension 1 ($N=1$) we deduce from well known results of the literature that there is always repulsion between critical points: they are better spread than a Poisson process. In higher dimension, depending on the dimension, we observe some neutrality when $N=2$ and attraction for $N>2$. Specifying the index of the critical points we give some interpretation. Our results generalise the result by Beliaev et al that concern the random plane wave.
In this work, we present the least square estimator for the drift parameter in a regression model driven by the increment of a fractional Brownian motion. For two different random sampling times, jittered sampling and renewal process, consistency of the estimator is shown. Simulations of the estimator, under different values of H, are provided in order to show the performance of the proposed method for both cases.
El modelo de Wright-Fisher es un modelo clásico dentro de la genética de poblaciones. Éste modela la evolución de la frecuencia de un alelo en una población de tamaño N como una cadena de Markov discreta y con espacio de estados finitos. Debido a la complejidad de las probabilidades de transición de esta cadena, ciertas preguntas no pueden ser resueltas —al menos, no de forma satisfactoria— por la teoría de cadenas de Markov. Históricamente la forma de resolver estas preguntas fue aproximando el modelo discreto por un proceso markoviano continuo, más en particular, por una difusión. Esta aproximación, además de resolver estas preguntas, es útil para estudiar extensiones del modelo de Wright-Fisher a situaciones más complejas. En esta instancia definiré a los procesos markovianos en tiempo continuo que toman valores en un espacio métrico arbitrario como extensión de las cadenas de Markov. Definiré las difusiones y mostraré su vinculación con las ecuaciones diferenciales estocásticas. Esto será utilizado luego para estudiar la aproximación del modelo de Wright-Fisher por una difusión y se responderán las preguntas planteadas en el modelo tradicional. Mostraré, además, la versatilidad del estudio por difusiones estudiando el modelo de Wright-Fisher agregando dos parámetros: selección natural y tasas de mutación.
asdf
Introduciremos el problema de aprendizaje automático, y describiremos brevemente los principales métodos utilizados actualmente. En particular support vector machines y redes neuronales.
Sea X un campo gaussiano estacionario definido en el espacio euclidiano d-dimensional y a valores reales. Usando la noción de las medidas geométricas (d-1)-dimensionales se establece una relación entre (a) el volumen del conjunto de nivel y (b) el número de cruces del nivel del proceso unidimensional que resulta al restringir el campo X a una línea. A través de esta relación demostramos la equivalencia entre la finitud de la esperanza del volumen del conjunto de nivel y la finitud de la matriz de segundos momentos espectrales. La fórmula también permite considerar el problema de la existencia de momentos de orden superior.
En general los métodos de estimación de densidades son locales, esto, para dimensiones altas (o incluso moderadas) lleva a que las tasas de convergencia sean lentas. En la charla veremos que es posible combinar de manera no lineal, diferentes estimadores de densidad usando no sólo los valores de los estimadores en puntos próximos al punto en que se quiere estimar, sino los entornos de los conjuntos de nivel de los estimadores. Esto permite obtener, ademas de consistencia en L^2 para el modelo combinado, un TCL con una tasa de dimensión 1.
El procesamiento de lenguaje natural es una sub-área de la inteligencia artificial que trata acerca del procesamiento automático del lenguaje humano. En esta charla daremos un panorama general de lo que trata esta área de investigación analizando un problema que está siendo muy estudiado en los últimos tiempos: el análisis de sentimiento. Tomando como excusa la investigación de este problema, presentaremos diferentes enfoques históricos y actuales que se utilizan en el procesamiento de lenguaje natural, terminando en técnicas más modernas de aprendizaje profundo con redes neuronales y word embeddings.
En un juego estocástico simples participan dos oponentes en un grafo dirigido. Cada jugador controla un subconjunto de los vértices, pudiendo en cada vértice que controla elegir entre dos arcos, que trasladan una ficha a uno de dos vértices vecinos. Existe además un tercer conjunto de vértices de azar, en donde la ficha se traslada con probabilidad 1/2 a uno de otros dos nodos. El objetivo de cada jugador es que la ficha llegue a dos nodos distinguidos, recibiendo un pago de 1 el primero jugador y de 0 el segundo. Es decir, tenemos tres tipos de vértices comunes, controlados por los dos jugadores y por el azar respectivamente, sumados a los vértices de fin de juego. De cada vértice común salen dos arcos. En los arcos controlados por los jugadores, estos eligen por donde va la ficha, en los de azar se sortea. El objetivo del jugador 1 es llegar al vértice 1, el del jugador 0 es llegar al jugador 0. Se demuestra que existen un par de estrategias óptimas minimax, que dan la probabilidad óptima para ambos jugadores en cada nodo. Esa estrategia verifica las ecuaciones de Bellman. El problema es encontrar un algoritmo que de una solución en tiempo polinomial. Se demuestra que las probabilidades son números racionales p/q, con q menor que 2^n, (donde n es el número de vértices de azar) mejorando resultados previos en donde se demostraba que q<\sqrt{6}^n. Se demuestra que cota es óptima. La pregunta de cómo encontrar soluciones en tiempo polinomial permanece abierta.
The study of interpersonal entrainment in music, the process in which two or more individuals interact with each other to synchronize their body movements and the musical sounds, is a novel research strand which has shown to have implications for musicology and music perception. Candombe, one of the most characteristic and defining components of Uruguayan popular culture, has its actual roots in the traditions brought from Africa in the 18th century by the victims of the slave trade. While still being primarily associated with the Afro-Uruguayan community, it has long been adopted by the society at large. Drumming is the essential component of this tradition sharing many traits with other musics of the Afro-Atlantic cultures. All along the year, specially on weekends and public holidays, players meet at specific points to play Candombe marching on the street. Its rhythm results from the interaction of the patterns of three drums of different size and pitch, and has a common metric structure: a cycle of four beats and sixteen pulses. This paper presents the results of a series of experiments to measure interpersonal synchronization and leadership in small percussion ensembles of Candombe drumming. For this purpose, an audio-visual dataset of drumming performances was used. Five renowned Candombe drummers were recorded on a multi-track audio system and simultaneously filmed by three video cameras. The dataset also includes annotations of metrical information (beat and downbeat), and temporal location of strokes. The onsets were detected automatically from the audio tracks and then checked manually and corrected if necessary. The corpus analyzed consisted of 14 representative performances of ensembles of three to five drummers, containing a total of ca. 1300 rhythm cycles. To assess the precision of coordination among ensemble parts, an analysis of the asynchronies between onsets by different individual ensemble members in the same metric position was conducted. Leadership behaviors were analyzed by applying a method based on Granger Causality.
The interest for optimal transport theory in the fields of data science, machine learning and statistics has grown tremendously in recent years. This talk will first discuss why that theory, which provides an intuitive and geometric perspective to compare probability distributions, is a natural alternative to more classical information divergences such as the Kullback-Leibler geometry. I will then show how some computational and statistical challenges posed by the original formulations of optimal transport, dating back to Monge (1782) and Kantorovich (1942), can be addressed using regularization. I will finally conclude by showcasing the scalability of novel new statistical methods built upon optimal transport, with varied applications in imaging, signal / natural language processing and image tagging.
Sea V(x)=sup {E[exp(-rT)g(X(T))]: T es un tiempo de parada} =E[exp(-rT*)g(X(T*))] el problema de parada óptima para el proceso de Markov {X}, la función g(x), la tasa de descuento r positiva, y el conjunto de tiempos de parada {T}. Partimos de dos hechos: el tiempo óptimo T*=T(S) es el tiempo de llegada a un conjunto S (desconocido) y la función de valor V(x) es la integral en S del núcleo de Green del proceso, respecto de una medida incógnita. Primero establecemos que esta medida incógnita es (r-L)g(y)dy, donde L es el generador infinitesimal de X Segundo encontramos condiciones necesarias y suficientes para determinar S en dos casos: - cuando tenemos una difusión X en los reales, y la función g(x) es general (no necesariamente monótona), obteniendo que S es una unión de intervalos disjuntos. - cuando el proceso X es una difusión multidimensional y la función de g(x) es una forma cuadrática
En este trabajo adaptamos el algoritmo Bagging de L.Breiman (1996), bien conocido en aprendizaje supervisado, al contexto de la estimación de densidad donde combinamos varios estimadores clásicos (histogramas, polígonos de frecuencia y estimadores por núcleo). Mostraré los distintos avances obtenidos hasta ahora, tanto en la teoría como en las simulaciones y como ``baggear’’, en general, mejora las performance de los estimadores individuales. También compartiré distintas preguntas que nos estamos haciendo actualmente, en particular sobre la viabilidad de generar a partir de esta metodología una ``banda’’ de confianza para la densidad. Es un trabajo en conjunto con Jairo Cugliari (Université Lyon II, Francia).
Los modelos de ondas aleatorias fueron introducidos por Longuet-Higgins en la década del 50 en el contexto del estudio de la superficie del mar. A partir de los 70 Berry propuso y estudió modelos de ondas aleatorias en contextos más generales (óptica, sonido, etc) aunque en dimensión dos o tres. Los ceros y los puntos críticos dan información sobre las zonas de silencio, de oscuridad, etc, sobre los valores extremos, etc. En los últimos años hay una gran actividad en el estudio de estos temas. En esta charla la idea es presentar esta clase de modelos. En particular, nos interesa la introducción de anisotropía en ellos.
En este trabajo mostramos como utilizar resultados asintóticos para procesos de exploración de grafos homogéneos para acotar (inferior y superiormente) grafos geométricos definidos a partir de un proceso de Poisson espacial. Las cotas obtenidas son independientes de la dimensión del espacio y de la forma en que se defina el proceso de exploración (volumen asociado a cada nodo explorado). En particular probamos que las cotas son válidas para las trayectorias del proceso de exploración y no solo para el límite. Trabajo conjunto con Matthieu Jonckheere (UBA) y Jaron Sanders (KTH, Suecia)
La idea de la charla es continuar las anteriores donde cuento algunos de los resultados obtenidos en el desarrollo de mi doctorado. La presentación es autocontenida. En esta charla haremos un repaso del problema y nos enfocamos en el objetivo de estimar el riesgo de incumplimiento (riesgo de default) que existe en la deuda soberana.
Decimos que una probabilidad pierde dimensión si la dimensión de Hausdorff de su soporte (el menor cerrado de medida total) es estríctamente mayor que la dimensión de Hausdorff de la medida (i.e. la mínima dimensión de un Boreliano de medida total). Es posible hacer ejemplos artificiales muy sencillos. En esta charla exploraremos un fenomeno interesante que es que muchas probabilidades naturales definidas por caminatas al azar pierden dimensión.
This talk presents an original ABC algorithm, {\it ABC Shadow}, that can be applied to sample posterior densities that are continuously differentiable. The proposed algorithm solves the main condition to be fulfilled by any ABC algorithm, in order to be useful in practice. This condition requires enough samples in the parameter space region, induced by the observed statistics. The algorithm is tuned on the posterior of a Gaussian model which is entirely known, and then it is applied for the statistical analysis of several spatial patterns. These patterns are issued or assumed to be outcomes of point processes. The considered models are: Strauss, Candy and area-interaction
Dada una muestra i.i.d de (X,Y) donde X e Y toman valores en espacios métricos, queremos realizar la prueba de hipótesis H0: X e Y son independientes contra la alternativa de que X e Y no sean independientes. La región crítica que plantearemos está basada en un U-estadístico que surge a partir de las medidas asociadas a los llamados gráficos de recurrencias, que están basados en contabilizar la cantidad de observaciones que distan entre sí, más que una cierta cantidad t (variando t), lo cual permite reducir la dimensionalidad del espacio original. Los gráficos de recurrencia (RP: recurrence plots) fueron introducidos por Eckmann et al (1987) con la idea de dar una herramienta para el estudio de sistemas dinámicos de alta dimensión cuyas trayectorias son difíciles de visualizar. Los RP son muy útiles para poder ver la estructura de dependencia que tiene una serie de tiempo y son una buena herramienta visual para descubrir en una serie de tiempo periodicidades, así como para buscar modelos para ajustar los datos, sean éstos determinísticos o probabilísticos. En esta charla veremos que estas medidas pueden ser utilizadas para plantear un test de hipótesis que es asintóticamente consistente en el caso en que X e Y sean vectores aleatorios con distribución conjunta (X,Y) sea normal multivariada, o bien en el caso en que X e Y sean variables aleatorias reales continuas cualesquiera. Mostraremos mediante simulaciones, que ésta prueba tiene un excelente rendimiento bajo algunas alternativas estudiadas recientemente en la literatura y tienen dos importantes fortalezas, en primer lugar el estadístico usado tiene una distribución límite bajo Ho cierto y en segundo lugar es muy útil cuando los vectores tienen dimensión alta, ya que lo reduce a un caso bidimensional.