Titulo: Complejidad del Problema de Valores Propios
Resumen: El problema de valores propios (PVP) es uno de los problemas más clásicos en análisis numérico. El estudio de su complejidad sigue siendo uno de los grandes desafíos en esta área, aún en los casos más sencillos. Por ejemplo, la siguiente pregunta no tiene respuesta: ¿Cuánto se demora, en promedio, para diagonalizar una matriz simétrica aleatoria nxn? En esta charla mostraremos como los métodos de homotopía junto al estudio de matrices aleatorias pueden llevar a una solución de este problema.
Métodos de agregación de modelos para la estimación de densidad.
Los métodos de agregación de modelos en aprendizaje automático combinan varias hipótesis hechas sobre un mismo conjunto de datos con el fin de obtener un modelo predictivo con una mejor performance. Los mismos han sido ampliamente estudiados y han dado lugar a numerosos trabajos tanto experimentales como teóricos en diversos contextos. En esta charla nos interesamos al problema de la estimación de densidad donde proponemos algoritmos basados sobre estas técnicas, comparándolos sobre un amplio conjunto de densidades a métodos clásicos y otros métodos recientes que utilizan estas ideas.
Resumen: Un primer intento de obtener resultados sobre acoplamientos para billares estocásticos en mesas convexas con pequeñas perturbaciones en los ángulos de salida. Trabajo en preparación con Leonardo Rolla (IMPA), Vladas Sidoravicius (IMPA), María Eulalia Vares (UFRJ)
Grandes desvíos para procesos: ejemplos de teoría de colas
Resumen: Consideremos una sucesión de variables iid y un real A mayor que su valor esperado. Por la ley débil de los grandes números la probabilidad de que el promedio sea mayor que A tiende a 0 cuando el número de variables tiende a infinito. La siguiente pregunta es ¿cómo decae esa probabilidad? El teorema de Cramer-Chernoff establece que ese decaimiento es exponencial. Para procesos la pregunta análoga consiste en saber cuán probable es que determinada sucesión de trayectorias esté en un conjunto de trayectorias que no contiene a la trayectoria promedio. En esta charla vamos a ver resultados generales de grandes desvíos para procesos y en particular ejemplos de teoría de colas.
Teorema Central del límite para polinomios trigonométricos.
El estudio del número de ceros de distintos tipos de polinomios aleatorios es un problema clásico. Su origen se puede marcar en los 40 con trabajos de Litlewood, Offord, Kac, etc sobre polinomios de una variable con coeficientes i.i.d. normales estándar. En esta charla hablaremos sobre polinomios en cosenos, es decir, una combinación lineal de cosenos de distintas frecuencias con coeficientes normales estándar independientes. Usando la descomposición en el llamado Caos de Wiener de funcionales no lineales de un movimiento browniano, se busca establecer un TCL para el número de ceros de tales polinomios en el intervalo [0.\pi] cuando el número de términos tiende a infinito. Trabajo en conjunto con José R. León (Universidad Central de Venezuela).
Título: Propiedades Estadísticas vs Propiedades Criptográficas de sucesiones binarias.
Resumen: En la charla trataré de ver por que si algo es bueno estadísticamente en una sucesión pseudoaleatoria puede ser malo en criptografía.
Título: Modelado matemático del tráfico en redes de datos: entre colas y fluidos.
Resumen: El modelado matemático del tráfico en redes de datos ha llevado a un contrapunto entre modelos estocásticos tomados de la teoría de colas, y modelos determinísticos de variable continua llamados de fluido. La utilidad de cada modelo depende de la escala en consideración, de su tratabilidad matemática, así como de aspectos de diseño de los protocolos de comunicación. En la charla haremos una recorrida histórica sobre el uso de dichos modelos, terminando con una presentación de nuestro trabajo reciente sobre estabilidad en Internet bajo trabajos de distribución general a través de modelos de ecuaciones en derivadas parciales.
Título: Límite fluido de la cola M/M/1
Resumen: En primer lugar, presentamos la cola M/M/1 como una cadena de Markov en tiempo continuo y su propiedades. Luego, consideramos el límite fluido que se obtiene al aumentar la cantidad de trabajos en la cola y acelerar el tiempo, y probamos que las trayectorias de este proceso convergen casi seguramente a una trayectoria determinística.
El libro de estudio es "Finite Markov chains and algrithmic applications" de Olle Haggstrom (Cambridge Univesity Press, 2002)
Consistent nonparametric regression for functional data under the Stone-Besicovitch conditions.
Abstract: We consider the problem of nonparametric regression in the separable metric spaces setting. In this context, we obtain consistency results under mild conditions close to universal results, which are easy to understand and which avoid assumptions on the underlying distribution of the process that are hard to justify. In particular, we get consistency when the regression function is continuous and bounded without further requirements. If the regression function is not continuous, we need that it can be approximated in L2 by continuous and bounded functions, and Besicovitch condition to hold. Our guess it that Besicovitch condition is also a necessary condition for consistency for locally weighted estimates although we only prove that it is a necessary condition for the uniform kernel estimate.
Ondas viajeras y distribuciones cuasi-estacionarias: el mismo principio de selección?
Resumen: Analizaremos la conexión entre los principios de selección de propagación de frentes y distribuciones cuasi-estacionarias. Describimos el nexo que falta a través de modelos microscópicos conocidos como el Movimiento Browniano de ramificació con la selección de Fleming-Viot.
Título: Regla de selección de una ventana asintóticamente óptima para el estimador mediante núcleos de la densidad: teorema de Stone. Resumen
Título: Dinámica de población en sistemas P2P de intercambio de archivos.
En la charla, analizaremos la dinámica de las aplicaciones P2P de intercambio de archivos en internet. La idea es mostrar cómo en algunos casos, la dinámica de la población puede modelarse mediante una cola Processor-Sharing con tasas de servicio dependientes del estado de ocupación del sistema. En particular, si la cantidad de "servidores" está fija, la dinámica de la población cuando los trabajos son exponenciales (hipótesis bastante restrictiva en la práctica) corresponde a un proceso de nacimiento y muerte del cual caracterizamos su distribución invariante. Dicho proceso está "a mitad de camino" entre una cola M/M/1 y una cola M/M/\infty tradicional. Al ser un sistema processor-sharing, el mismo presenta la propiedad de "insensibilidad": la distribución de la población en régimen es insensible a la distribución de los trabajos. Utilizando esta propiedad, mostraremos que esta clase de sistemas, bajo un escalado tipo ley de grandes números, puede aproximarse o bien por un sistema M/G/1 o M/G/\infty de acuerdo a un parámetro crítico de carga. Sobre el final, caracterizaremos la distribución del trabajo remanente en régimen mediante un proceso gaussiano adecuado, utilizando una generalización del Teorema de Donsker al caso de random sample size. Discutiremos también la posibilidad de probar límites fluidos y difusiones para esta clase de sistemas, y su relación con modelos basados en ecuaciones en derivadas parciales.
Es clara la importancia de las redes de telecomunicaciones en nuestros días y por lo tanto también lo es el modelado de dichas redes. La naturaleza de dichas redes (de grandes dimensiones y alta variabilidad) hace que el modelado estocástico sea un enfoque no sólo muy adecuado si no también en muchos casos el único posible.
En este contexto analizaremos un protocolo de acceso a redes inalámbricas (usado en cualquier red de tipo WiFi) llamado CSMA (Carrier Sense Multiple Access). Veremos como es posible modelar las principales características de este protocolo de manera de poder analizar su desempeño. Un primer acercamiento será a través de la geometría aleatoria. Detectadas algunas limitaciones de este modelo trataremos de superarlas proponiendo un modelo definido sobre un grafo aleatorio que convenientemente re-escalado nos conduce a un límite determinístico (tipo limite fluido). Este análisis nos lleva a preguntarnos sobre resultados en grafos aleatorios que sean válidos más allá de los obtenido para este protocolo en particular.
Título: Ideas geométricas en el análisis de datos funcionales (FDA).
Resumen: En "Mathematics: Frontiers and Perspectives" Smale plantea como problema 18, el último de la lista de problemas que la matemática debe afrontar en el nuevo milenio, la siguiente pregunta:
¿Cuáles son los limites de la inteligencia, artificial y humana?
Una aproximación a la respuesta se puede encontrar en el aprendizaje automático: cómo, a partir de un conjunto de observaciones, construir un modelo que nos permita aprender, y luego, en base a ese aprendizaje, predecir que pasará con nuevas observaciones. En la charla veremos un ejemplo de esto: a partir de dátos médicos, queremos un diagnóstico rápido para saber si un nuevo paciente tiene o no determinada enfermedad. Cuando los datos no son variables aleatorias, sino funciones aleatorias, estamos ante un problema de FDA. Construiremos el marco teórico que nos permitirá abordar dicho problema desde una perspectiva geométrica. Como aplicación del mismo veremos como clasificar "espectrometrías" (funciones que nos dan, para ciertas proteínas, la cantidad presente en cada paciente) y obtener así un diagnóstico rápido de presencia o ausencia de cáncer de ovario para un conjunto de 216 mujeres.
Título: El problema de inmersión de Skorohod
Resumen: El problema de Skorohod plantea la siguiente pregunta: dada una variable aleatoria X en L1 con media nula, ¿existe un tiempo de parada T tal que el Movimiento Browniano parado a tiempo T, BT, tiene la distribución de X?
Este problema fue planteado y resuelto por Skorohod en 1961 (en ruso, traducido al inglés en 1965), pero la definición del tiempo de parada requería de una randomización externa. En 1968 Lester Dubins dio una prueba en la que solamente se usa la filtración natural generada por el Movimiento Browniano.
La motivación original de Skorohod para hacer esta pregunta se refería a probar ciertos principios de invarianza (como el principio de invarianza de Donsker, i.e., la convergencia en distribución de los paseos aleatorios debidamente reescalados al Movimiento Browniano).
En la charla del seminario contaré la construcción de Dubins y si da el tiempo hablaremos un poco del principio de invarianza de Donsker.
Biblio:
[1] - Dubins, Lester E. On a theorem of Skorohod. Ann. Math. Statist. 1968.
[2] - Oblój, Jan. The Skorokhod embedding problem and its offspring. Probab. Surv. 1 (2004).