Seminario de Probabilidad y Estadística 20141
Resumen: En Archivología se llama Muestreo Alfabético a una de las herramientas usadas para tomar muestras de poblaciones documentales donde cada documento está asociado a una persona. Se ha señalado como principal desventaja de esta herramienta la falta de garantías en cuanto a que la muestra sea representativa. Una mirada desde otro lugar permite resolver este problema utilizando herramientas muy simples. Es un buen ejemplo de las bondades del trabajo interdisciplinario.
Resumen: Un antiguo resultado de David Blackwell muestra que una cadena de Markov es ergódica si y sólamente si cumple la propiedad de Liouville (i.e. no admite funciones armónicas acotadas excepto las constantes). La entropía asintótica de Avez es un invariante que caracteriza completamente cuando estas propiedad se cumple en el caso de caminatas al azar en grafos de Cayley. Los grafos de Cayley son grafos muy regulares y un tema recurrente de investigación ha sido identificar la regularidad necesaria en un grafo para poder desarrollar una teoría de entropía similar a la de Avez. En esta dirección Itai Benjamini y Nicolas Curien introdujeron recientemente la noción de "grafo aleatorio estacionario" y comenzaron la teoría de entropía en este caso motivados por ciertos grafos planares aleatorios provenientes de modelos físicos. La idea es dar una introducción sin prerequisitos a los resultados anteriores y eventualmente hablar un poco trabajo que estamos realizando en colaboración con Matías Carrasco en esta área.
Resumen: El estudio de las tasas de interés del mercado según su estructura de plazos abarcan gran parte de la literatura especializada tanto en matemática financiera como en macroeconomía debido a las importantes aplicaciones que se derivan de su conocimiento y modelación. En la presentación del viernes introduciremos algunas de las distintas metodologías aplicadas al estudio de las tasas. En particular, nos centramos en los modelos aplicados a la tasa (denominada) short rate. Para finalizar, también observaremos aplicaciones al mercado uruguayo de bonos.
Abstract: The study of random graphs and networks had an explosive delelopment in the last couple of decades. Meanwhile, there are just a few references about statistical analysis on graphs. We focus on graphs with a fixed number of labeled nodes (such as those used to model brain networks) and study some statistical problems in a nonparametric framework. We introduce natural notions of center and a depth function for graphs that evolve in time. This allows us to develop several statistical techniques including testing, supervised and unsupervised classification, and a notion of principal component sets in the space of graphs. Some examples and asymptotic results are given.
Resumen: Presentaremos algunos resultados recientes sobre parada óptima de procesos de Lévy, donde la función de pago es polinomial. La charla se divide en dos partes: en la primera presentamos el problema y algunos resultados clásicos para el movimiento Browniano. En la segunda introducimos los procesos de Lévy, la función de pago polinomial, y el método de las funciones promedio (`averaring functions') que nos permiten resolver el problema de parada óptima con funciones de pago polinómicas generales y procesos de Lévy, generalizando las soluciones dadas por Novikov y Shiryaev para funciones g(x)=x^n. Presentamos ejemplos concretos con funciones de pago cuadráticas y cúbicas. La conferencia está dedicada al cumplea–os 80 de Albert Shiryaev (n. 12 de octubre de 1934)
Resumen: En esta charla vamos a describir un algoritmo que encuentra valores y vectores propios de una matriz gaussiana compleja, que termina con probabilidad 1, y lo hace en tiempo polinomial en media.
La matemática ayudó a sintetizar dos teorías que parecían contrapuestas: la teoría neutral de la evolución en la que los genes se transmitían de una generación a otra y había pequeñas variaciones en la frecuencia de sus variantes debido al azar, y la teoría de la evolución de Darwin, donde la selección es la principal causa de evolución de las especies. En esta charla veremos como se pueden modelar estos hechos y les contaré un test propuesto en mi tesis para tratar de detectar genes bajo selección en un escenario particular.
Resumen: Si bien el estudio del espaciamiento maximal unidimensional (es decir, la distancia mas grande entre dos estadísticos de orden consecutivos) encuentra sus orígenes en los trabajos pioneros del matemático W.L Stevens, que datan de 1936 (continuados luego por diversos autores, entre ellos Devroye, Deheuvels, Pkye, etc), no fue sino hasta el 2010 que S. Janson define y estudia su comportamiento asintótico, cuando los datos se distribuyen uniformemente en un subconjunto compacto de Rd, para d>1. En la charla veremos que es posible extender este resultado al caso en que los datos provienen de una distribución cuya densidad es Lipschitz, y que, a partir del mismo, se puede obtener un test para determinar si el soporte es o no convexo.
En este trabajo mostramos cómo un enfoque de configuraciones nos permite definir la dinámica de un proceso de parking sobre grafos aleatorios como un proceso de Markov a valores medidas. Esto a su vez nos permite probar una ley de grandes números funcional cuándo el número de nodos del grafo tiende a infinito. Este resultado es a su vez utilizado para caracterizar (y en algunas casos calcular) la ``jamming constant'' (intensidad del proceso de parking) de varios grafos aleatorios.
El método de los momentos es un método clásico para establecer Teoremas Centrales del Límite. Requiere la convergencia de todos los momentos de una sucesión de v.a. a los respectivos momentos de la ley normal. En el contexto de las integrales estocásticas múltiples (y de los funcionales no lineales de cuadrado integrable) de un Browniano se puede reducir esto al cuarto momento, sin necesidad de mirar los de mayor orden. En esta charla repasaré resultados en este sentido debidos a Peccati, Nualart, Tudor y Nourdin del 2005 en adelante.
Abstract: Queueing network models are very useful for describing congestion and resource scarcity phenomena occurring in manufacturing, service and telecommunication applications. A typical queueing network model consists of servers, buffers and routes as well as stochastic assumptions on the rates and durations of processing. For a stochastic queueing network model and an associated control policy, stability implies that the number of items in the system remains stochastically bounded over time. Finding sensible control laws that stabilize the network is crucial for applications yet often not trivial. We consider a family of queueing networks that generate their own arrivals. Such networks are interesting because they allow servers to be fully utilized yet can remain stable. In this talk we present results of a negative flavour: non-stabilizability. We show that in some cases queueing networks that generate their own arrivals cannot be stabilized while remaining fully utilized. The proof method of this last result is based on a novel linear martingale argument. This is joint work with Yoni Nazarathy and Thomas Salisbury.
Los datos -omicos (genómicos, proteómicos, etc.) se caracterizan por el gran número de variables medidas, habitualmente en una pequeña muestra. El gran número de variables hace que sea indispensable corregir la significancia de los tests utilizados para evitar las sobreestimaciones. Por otro lado, los métodos clásicos de correción por tests múltiples resultan demasiado conservadores para el uso habitual de estos estudios. Presentaremos un visión global de los métodos más utilizados en el áreas, así como ilustraciones de algunos de sus problemas y limitaciones.
Eduardo Tabacman es doctor en Matemáticas y trabaja como bioestadístico en SOMAlogic, Boulder, Colorado, Estados Unidos
Daré un repaso histórico de la teoría de matrices aleatorias y un poco sobre su conexión (sorprendente y conjetural) con los ceros de la función zeta de Riemann y otras funciones L.
Resumen: Los métodos de agregación de modelos en aprendizaje automático combinan varias hipótesis hechas a partir de un mismo conjunto de datos con el fin de obtener un modelo predictivo con una mejor performance. Los mismos han sido ampliamente estudiados y han dado lugar a numerosos trabajos tanto experimentales como teóricos en diversos contextos. Proponemos un nuevo método que extiende las ideas de Adaboost (Freund and Schapire, 1997) adaptándolo a problemas de clasificación con más de dos clases. El clasificador final que se obtiene, se basa sobre un cálculo de error que toma en cuenta el margen individual de cada modelo introducido en el proceso de agregación. .
En diversas aplicaciones como Finanzas con Ciencias Ambientales, aparecen fenómenos de "dependencia crítica": esto es, cuando un evento ( en general , un evento "raro") es capaz de producir una modificación sustancial en la estructura de dependencias de las variables del sistema. Un modelo simple y eficaz para tales fenómenos, lo aportan las mezclas de cópulas, por lo cual reviste mucho interés el examinar si una serie de datos observados presenta una estructura de dependencia que se ajusta a una mezcla de cópulas. Presentaremos un test de ajuste a tales efectos, un esquema de su desarrollo teórico, su performance sobre datos simulados y finalmente su aplicación sobre los datos ( de Hidrología superficial en las costas montevideanas) que motivaron nuestro interés en el tema. La exposición está basada en un trabajo conjunto con Sergio Martínez y Melina González.
Resumen: Se desea comunicar terminales (puntos distinguidos) de una red sujeta a fallas estocásticas independientes en los enlaces.
La Diámetro-Confiabilidad de una Red (DCR) es la probabilidad de que todo par de terminales permanezca comunicado por
caminos de largo d o menor, siendo d un entero positivo llamado diámetro.
El problema se inspira en sistemas de telecomunicaciones sensibles a la latencia (VoIP, redes P2P, entre otros).
Se presentará primeramente un análisis de complejidad del cómputo de la DCR y subfamilias de grafos con cálculo eficiente de la DCR.
Luego, revisaremos técnicas estadísticas promisorias para desarrollar estimadores insesgados de baja varianza.
Resumen: Recientemente se han caracterizado códigos óptimos para pares de variables geométricas independientes e idénticamente distribuidas, lo cual abre la interrogante de si estos pueden ser utilizados para obtener mayores tasas de compresión para la compresión sin pérdida de imágenes. Comenzamos presentando dichos códigos óptimos, así como sus antecesores unidimensionales, para luego discutir cómo los códigos para variables geométricas son utilizados en el algoritmo LOCO-I/JPEG-LS para compresión de imágenes de tono de gris. Finalmente, hablaremos sobre cómo modificar dicho algoritmo para incorporar los códigos bidimensionales, con el objetivo de codificar imágenes a color.