Monday 20 November 2017

Moving Average Brownian Motion


Movimiento browniano Movimiento browniano, también llamado movimiento browniano. Cualquiera de los diversos fenómenos físicos en los que alguna cantidad está constantemente sufriendo fluctuaciones pequeñas y aleatorias. Fue nombrado para el botánico escocés Robert Brown. El primero en estudiar tales fluctuaciones (1827). Si un número de partículas sujetas al movimiento browniano están presentes en un medio dado y no hay dirección preferida para las oscilaciones aleatorias, entonces durante un período de tiempo el Las partículas tienden a extenderse uniformemente por todo el medio. Así, si A y B son dos regiones adyacentes y, en el tiempo t. A contiene el doble de partículas que B. En ese instante la probabilidad de que una partícula abandone A para entrar en B es dos veces mayor que la probabilidad de que una partícula deje B para entrar en A. El proceso físico en el cual una sustancia tiende a extenderse constantemente desde regiones de alta concentración a regiones de menor concentración se llama difusión. Por lo tanto, la difusión puede considerarse una manifestación macroscópica del movimiento browniano a nivel microscópico. Así, es posible estudiar la difusión simulando el movimiento de una partícula browniana y calculando su comportamiento promedio. Algunos ejemplos de los innumerables procesos de difusión que se estudian en términos de movimiento browniano incluyen la difusión de contaminantes a través de la atmósfera. La difusión de agujeros (regiones minúsculas en las que el potencial de carga eléctrica es positivo) a través de un semiconductor. Y la difusión del calcio a través del tejido óseo en los organismos vivos. Investigaciones tempranas Teoría Einstein del movimiento browniano Estilo MLA: movimiento browniano. Encyclopaeligdia Britannica. Encyclopaeligdia Britannica Online. Encyclopaeligdia Britannica Inc. 2017. Web. 07. 2017 lt www. britannica / ciencia / Brownian-motion gt. Estilo APA: movimiento browniano. (2017). En Encyclopaeligdia Britannica. Obtenido de www. britannica / ciencia / Brownian-motion Chicago Manual del estilo: Encyclopaeligdia Britannica en línea. S V. Movimiento browniano, accedido el 07, 2017, www. britannica / science / Brownian-motion. Estas citas se generan mediante programación y pueden no coincidir con todas las reglas de estilo de cita. Consulte los manuales de estilo para obtener más información. Gracias por tus comentarios Nuestros editores revisarán lo que has enviado, y si cumple con nuestros criterios, también puedes añadirlo al artículo. Únete a Britannicas Publishing Partner Program y nuestra comunidad de expertos para obtener una audiencia global para tu trabajo Enviar esta página por correo electrónicoBROWNIANMOTIONSIMULATION Simulación del movimiento browniano en M Dimensiones BROWNIANMOTIONSIMULATION es una biblioteca de MATLAB que simula el movimiento browniano en una región M-dimensional. El movimiento browniano es un fenómeno físico que se puede observar, por ejemplo, cuando una pequeña partícula se sumerge en un líquido. La partícula se moverá como si estuviera bajo la influencia de fuerzas aleatorias de dirección y magnitud variable. Hay una idealización matemática de este movimiento, y de ahí una discretización computacional que nos permite simular las posiciones sucesivas de una partícula sometida al movimiento browniano. (N ° 1) m es la dimensión espacial, (valor predeterminado 2) d es el coeficiente de difusión, (por defecto 10.0) t es la dimensión espacial Intervalo de tiempo total (predeterminado 1.0) Licencia: El código de computadora y los archivos de datos descritos y puestos a disposición en esta página web se distribuyen bajo la licencia GNU LGPL. Idiomas: Datos y Programas Relacionados: DICESIMULATION. Un programa MATLAB que simula N lanzamientos de dados M, haciendo un histograma de los resultados. DUELSIMULACIÓN. Un programa de MATLAB que simula N repeticiones de un duelo entre dos jugadores, cada uno de los cuales tiene una precisión de tiro conocida. GAMBLERSRUINSIMULATION. Un programa de MATLAB que simula el juego de la ruina de los jugadores. HIGHCARDSIMULATION. Un programa de MATLAB que simula una situación en la cual usted ve las cartas en una baraja una por una, y debe seleccionar la que usted piensa es la más alta y para. ISING2DSIMULACIÓN. Un programa de MATLAB que lleva a cabo una simulación de Monte Carlo de un modelo de Ising, una matriz 2D de cargas positivas y negativas, cada una de las cuales es probable que cambie a estar de acuerdo con los vecinos. LORENZSIMULACIÓN. Un programa de MATLAB que resuelve las ecuaciones de Lorenz y muestra la solución, para diversas condiciones de partida. POISSONSIMULATION. Una biblioteca de MATLAB que simula un proceso de Poisson en el cual los acontecimientos ocurren aleatoriamente con un tiempo medio de espera de Lambda. RANDOMWALK1DSIMULATION. Un programa de MATLAB que simula una caminata aleatoria en una región 1-dimensional. RANDOMWALK2DSIMULATION. Un programa MATLAB que simula una caminata aleatoria en una región bidimensional. RANDOMWALK2DAVOIDSIMULATION. Un programa de MATLAB que simula una caminata aleatoria de auto-evitación en una región bidimensional. RANDOMWALK3DSIMULATION. Un programa de MATLAB que simula una caminata aleatoria en una región tridimensional. IMAGEN DE REACTORES. Un programa de MATLAB que una simple simulación de Monte Carlo del efecto de blindaje de una losa de cierto espesor delante de una fuente de neutrones. Este programa fue proporcionado como un ejemplo con el libro Métodos Numéricos y Software. SDE. Una biblioteca MATLAB que ilustra las propiedades de las ecuaciones diferenciales estocásticas, y algoritmos comunes para su análisis, por Desmond Higham SIRSIMULATION. Un programa MATLAB que simula la propagación de una enfermedad a través de una sala de hospital de camas M por N, utilizando el modelo SIR (Susceptible / Infectado / Recuperado). TRESBODISIMULACIÓN. Un programa de MATLAB que simula el comportamiento de tres planetas, obligados a permanecer en un plano y moviéndose bajo la influencia de la gravedad, por Walter Gander y Jiri Hrebicek. TRAFFICSIMULATION. Un programa MATLAB que simula los coches esperando para atravesar un semáforo. TRUELSIMULACIÓN. Un programa de MATLAB que simula N repeticiones de un duelo entre tres jugadores, cada uno de los cuales tiene una precisión de tiro conocida. Código fuente: brownianmotionsimulation. m. Simula el movimiento browniano. Brownianmotiondisplay. m. Traza una trayectoria de movimiento browniana para el caso M 2. browniandisplacementsimulation. m. Calcula el desplazamiento cuadrático con el tiempo, para un conjunto de casos. Browniandisplacementdisplay. m. Representa desplazamiento de movimiento browniano frente al comportamiento esperado para un conjunto de casos. Timestamp. m. Imprime la fecha YMDHMS como una marca de tiempo. Ejemplos y Pruebas: Algunas parcelas son hechas por el programa de prueba. Motion1d. png. Una trama de una trayectoria de movimiento browniano en 1D, con el tiempo como segunda dimensión. Motion2d. png. Una trama de una trayectoria de movimiento browniano en 2D. Motion3d. png. Una trama de una trayectoria de movimiento browniano en 3D. Displacement1d. png. Un diagrama de desplazamientos cuadrados, promediado sobre varios movimientos brownianos 1D. Displacement2d. png. Una gráfica de desplazamientos cuadrados, promediada sobre varios movimientos brownianos 2D. Displacement3d. png. Un diagrama de desplazamientos cuadrados, promediado sobre varios movimientos 3D brownianos. Última revisión el 30 de septiembre de 2012. Movimiento de Brown y el mercado FOREX Por Armando Rodríguez No sería una primera vez que una formulación desarrollada para los fenómenos en un campo se utiliza con éxito en otro, incluso tiene un nombre, y se llama analogía. Hay muchos ejemplos de analogías que la formulación para resolver estructuras mecánicas estáticas es la misma que la que se utiliza para resolver noticias de redes eléctricas difusas como tinta en agua estancada, y tantas otras. Aquí estamos estableciendo la analogía de los cambios de precios de mercado FOREX al movimiento browniano. También las analogías se hacen no sólo para el disfrute de la simetría de la naturaleza, pero por lo general después de algún propósito práctico. En este caso, queremos saber cuándo un algoritmo de comercio no es probable que los beneficios y por lo que el comercio debe ponerse en retención. El movimiento browniano Movimiento browniano (nombrado en honor del botánico Robert Brown) se refería originalmente al movimiento al azar observado bajo el microscopio de polen inmerso en agua. Esto era desconcertante porque la partícula del polen suspendida en el agua perfectamente inmóvil no tenía ninguna razón aparente para mover todos. Einstein señaló que este movimiento fue causado por el bombardeo aleatorio de (calor excitado) las moléculas de agua en el polen. Era sólo el resultado de la naturaleza molecular de la materia. La teoría moderna lo llama un proceso estocástico y se ha demostrado que se puede reducir al movimiento un caminante al azar. Un caminante aleatorio unidimensional es aquel que es tan probable dar un paso hacia adelante como hacia atrás, digamos eje X, en cualquier momento dado. Un caminante aleatorio bidimensional hace lo mismo en X o Y (vea la ilustración). Los precios de las acciones cambian ligeramente en cada transacción, una compra aumentará su valor una venta lo disminuirá. Sujeto a miles de transacciones de compra y venta, los precios de las acciones deben mostrar un movimiento browniano unidimensional. Este fue el tema de la tesis doctoral de Louis Bachelier en 1900, "La teoría de la especulación". Presentó un análisis estocástico de los mercados de acciones y opciones. Las tasas de urrencia deben comportarse mucho como una partícula de polen en el agua también. Espectro browniano Una propiedad interesante del movimiento browniano es su espectro. Cualquier función periódica en el tiempo puede considerarse como la suma de una serie infinita de funciones seno / coseno de frecuencias múltiples a la inversa del período. Esto se llama la serie de Fourier. El concepto se puede ampliar aún más a funciones no periódicas, permitiendo que el periodo pase a infinito, y ésta sería la integral de Fourier. En lugar de una secuencia de amplitudes para cada frecuencia múltiple se trata de una función de la frecuencia, esta función se llama espectro. La representación de la señal en el espacio de frecuencia es el lenguaje común en la transmisión de información, la modulación y el ruido. Los ecualizadores gráficos, incluidos incluso en el equipo de audio doméstico o el programa de audio para PC, han llevado el concepto de la comunidad científica al hogar. Presente en cualquier señal útil es el ruido. Estas son señales no deseadas, de naturaleza aleatoria, de diferentes orígenes físicos. El espectro del ruido se relaciona con su origen: El ruido de J ohnsonNyquist (ruido térmico, ruido de Johnson o ruido de Nyquist) es el ruido electrónico generado por la agitación térmica de los portadores de carga (generalmente los electrones) dentro de un conductor eléctrico en equilibrio Ocurre independientemente de cualquier voltaje aplicado. El ruido térmico es aproximadamente blanco. Lo que significa que la densidad espectral de potencia es igual en todo el espectro de frecuencias. El ruido de parpadeo es un tipo de ruido electrónico con un espectro 1 / f, o rosa. Por lo tanto, se refiere a menudo como ruido 1 / f o ruido rosa. Aunque estos términos tienen definiciones más amplias. Ocurre en casi todos los dispositivos electrónicos. Y resulta de una variedad de efectos, tales como impurezas en un canal conductor, generación y ruido de recombinación en un transistor debido a la corriente de base, y así sucesivamente. Finalmente, el ruido browniano o ruido rojo es el tipo de ruido de la señal producido por el movimiento browniano. Su densidad espectral es proporcional a 1 / f 2. lo que significa que tiene más energía en las frecuencias más bajas, incluso más que el ruido rosa. La importancia de esta discusión es que cuando se calcula el espectro de la señal de tasa FOREX que tiene una dependencia 1 / f 2, lo que significa que es también de naturaleza browniana. Comportamiento en el tiempo El comportamiento del mercado FOREX en la ausencia de eventos también se comporta perfectamente Browniano. Esto quiere decir que las tasas FOREX se comportan como caminantes al azar unidimentional. La densidad de probabilidad de encontrar un walker aleatorio en la posición x después de un tiempo t sigue la ley gaussiana. Donde s es la desviación estándar, que para un caminante al azar es una función de la raíz cuadrada de t y esto es lo que las tasas FOREX seguir a la perfección experimental como se muestra a continuación para las cotizaciones EUR / USD en la figura 1. Una expresión analítica de lo anterior Cifra con tasas en pips y t en minutos a partir de un tiempo inicial t 0: En el promedio, hay cotizaciones de 45 EUR / USD en un minuto, por lo que la expresión anterior se puede poner en términos de la N ª cita después de un tiempo inicial. Deriva y movimientos aleatorios Se puede decir que el movimiento de partículas de polen tiene dos componentes, uno de naturaleza aleatoria descrito anteriormente, pero si el líquido tiene un flujo en alguna dirección, entonces un movimiento de deriva se superpone al browniano. El mercado FOREX presenta ambos tipos de movimiento, un componente aleatorio de frecuencia más alta y movimientos de deriva más lentos causados ​​por noticias que afectan las tasas. Movimiento al azar es malo para el negocio de la especulación no hay manera de promediar un beneficio en un mercado perfectamente al azar. Solamente el movimiento de la deriva puede rendir beneficios. La aleatoriedad del mercado no es constante en el tiempo y tampoco es el movimiento de deriva. Durante los eventos de noticias, los movimientos de deriva son grandes y es durante los eventos que se pueden hacer beneficios, pero hay eventos más limpios en los que los algoritmos automáticos funcionan mejor y hay los sucios, con mucha aleatoriedad, que pueden conducir el algoritmo más inteligente en perdiendo. En un sistema físico, la intensidad del movimiento browniano de una partícula puede tomarse como el cuadrado medio de su velocidad aleatoria y esto se encuentra que es proporcional a la temperatura e inversamente a la masa de las partículas. LtVrdm 2 gt 3KT / m La velocidad aleatoria es la diferencia entre la velocidad total menos la velocidad media o la velocidad de deriva. El verdadero sentido de una velocidad de deriva sería la velocidad media de un gran número de partículas en un momento dado que indicaría que todo el cuerpo de partículas líquidas y en suspensión se está moviendo en su conjunto. Pero, como la velocidad aleatoria debe promediar en el tiempo hasta cero, el promedio de la velocidad de una sola partícula en el tiempo también es igual a la velocidad de deriva. En la analogía del mercado FOREX la tasa de par de divisas es la posición dimensional de las partículas y así, la velocidad en cualquier momento t es el movimiento de la cotización desde la última cotización en el tiempo t 0 dividido por el intervalo de tiempo. La velocidad media sería la media móvil exponencial de las cotizaciones. La temperatura del par de divisas Tcp sería entonces: Tcp (m / 3K) ltVrdm 2 gt La masa de un par de divisas es una magnitud a definir, por lo que la constante de Boltzman no tiene significado aquí. Sin embargo, la intensidad promedio a largo plazo del movimiento de la tasa browniana se observa que depende del par de divisas, por lo que parecen mostrar diferentes masas. Encontrar la masa para cada par de divisas permitiría tener una referencia común para la temperatura. Si tomamos la masa de EUR como 1, entonces: Las masas anteriores hacen una temperatura promedio similar a 300 K que es igual a la temperatura ambiente en la escala de Kelvin que corresponde a 27 grados Celsius. or 80.6 Fahrenheit. Pero aparte de la belleza no da una visión más profunda del problema. Haciendo (m / 3K) 1, se obtiene una temperatura que es igual a la varianza de las velocidades. Puesto que la raíz cuadrada de la varianza es la desviación estándar, tal definición de la temperatura da una idea de cómo es intenso el movimiento al azar está en pips. second. Detección de eventos y temperatura de monedas Un evento de noticias que afecta al valor del dólar estadounidense se puede detectar cuando sus tasas para el resto de las principales monedas cambian de manera consistente. En otras palabras, cuando los movimientos de tasas pasan a correlacionarse. Una expresión numérica de esta correlación es el promedio de la diferencia respecto a su EMA (Exponential Moving Average) sobre todas las principales monedas. El problema con este enfoque es que las monedas significativas a considerar no son que muchos, en realidad sólo 6 pares pueden ser utilizados. Un promedio sobre una muestra tan pequeña no es inmune contra el movimiento aleatorio y propenso a producir falsos positivos. La detección podría mejorarse si la contribución al promedio es ponderada inversamente por la temperatura de los pares. Más precisamente: ponderado por la probabilidad de que la velocidad de velocidad observada no se deba a la naturaleza browniana del movimiento. Sabiendo que la distribución de la velocidad en los movimientos brownianos es gaussiana, en ausencia de un evento, la probabilidad de observar una velocidad por debajo de un valor V puede ser calculada por el área bajo la curva de densidad de probabilidad Gaussiana: En palabras, la curva nos dice esto: Considere el par EUR / USD que típicamente muestra un ltVrdm 2 gt de 2,94 pips / segundo, las velocidades bajo este valor se observan 68,2 del tiempo, más allá de sólo 31,8. Por lo tanto, es justo decir que si una velocidad observada está por encima, digamos 6, es muy improbable (4.4) que provenga de aleatoriedad. La expresión matemática de la probabilidad de una velocidad V, que no es aleatoria es: P erf ((V 2 / ltVrdm 2 gt)) Donde erf (x) se conoce como función de error. El promedio ponderado de la correlación será ahora: APÉNDICE A El desencadenante del acontecimiento Aproximación fuerte del movimiento browniano fraccionario moviendo promedios de simples paseos al azar Pl Rvsz con ocasión de su 65 cumpleaños Tams Szabados Departamento de Matemáticas, Universidad Técnica de Budapest, Egry u 20-22 , H pág. Vem. Resumen El movimiento browniano fraccionario es una generalización del movimiento browniano ordinario, utilizado particularmente cuando se requiere una dependencia a largo plazo. Su introducción explícita se debe a Mandelbrot y van Ness (SIAM Rev. 10 (1968) 422) como un proceso gaussiano auto-similar W (H) (t) con incrementos estacionarios. Aquí la auto-similitud significa que, donde H (0,1) es el parámetro Hurst del movimiento browniano fraccional. PENSIÓN COMPLETA. Knight dio una construcción del movimiento browniano ordinario como límite de los paseos al azar simples en 1961. Más adelante su método fue simplificado por Rvsz (Random Walk in Random and Non-Random Environments, World Scientific, Singapur, 1990) y luego por Szabados (Studia Sci , Math. Hung. 31 (1996) 249297). Este enfoque es bastante natural y elemental, y como tal, puede extenderse a situaciones más generales. Basado en esto, aquí usamos los promedios móviles de una secuencia anidada adecuada de caminatas aleatorias simples que casi seguramente convergen uniformemente al movimiento browniano fraccionario en los compactos cuando. La tasa de convergencia demostrada en este caso es, donde N es el número de pasos usados ​​para la aproximación. Si el más preciso (pero también más intrincado) Komls et al. (1975, 1976) se utiliza en cambio para insertar caminos aleatorios en el movimiento browniano ordinario, entonces el mismo tipo de promedios móviles casi seguramente convergen uniformemente al movimiento browniano fraccionario en compactos para cualquier H (0,1). Por otra parte, la tasa de convergencia se conjetura para ser el mejor posible, aunque sólo se demuestra aquí. MSC Keywords Movimiento browniano fraccional Movimiento browniano fraccional El movimiento browniano fraccional (FMB) es una generalización del movimiento browniano ordinario (BM), utilizado particularmente cuando la dependencia a largo plazo es esencial. Aunque la historia de la fBM se remonta a Kolmogorov (1940) y otros, su introducción explícita se debe a Mandelbrot y van Ness (1968). Su intención era definir una auto-similar. Centrado Gaussiano con incrementos estacionarios pero no independientes y con trayectorias continuas de muestra a. s. Aquí la auto-similitud significa que para cualquier a gt0, donde H (0,1) es el parámetro Hurst de la fBM y denota la igualdad en la distribución. Ellos mostraron que estas propiedades caracterizan fBM. El caso se reduce a BM ordinario con incrementos independientes, mientras que los casos (resp.) Dan incrementos negativos (respectivamente positivamente) correlacionados véase Mandelbrot y van Ness (1968). Parece que en las aplicaciones de fBM, el caso es el más utilizado. Mandelbrot y van Ness (1968) dieron la siguiente representación explícita de fBM como promedio móvil de BM ordinario, pero de dos caras: donde t 0 y (x) max (x, 0). La idea de (2) está relacionada con el cálculo fraccional determinista. Que tiene una historia aún más larga que fBM, volviendo a Liouville, Riemann, y otros ver en Samko et al. (1993). Su caso más simple es cuando se da una función continua fy un entero positivo. Entonces una inducción con integración por partes puede mostrar que es el orden iterado antiderivativo (o integral de orden) de f. Por otra parte, esta integral está bien definida para los valores positivos no enteros de también, en cuyo caso puede llamarse una integral fraccional de f. Así, heurísticamente, la parte principal de (2) es la integral de orden del proceso de ruido blanco W (t) en el sentido corriente no existente. Así, la fBM W (H) (t) puede considerarse como una modificación de incremento estacionario de la integral fraccional W (t) del proceso de ruido blanco, donde. 2 Construcción al azar del movimiento browniano ordinario Es interesante que una construcción muy natural y elemental del BM ordinario como límite de paseos aleatorios (RWs) apareciera relativamente tarde. La teoría matemática de BM comenzó alrededor de 1900 con las obras de Bachelier, Einstein, Smoluchowski y otros. La primera construcción de la existencia fue dada por Wiener 1921 y Wiener 1923 que fue seguido por varios otros más adelante. Knight (1961) introdujo la primera construcción por paseos aleatorios que fue simplificada más tarde por Rvsz (1990). El autor actual tuvo la suerte de escuchar esta versión de la construcción directamente de Pl Rvsz en un seminario en la Universidad Técnica de Budapest un par de años antes de la publicación del libro de Rvszs en 1990 y quedó inmediatamente fascinado por ella. El resultado de un esfuerzo para simplificarlo más adelante apareció en Szabados (1996). A partir de ahora, la expresión construcción RW se referirá siempre a la versión discutida en el último. Es asintóticamente equivalente a aplicar la inclusión de Skorohod (1965) para encontrar una secuencia diádica anidada de RWs en BM, véase Teorema 4 en Szabados (1996). Como tal, tiene algunas ventajas y desventajas en comparación con la mejor aproximación posible celebrada por BM de sumas parciales de variables aleatorias con función de momento generador finito alrededor del origen. Este último fue obtenido por Komls 1975 y Komls 1976. y será abreviado KMT aproximación en la secuela. Las principales ventajas de la construcción de RW son que es elemental, explícito, utiliza sólo valores pasados ​​para construir nuevos, fáciles de implementar en la práctica y muy adecuados para aproximar las integrales estocásticas, véase el Teorema 6 de Szabados (1996) y Szabados 1990). Recuérdese que la aproximación KMT construye sumas parciales (por ejemplo, una RW simétrica simple) a partir de BM en sí (o de una secuencia i. i.d de variables aleatorias normales estándar) mediante una compleja secuencia de transformaciones de cuantos condicionales. Para construir cualquier nuevo valor que utiliza para toda la secuencia (pasado y los valores futuros también). Por otra parte, la mayor debilidad de la construcción de RW es que proporciona una tasa de convergencia, mientras que la tasa de la aproximación KMT es la mejor posible, donde N es el número de pasos (términos) considerados en el RW. En la secuela primero se resumen las propiedades principales de la construcción RW antes mencionada. A continuación, esta construcción RW se utiliza para definir una aproximación similar a (2) de fBM mediante el movimiento de promedios de la RW. La convergencia y el error de esta aproximación se discuten a continuación. Como consecuencia de las propiedades de aproximación relativamente débiles de la construcción RW, la convergencia a fBM se establecerá sólo para, y la tasa de convergencia no será la mejor posible tampoco. Para compensar esto, al final del trabajo discutimos las propiedades de convergencia y error de una construcción similar de fBM que usa la aproximación KMT, que converge para todo H (0,1) y cuya tasa de convergencia puede ser conjeturada como El mejor posible cuando se aproxima fBM por el movimiento de promedios de RWs. La construcción de RW de BM resumida aquí es tomada de Szabados (1996). Comenzamos con una matriz infinita de i. i.d. Variables aleatorias X m (k), definidas en el mismo espacio de probabilidad subyacente. Cada fila de esta matriz es una base de una aproximación de BM con un cierto tamaño de paso dyadic t 2 2 m en tiempo y un paso correspondiente tamaño x 2 m en el espacio, ilustrado por la tabla siguiente. El segundo paso de la construcción es torcer. De los paseos aleatorios independientes (es decir, de las filas de la Tabla 1), queremos crear dependientes de modo que después de la reducción de los pasos temporales y espaciales, cada RW consecutivo se convierte en un refinamiento de la anterior. Dado que la unidad espacial será reducida a la mitad en cada fila consecutiva, definiremos tiempos de parada por T m (0) 0, y para k 0, estos son los instantes de tiempo aleatorios cuando un RW visita enteros enteros, diferentes del anterior. Después de reducir la unidad espacial a la mitad, una modificación adecuada de este RW visitará los mismos números enteros en el mismo orden que el RW anterior. (Esto es lo que llamamos un refinamiento). Operaremos aquí en cada punto del espacio de muestra por separado, es decir, fijaremos una trayectoria de muestra de cada RW que aparece en la Tabla 1. Así, cada puente S m (T m (k 1)) S m (T m (k)) tiene que imitar la correspondiente etapa X m 1 (k 1) del RW anterior. Definimos RW torcidos recursivamente para m 1,2,3, usando, comenzando con (n 0). Con cada m fijo procedemos para k 0, 1, 2 sucesivamente, y para cada n en el puente correspondiente, T m (k) lt n T m (k 1). Cualquier puente es invertido si su signo difiere del deseado (Fig. 1 Fig. 2 y Fig. 3): y luego. Entonces cada (n 0) sigue siendo un RW simple, simétrico ver Lemma 1 en Szabados (1996). Además, los RW retorcidos tienen la propiedad de refinamiento deseada: El último paso de la construcción RW se está reduciendo. Las trayectorias de muestra de (n 0) pueden extenderse a funciones continuas por interpolación lineal. De esta manera se obtiene (t 0) para t real. A continuación, definimos la m-ésima aproximación de BM (véase la figura 4) por la comparación de tres pasos de una trayectoria de muestra de la primera aproximación B 0 (t) y la parte correspondiente de la segunda aproximación B 1 (t) en la Fig. 1 y la fig. 4. El segundo visita los mismos números enteros (diferentes del anterior) en el mismo orden que el primero, por lo que imita el primero, pero los instantes de tiempo correspondientes difieren en general: 2 2 T 1 (k) k. De manera similar, (3) implica la propiedad de refinamiento general pero hay un desfase temporal en general. La idea básica de la construcción RW de BM es que estos retrasos de tiempo se vuelven uniformemente pequeños si m es lo suficientemente grande. Se puede probar por el siguiente lema simple. No es sorprendente que esta y la propiedad de refinamiento (5) implican la cercanía uniforme de dos aproximaciones consecutivas de BM si m es suficientemente grande. Este lema asegura la a. s. Convergencia uniforme de las aproximaciones RW en intervalos compactos y está claro que el proceso límite es el proceso de Wiener (BM) con caminos de muestra continua casi seguramente. Teorema 1 La aproximación RW a. s. Converge uniformemente a un proceso de Wiener en cualquier intervalo compacto. Para cualquier m m 2 (C), los resultados citados anteriormente corresponden al Lemma 2. Lemma 3 y Lemma 4 y Teorema 3 en Szabados (1996). Mencionamos que las declaraciones presentadas aquí se dan en formas algo más agudas, pero se pueden leer fácilmente de las pruebas en la referencia anterior. 3 Una aproximación por trayectoria del movimiento browniano fraccional Una construcción casi seguramente convergente de fBM fue dada por Carmona y Coutin (1998) que representan fBM como una función lineal de un proceso Gaussiano de dimensión infinita. Otra construcción pionera fue dada por Decreusefond y stnel 1998 y Decreusefond y stnel 1999 que converge en el sentido L 2. Esta construcción utiliza aproximaciones discretas de la representación media móvil de fBM (2). Basado en particiones deterministas del eje de tiempo. Más exactamente, (2) es sustituido por una integral sobre el intervalo compacto 0, t, pero con un núcleo más complicado que contiene también una función hipergeométrica. La aproximación de fBM discutida aquí también será una versión discreta de la representación de media móvil (2) de fBM, pero las particiones díticas se toman en el eje espacial de BM y por lo tanto se obtiene particiones aleatorias en el eje de tiempo. Esto es asintóticamente una incorporación de tipo Skorohod de RW anidados en BM. Como resultado, en lugar de integral tenemos sum, y BM es sustituido por la secuencia de refinamiento anidada de sus aproximaciones RW discutidas en la sección anterior. Debido a que (2) contiene BM de dos caras, necesitamos dos secuencias de este tipo: una para la derecha y otra para la mitad del eje izquierdo. A partir de ahora, vamos a utilizar las siguientes notaciones: m 0 es un entero, t 2 2 m. . Introduciendo el kernel, la mth aproximación de fBM por definición es B m (H) (0) 0, y para enteros positivos k, donde la convención 0 H 1/2 0 se aplica incluso para exponentes negativos. Es útil escribir B m (H) en otra forma aplicando una versión discreta de integración por partes. A partir de (8) y reordenándola según B m (tr), se obtiene para k 1 que De esta manera tenemos una versión discreta de lo que se obtiene de (2) usando una integración formal por partes 5 a continuación). Para apoyar la definición anterior, mostramos que B m (H) tiene propiedades análogas a las propiedades caracterizadoras de fBM en un ajuste discreto. (A) B m (H) está centrado (claro desde su definición) y tiene incrementos estacionarios. Si k 0 yk son enteros no negativos, entonces (sustituyendo u r k 0) (b) B m (H) es aproximadamente auto-similar en el siguiente sentido: Si a 2 2 m 0. Donde m 0 es un entero, m 0 m. Por otro lado, el Lema 4 (y el Teorema 2) a continuación demuestra que B m (H) y B m 1 (H) (y B mn (por ejemplo, H)) están uniformemente cerca con probabilidad arbitraria grande en cualquier intervalo compacto si m es lo suficientemente grande (cuando). Podría probarse de manera similar que para un j. Donde j 0 es un entero arbitrario, 2 2 n j 2 2 (n 1) con un entero n 0, las distribuciones dimensionales finitas de se pueden hacer arbitrariamente cerca de las distribuciones dimensionales finitas de B m n (H) si m es suficientemente grande. En consecuencia, B m (H) está arbitrariamente cerca de auto-similar para cualquier dyadic a j 2 2 m 0 si m es lo suficientemente grande. (C) Para cualquier 0 tt t 1 ltlt t n. La distribución límite del vector como m es Gaussiana. dónde . Este hecho se deduce del Teorema 2 (basado en el Lema 5) que indica que el proceso B m (H) casi seguramente converge al proceso gaussiano W (H) en intervalos compactos. 4 Convergencia de la aproximación a fBM En primer lugar se demostrará que dos aproximaciones consecutivas de fBM definidas por (8). O equivalentemente por (9). Están uniformemente cerca si m es lo suficientemente grande, suponiendo. Aparentemente, la anterior aproximación RW de BM no es lo suficientemente buena como para tener convergencia para. Al demostrar la convergencia, una desigualdad de desviación grande similar al Lemma 1 desempeñará un papel importante. Si X1, X2, es una secuencia de i. i.d. Variables aleatorias, y S r a r X r. Donde no todos son cero y, entonces (véase, por ejemplo, Stroock, 1993, página 33). La suma anterior puede extenderse a finito muchos oa contener muchos términos. Como corolario, si S 1, S 2, SN son sumas arbitrarias del tipo anterior, se puede obtener el siguiente análogo del Lema 1. Para cualquier C gt1 y N 1, entonces usando (19) se obtiene el resultado con el Excepción de un conjunto de probabilidad como máximo 2 (K 2 2 m) 1 C. Donde y C gt1 son arbitrarios. (D) El máximo de U m, k. Dividimos la media línea en intervalos de longitud L. Donde L 4 K. Para definir, elija L 4 K. Aparte de esto, esta parte será similar a la parte (b). En la secuela usamos la convención de que cuando el límite inferior de una suma es un número real x. La suma comienza en x, e igualmente, si el límite superior es y. La suma termina en y. Por (17), el lema 3 da un límite superior para la diferencia máxima entre dos aproximaciones consecutivas de BM si j 1 es un valor arbitrario fijo: con la excepción de un conjunto de probabilidad como máximo 3 (jL 2 2 m) 1 C. Donde Cgt1 es arbitrario y m m 1 (C). Esto implica para cualquier C 3 y mm 1 (C) que la desigualdad anterior (24) se mantiene simultáneamente para todo j 1,2,3, con la excepción de un conjunto de probabilidad como máximo Para el otro factor principal en (23) binomial series are applied as above, with , and v 1: In the second case when the above method apparently gives convergence here (just like in part (b)) only when : for any C 3 and mm 1 ( C ) with the exception of a set of probability at most ( K 2 2 m ) 1 C . Now one can combine the results of parts (a)(d), see (18). (20). (21). (22). (27) and (28). to obtain the statement of the lemma. Remember that the rate of convergence in parts (a) and (c) is faster than the one in parts (b) and (d). Particularly, observe that there is a factor m in (b) and (d) which has a counterpart m 1/2 in (a) and (c). Since in the statement of this lemma we simply replaced the faster converging factors by the slower converging ones, the constant multipliers in (a) and (c) can be ignored if m is large enough. It is simple to extend formula (9) of the m th approximation B m ( H ) of fBM to real arguments t by linear interpolation, just like in the case of the m th approximation B m ( t ) of ordinary BM see, e. g. in Szabados (1996). So let m 0 and k 0 be integers, 0,1, and define Then the resulting continuous parameter approximations of fBM B m ( H ) ( t ) ( t 0) have continuous, piecewise linear sample paths. With this definition we are ready to state a main result of this paper. where ( H , K ) and are the same as in Lemma 4. ( The case is described by Theorem 1.) except for an event of probability at most 8( K 2 2 m ) 1 C . Since both B m 1 ( H ) ( t ) and B m ( H ) ( t ) have piecewise linear sample paths, their maximal difference must occur at vertices of the sample paths. Let M m denote the maximal increase of B m ( H ) between pairs of points t k , t k 1 in 0, K : except for an event of probability at most 2( K 2 2 m ) 1 C . cf. (31) below. A sample path of B m 1 ( H ) ( t ) makes four steps on any interval t k , t k 1 . To compute its maximal deviation from D m it is enough to estimate its change between the midpoint and an endpoint of such an interval, at two steps from both the left and right endpoints: except for an event of probability at most 2( K 2 2( m 1) ) 1 C . Hence except for an event of probability at most . The explanation above shows that at the same time this gives the upper bound we were looking for except for an event of probability at most (82 32 C )( K 2 2 m ) 1 C . Then a similar argument can be used as in the proof of Lemma 4. see, e. g. part (a) there: Hence taking N K 2 2 m and C gt1 in (12). and using (19) too, one obtains for m 1 that with the exception of a set of probability at most 2( K 2 2 m ) 1 C . where K gt0 and C gt1 are arbitrary. except for an event of probability at most 8.125( K 2 2 m ) 1 C where ( H , K ) and ( H ) are the same as in Lemma 4. Remember that the rate of convergence in (31). just like in parts (a) and (c) of the proof of Lemma 4. is faster than the one in parts (b) and (d) of that proof. Apart from constant multipliers, the result of (31) has the same form as the results of (a) and (c) there. Since in the statement of this theorem we simply replaced the faster converging factors by the slower converging ones, the constant multipliers of (31) can be ignored if m is large enough. This is why the ( H , K ) defined by Lemma 4 is suitable here too. Hence one can get that By the BorelCantelli lemma this implies that with probability 1, the sample paths of B m ( H ) ( t ) converge uniformly to a process W ( H ) ( t ) on any compact interval 0, K . Then W ( H ) ( t ) has continuous sample paths, and inherits the properties of B m ( H ) ( t ) described in Section 3. it is a centered, self-similar process with stationary increments. As Lemma 5 below implies, the process so defined is Gaussian. Therefore, W ( H ) ( t ) is an fBM and by (33) the convergence rate of the approximation is the one stated in the theorem. The aim of the next lemma to show that integration by parts is essentially valid for (2) representing W ( H ) ( t ), resulting in a formula similar to (10). Then it follows that can be stochastically arbitrarily well approximated by a linear transform of the Gaussian process , so it is also Gaussian. After the second term on the right-hand side of (37) we turn to the third term. Take now any (0, 0 ). Since h ( s , t ) has continuous partial derivative w. r.t. s on the intervals 1/ , and , t and by Theorem 1. B m a. s. uniformly converges to the Wiener process W on these intervals, comparing (35) and (36) shows that with this there exists an m such that Theorem 1 also implies that m can be chosen so that for the fourth term in (37) one similarly has Finally, Theorem 2 (or, with a modified construction, Theorem 3 below) guarantees that m can be chosen so that the first term in (37) satisfies the same inequality: The last four formulae together prove the lemma. 5 Improved construction using the KMT approximation Parts (b) and (d) of the proof of Lemma 4 gave worse rate of convergence than parts (a) and (c), in which the rates can be conjectured to be best possible. The reason for this is clearly the relatively weaker convergence rate of the RW approximation of ordinary BM, that was used in parts (b) and (d), but not in parts (a) and (c). It is also clear from there that using the best possible KMT approximation instead would eliminate this weakness and would give hopefully the best possible rate here too. The price one has to pay for this is the intricate and future-dependent procedure by which the KMT method constructs suitable approximating RWs from BM. The result we need from Komls 1975 and Komls 1976 is as follows. Suppose that one wants to define an i. i.d. sequence X 1 , X 2 , of random variables with a given distribution so that the partial sums are as close to BM as possible. Assume that E ( X k )0, Var ( X k )1 and the moment generating function E (e uX k )lt for . Let S ( k ) X 1 X k . k 1 be the partial sums. If BM W ( t ) ( t 0) is given, then for any n 1 there exists a sequence of conditional quantile transformations applied to W (1), W (2),, W ( n ) so that one obtains the desired partial sums S (1), S (2),, S ( n ) and the difference between the two sequences is the smallest possible: for any x gt0, where C 0 , K 0 , are positive constants that may depend on the distribution of X k . but not on n or x . Moreover, can be made arbitrarily large by choosing a large enough C 0 . Taking here one obtains where n 1 is arbitrary. Fix an integer m 0, and introduce the same notations as in previous sections: . Then multiply the inner inequality in (42) by 2 m and use self-similarity (1) of BM (with ) to obtain a shrunken RW (0 k K 2 2 m ) from the corresponding dyadic values W ( t k ) (0 k K 2 2 m ) of BM by a sequence of conditional quantile transformations so that with the exception of a set of probability smaller than K 0 ( K 2 2 m ) C 0 . for any m 1 and K gt0. Here (19) was used too. Then (43) implies for the difference of two consecutive approximations that for any m 1 and K gt0. This is exactly what we need to improve the rates of convergence in parts (b) and (d) of Lemma 4 . Substitute these KMT approximations into definition (8) or (9) of B m ( H ) ( t k ). This way one can obtain faster converging approximations of fBM. Then everything above in 3 and 4 are still valid, except that one can use the improved formula (44) instead of Lemma 3 at parts (b) and (d) in the proof of Lemma 4. This way, instead of (21) one gets for any m 1, except for a set of probability smaller than 2 K 0 ( K 2 2 m ) C 0 . Also by (44). instead of (24) and (25) one has the improved inequalities: with the exception of a set of probability smaller than 2 K 0 ( jL 2 2 m ) C 0 . where m 1. If C 0 is chosen large enough so that C 0 2, then (46) holds simultaneously for all j 1,2,3, except for a set of probability smaller than (Remember that we chose L 4 K in part (d) of the proof of Lemma 4 .) Then using this in part (d) of Lemma 4. instead of (26) one needs the estimate Then instead of (27) and (28). the improved results are as follows. First, in the case one has for any m 1 and C 0 large enough so that C 0 2, except for a set of probability smaller than given by (47). Now in the case it follows that for any m 1 and C 0 large enough so that C 0 2, except for a set of probability smaller than given by (47) . As a result, there is convergence for any H (0,1). Since the KMT approximation itself has best possible rate for approximating ordinary BM by RW, it can be conjectured that the resulting convergence rates in the next lemma and theorem are also best possible (apart from constant multipliers) for approximating fBM by moving averages of a RW. Proof Combine the results of parts (a) and (c) in the proof of Lemma 4 and the improved inequalities above, that is, apply (18). (20). (45). (22) and (48). and (49). Here too, we simply replace the faster converging factors by the slower converging ones, but the constant multipliers of faster converging terms cannot be ignored, since the lemma is stated for any m 1. Now we can extend the improved approximations of fBM to real arguments by linear interpolation, in the same way as we did with the original approximations, see (29). This way we get continuous parameter approximations ( t 0) for m 0,1,2,, with continuous, piecewise linear sample paths. Now we can state the second main result of this paper. where and are the same as in Lemma 6. ( In other words . in the definition of in Lemma 6 the constant multiplier 10 has to be changed to 20 here .) The constants are defined by the KMT approximation (41) with C 0 chosen so large that C 0 2. The case is described by (43). Proof The proof can follow the line of the proof of Theorem 2 with one exception: the constant multipliers in (31) and consequently in (30) cannot be ignored here. This is why the multiplier of Lemma 6 had to be modified in the statement of the theorem. It can be conjectured that the best rate of approximation of fBM by moving averages of simple RWs is , where N is the number of points considered. Though it seems quite possible that definition of above, see (8) with the KMT approximations , supplies this rate of convergence for any H (0,1), but in Theorem 3 we were able to prove this rate only when . A possible explanation could be that in parts (b) and (d) of Lemma 4 we separated the maxima of the kernel and the integrator parts. As a result, the convergence rate we were able to prove when is the same that the original KMT approximation (43) gives for ordinary BM, where N K 2 2 m . though in this case the sample paths of fBM are smoother than that of BM. (See, e. g. Decreusefond and stnel, 1998 .) On the other hand, the obtained convergence rate is worse than this, but still thought to be the best possible, , when , which heuristically can be explained by the more zigzagged sample paths of fBM in this case. References Carmona and Coutin 1998 P. Carmona. L. Coutin Fractional Brownian motion and the Markov property Elect. Comm. Probab. Volume 3. 1998. pp. 95107 Decreusefond and stnel 1998 Decreusefond, L. stnel, A. S. 1998. Fractional Brownian Motion: Theory and Applications. Systmes Diffrentiels Fractionnaires, ESAIM Proceedings 5, Paris, pp. 7586. Decreusefond and stnel 1999 L. Decreusefond. A. S. stnel Stochastic analysis of the fractional Brownian motion Potential Anal. Volume 10. 1999. pp. 174214 Feller 1966 W. Feller An Introduction to Probability Theory and Its Applications, Vol. II. 1966. Wiley, New York Knight 1961 F. B. Knight On the random walk and Brownian motion Trans. Amer. Mates. Soc. Volume 103. 1961. pp. 218228 Kolmogorov 1940 A. N. Kolmogorov Wienersche Spiralen und einige andere interessante Kurven im Hilbertschen Raum Doklady A. N. S. S.S. R. Volume 26. 1940. pp. 115118 Komls 1975 J. Komls. P. Major. G. Tusndy An approximation of partial sums of independent RVs, and the sample DF. I Z. Wahrscheinlichkeitstheorie verw. Gebiete. Volume 32. 1975. pp. 111131 Komls 1976 J. Komls. P. Major. G. Tusndy An approximation of partial sums of independent RVs, and the sample DF. II Z. Wahrscheinlichkeitstheorie verw. Gebiete. Volume 34. 1976. pp. 3358 Mandelbrot and van Ness 1968 B. B. Mandelbrot. J. W. van Ness Fractional Brownian motions, fractional noises and applications SIAM Rev. Volume 10. 1968. pp. 422437 Rvsz 1990 P. Rvsz Random Walk in Random and Non-Random Environments. 1990. World Scientific, Singapore Samko 1993 S. G. Samko. A. A. Kilbas. O. I. Marichev Fractional Integrals and Derivatives. 1993. Gordon amp Breach Science, Yverdon Skorohod 1965 A. V. Skorohod Studies in the Theory of Random Processes. 1965. Addison-Wesley, Reading, MA Stroock 1993 D. W. Stroock Probability Theory, an Analytic View. 1993. Cambridge University Press, Cambridge Szabados 1990 Szabados, T. 1990. A discrete Its formula. Coll. Mates. Soc. Jnos Bolyai 57. Limit Theorems in Probability and Statistics, Pcs (Hungary) 1989. North-Holland, Amsterdam, pp. 491502. Szabados 1996 T. Szabados An elementary introduction to the Wiener process and stochastic integrals Studia Sci. Mates. Hung. Volume 31. 1996. pp. 249297 Wiener 1921 N. Wiener The average of an analytical functional and the Brownian movement Proc. Nat. Acad. Sci. U. S.A. Volume 7. 1921. pp. 294298 Wiener 1923 N. Wiener Differential space J. Math. Phys. Volume 2. 1923. pp. 132174 Copyright 2001 Elsevier Science B. V. All rights reserved. Citing articles ( )Dekalog8217s Brownian Motion Indicator Dekalog Blog is an interesting site where the author, Dekalog, attempts to develop new and unique ways to apply quantitative analysis to trading. In a recent post, he discussed using the concept of Brownian Motion in a way that would create bands around a chart8217s closing prices. Those bands would represent non-trending periods, and a trader could identify any time the price was outside the bands as a trending period. Dekalog8217s method of using Brownian Motion creates upper and lower bands that define trending conditions. At the root of most every trend following trading system is a way to define a trends existence and determine its direction. Using Dekalog8217s Brownian Motion idea as the root of a system might be a unique way to identify trends and extract profits from markets through those trends. Here is how Dekalog explains his concept: The basic premise, taken from Brownian motion, is that the natural log of price changes, on average, at a rate proportional to the square root of time. Take, for example, a period of 5 leading up to the 8220current bar.8221 If we take a 5 period simple moving average of the absolute differences of the log of prices over this period, we get a value for the average 1 bar price movement over this period. This value is then multiplied by the square root of 5 and added to and subtracted from the price 5 days ago to get an upper and lower bound for the current bar. He then applies these upper and lower bounds to the chart: If the current bar lies between the bounds, we say that price movement over the last 5 periods is consistent with Brownian motion and declare an absence of trend, i. e. a sideways market. If the current bar lies outside the bounds, we declare that price movement over the last 5 bars is not consistent with Brownian motion and that a trend is in force, either up or down depending on which bound the current bar is beyond. Dekalog also believes this concept could have value beyond just being an indicator: It is easy to imagine many uses for this in terms of indicator creation, but I intend to use the bounds to assign a score of price randomness/trendiness over various combined periods to assign price movement to bins for subsequent Monte Carlo creation of synthetic price series. Comentarios

No comments:

Post a Comment