Todos estudiamos métodos numéricos en el curso de las matemáticas. Estos son métodos como integración, interpolación, series, etc. Hay dos tipos de métodos numéricos: deterministas y aleatorios.
Método típico de integración de función determinista
f en el rango
[a,b] Se ve así: tomamos
n+1 puntos espaciados uniformemente
t0=a,t1=a+ fracb−an, ldots,tn−b calcular
f en el punto medio
fracti+ti+12 de cada uno de los intervalos definidos por estos puntos, resuma los resultados y multiplique por el ancho de cada intervalo
fracb−ab . Para funciones suficientemente continuas
f con el aumento
n el resultado convergerá al valor correcto.
El método probabilístico, o el método de
Monte Carlo para calcular, o, más precisamente, una
estimación aproximada de la integral
f en el rango
[a,b] se ve así: dejar
X1, ldots,Xn - puntos seleccionados al azar en el intervalo
[a,b] . Entonces
Y=(b−a) frac1n sumni=1f(Xi) Es un valor aleatorio cuyo promedio es una integral
int[a,b]f . Para implementar el método, utilizamos un generador de números aleatorios que genera
n puntos en el intervalo
[a,b] calculamos en cada
f , promedia los resultados y multiplica por
b−a . Esto nos da el valor aproximado de la integral, como se muestra en la figura a continuación.
int1−1 sqrt1−x2dx con 20 muestras aproxima el resultado correcto igual a
frac pi2 .
Por supuesto, cada vez que calculemos un valor tan aproximado, obtendremos un resultado diferente. La varianza de estos valores depende de la forma de la función.
f . Si generamos puntos aleatorios
xi de manera desigual, entonces necesitamos cambiar ligeramente la fórmula. Pero gracias al uso de la distribución desigual de puntos, obtenemos una gran ventaja: forzar la distribución desigual para dar preferencia a los puntos
xi donde
f(x) grande, podemos reducir significativamente la varianza de los valores aproximados. Este principio de muestreo no uniforme se llama
muestreo por significación .
Como en las últimas décadas, se ha producido una transición a gran escala de enfoques deterministas a enfoques aleatorios en las técnicas de representación, estudiaremos los enfoques aleatorios utilizados para resolver ecuaciones de representación. Para hacer esto, utilizamos variables aleatorias, expectativa matemática y varianza. Estamos tratando con valores discretos, porque las computadoras son de naturaleza discreta. Las cantidades continuas se ocupan de
la función de densidad de probabilidad , pero en el artículo no la consideraremos. Hablaremos de la función de masa de probabilidad. PMF tiene dos propiedades:
- Para cada s enS existe p(s) geq0 .
- sums inSp(s)=1
La primera propiedad se llama no negatividad. El segundo se llama "normalidad". Intuitivamente, eso
S representa el conjunto de resultados de algún experimento, y
p(s) Es el resultado de la probabilidad
s miembro
S .
El resultado es un subconjunto del espacio de probabilidad. La probabilidad de un resultado es la suma de los elementos PMF de este resultado, ya que
Pr \ {E \} = \ sum_ {s \ in S} p (s)
Pr \ {E \} = \ sum_ {s \ in S} p (s)
Una variable aleatoria es una función, generalmente denotada por una letra mayúscula, que coloca números reales en el espacio de probabilidad:
X:S rightarrow boldsymbolR.$
Tenga en cuenta que la función
X - Esta no es una variable, sino una función con valores reales. Ella tampoco es al
azar ,
X(s) Es un número real separado para cualquier resultado.
s enS .
Se usa una variable aleatoria para determinar los resultados. Por ejemplo, muchos resultados.
s para que
X(s)=1 , es decir, si ht y th son el conjunto de líneas que denotan "águilas" o "colas", entonces
E=s enS:X(s)=1
y
=ht,th
es un resultado con probabilidad
frac12 . Lo escribimos como
Pr \ {X = 1 \} = \ frac {1} {2}Pr \ {X = 1 \} = \ frac {1} {2} . Usamos el predicado
X=1 como una entrada abreviada para el resultado determinado por el predicado.
Echemos un vistazo a un fragmento de código que simula un experimento descrito por las fórmulas presentadas anteriormente:
headcount = 0 if (randb()):
Aquí denotamos por
ranb()
función booleana que devuelve verdadero en la mitad de los casos. ¿Cómo se relaciona con nuestra abstracción? Imagina mucho
S todas las ejecuciones posibles del programa, declarando a dos ejecuciones los mismos valores devueltos por
ranb
, idénticos por pares. Esto significa que hay cuatro ejecuciones posibles del programa en las que dos llamadas
ranb()
devuelven TT, TF, FT y FF. Desde nuestra propia experiencia, podemos decir que estos cuatro logros son igualmente probables, es decir, cada uno ocurre en aproximadamente una cuarta parte de los casos.
Ahora la analogía se está volviendo más clara. Las muchas ejecuciones posibles de un programa y las probabilidades asociadas con ellas son un espacio de probabilidad. Las variables de programa que dependen de llamadas de
ranb
son variables aleatorias. Espero que todo esté claro para ti ahora.
Analicemos el valor esperado, también llamado promedio. Esto es esencialmente la suma del producto de PMF y una variable aleatoria:
E[X]= sums inSp(s)X(s)
Imagine que h son "águilas" yt son "colas". Ya hemos cubierto ht y th. También hay hh y tt. Por lo tanto, el valor esperado será el siguiente:
E[X]=p(hh)X(hh)+p(ht)X(ht)+p(th)X(th)+p(tt)X(tt)
= frac14.2+ frac14.1+ frac14.1+ frac14.0
=1 textQED
Quizás te preguntes de dónde vino
X . Aquí quise decir que deberíamos asignar significado
X por ti mismo En este caso, asignamos h a 1 yt a 0.
X(hh) es igual a 2 porque contiene 2
h .
Hablemos de distribución. La distribución de probabilidad es una función que proporciona las probabilidades de varios resultados de un evento.
Cuando decimos que una variable aleatoria
X tiene una distribución
f entonces debería indicar
X simf .
Valores de
dispersión acumulados alrededor
X se llama su
dispersión y se define de la siguiente manera:
boldsymbolVar[X]=E[(X− barX)2]
Donde
barX Es promedio
X .
sqrt boldsymbolVar llamado
desviación estándar . Variables aleatorias
X y
Y se llaman
independientes si:
Pr \ {X = x \ text {and} Y = y \} = Pr \ {X = x \}. Pr \ {Y = y \}
Pr \ {X = x \ text {and} Y = y \} = Pr \ {X = x \}. Pr \ {Y = y \}
Propiedades importantes de variables aleatorias independientes:
- E[XY]=E[X]E[Y]
- boldsymbolVar[X+Y]= boldsymbolVar[X]+ boldsymbolVar[Y]
Cuando comencé con una historia sobre probabilidad, comparé probabilidades continuas y discretas. Examinamos la probabilidad discreta. Ahora hablemos de la diferencia entre probabilidades continuas y discretas:
- Los valores son continuos. Es decir, los números son infinitos.
- Algunos aspectos del análisis requieren sutilezas matemáticas, como la mensurabilidad .
- Nuestro espacio de probabilidad será infinito. En lugar de PMF, deberíamos usar la función de densidad de probabilidad (PDF).
Propiedades de PDF:
- Para cada s enS tenemos p(s) geq0
- ints inSp(s)=1
Pero si la distribución
S de manera uniforme , entonces el pdf se define así:
Con probabilidad continua
E[X] definido de la siguiente manera:
E[X]:= ints inSp(s)X(s)
Ahora compare las definiciones de PMF y PDF:
\ mathbb {PMF} \ rightarrow p_y (t) = Pr \ {Y = t \} \ text {for} t \ in T
\ mathbb {PMF} \ rightarrow p_y (t) = Pr \ {Y = t \} \ text {for} t \ in T
\ mathbb {PDF} \ rightarrow Pr \ {a \ leq X \ leq b \} = \ int_a ^ bp (r) dr
\ mathbb {PDF} \ rightarrow Pr \ {a \ leq X \ leq b \} = \ int_a ^ bp (r) dr
En el caso de la probabilidad continua, las variables aleatorias se denominan mejor
puntos aleatorios . Porque si
S Es el espacio de probabilidad, y
Y:S rightarrowT se muestra en un espacio diferente al
mathbbR entonces deberíamos llamar
Y punto aleatorio , no una variable aleatoria. El concepto de densidad de probabilidad es aplicable aquí, porque podemos decir que para cualquier
U subconjuntoT tenemos:
Ahora apliquemos lo que hemos aprendido a la esfera. La esfera tiene tres coordenadas: latitud, longitud y complemento de latitud. Utilizamos la suma de longitud y latitud solo en
mathbbR2 , coordenadas cartesianas bidimensionales aplicadas a una variable aleatoria
S convertirla en
S2 . Obtenemos el siguiente detalle:
Y:[0,1] times[0,1] rightarrowS2:(u,v) rightarrow( cos(2 piu) sin( piv), cos( piv) sin(2 piu)sin( piv))
Comenzamos con una densidad de probabilidad uniforme
p a las
[0,1] veces[0,1] o
p(u,v)=1 . Mire la fórmula de densidad de probabilidad uniforme arriba. Por conveniencia, escribiremos
(x,y,z)=Y(u,v) .
Tenemos una comprensión intuitiva de que si selecciona puntos de manera uniforme y aleatoria en un cuadrado unitario y usa
f para convertirlos en puntos en una esfera unitaria, se acumularán al lado del poste. Esto significa que la densidad de probabilidad obtenida en
T No será uniforme. Esto se muestra en la figura a continuación.
Ahora discutiremos formas de aproximar el valor esperado de una variable aleatoria continua y su aplicación para determinar las integrales. Esto es importante porque al renderizar necesitamos determinar el valor
de la integral de reflectividad :
Lref(P, omegao)= int omegai enS2+L(P,− omegai)fs(P, omegai, omega0) omegai. boldsymbolnd omegai,
para varios valores
P y
omega0 . Valor
omega Es la dirección de la luz incidente. Código que genera un número aleatorio distribuido uniformemente en el intervalo
[0,1] y tomando la raíz cuadrada, crea un valor en el rango de 0 a 1. Si usamos PDF para ello, ya que este es un valor uniforme, entonces el valor esperado será igual
frac23 . También este valor es el valor promedio
f(x)= sqrtx en este intervalo ¿Qué significa esto?
Considere el teorema 3.48 del libro Computer Graphics: Principles and Practice. Ella dice que si
f:[a,b] rightarrow mathbbR es una función con valores reales, y
X sim boldsymbolU(a,b) es una variable aleatoria uniforme en el intervalo
[a,b] entonces
(b−a)f(x) Es una variable aleatoria cuyo valor esperado tiene la forma:
E[(b−a)f(x)]= intbaf(x)dx.$
¿Qué nos dice esto? Esto significa que
puede usar un algoritmo aleatorio para calcular el valor de la integral si ejecutamos el código muchas veces y promediamos los resultados .
En el caso general, obtenemos un cierto valor
C , como en la integral que se muestra arriba, que debe determinarse, y algún algoritmo aleatorio que devuelve un valor aproximado
C . Dicha variable aleatoria para una cantidad se llama
estimador . Un estimador se considera
libre de distorsión si su valor esperado es
C . En el caso general, los estimadores sin distorsiones son preferibles a las distorsiones.
Ya hemos discutido probabilidades discretas y continuas. Pero hay un tercer tipo, que se llama
probabilidades mixtas y se usa en la representación. Dichas probabilidades surgen debido a pulsos en las funciones de distribución de dispersión bidireccional, o pulsos causados por fuentes puntuales de iluminación. Dichas probabilidades se definen en un conjunto continuo, por ejemplo, en el intervalo
[0,1] pero no estrictamente definido por la función PDF. Considere el siguiente programa:
if uniform(0, 1) > 0.6 : return 0.3 else : return uniform(0, 1)
En el sesenta por ciento de los casos, el programa devolverá 0.3, y en el 40% restante, devolverá un valor distribuido uniformemente en
[0,1] . El valor de retorno es una variable aleatoria con una masa de probabilidad de 0.6 a 0.3, y su PDF en todos los demás puntos se especifica como
d(x)=0.4 . Debemos definir el PDF como:
En general, una
variable aleatoria de variable mixta es aquella para la cual hay un conjunto finito de puntos en el área de definición de PDF, y viceversa, puntos distribuidos uniformemente donde el PMF no está definido.