Neste post, apresentarei uma prova do Teorema da Aproximação de Weierstrass usando um argumento probabilístico. Mais precisamente, tal argumento será embasado no seguinte
Lema. (Desigualdade de Chebyshev) Sejam X uma variável aleatória, \mu = \mathbf{E}[X] o valor esperado de X e \sigma^2 = \mathbf{Var}[X] a variância de X. Então, para \lambda > 0,
\mathbf{Pr}[| X - \mu | \geq \lambda] \leq \frac{\sigma^2}{\lambda^2}.
Observe que se X possui distribuição binomial \mathbf{Bin}(n,p), então \mu = np e \sigma = np(1-p). Se tomarmos \lambda = n^{2/3} na desigualdade de Chebyshev, obtemos
\mathbf{Pr}[| X - np | \geq n^{2/3}] \leq \frac{np(1-p)}{n^{4/3}} \leq n^{-1/3},
que tende para zero, quando n \to \infty. Esta observação será crucial para a prova do
Teorema da aproximação de Weierstrass. Seja f:[a,b] \rightarrow \mathbb{R} uma função contínua. Para todo \epsilon >0, existe um polinômio p(x) tal que |f(x) - p(x)|<\epsilon, \quad \forall x \in [a,b].
Outra maneira de enunciar o teorema acima é a seguinte: para qualquer função contínua f:[a,b] \rightarrow \mathbb{R}, existe uma sequência de polinômios (p_n) que convergem uniformemente para f.
O teorema é originalmente atribuído a Karl Weierstrass (imagem abaixo), quem deu uma primeira demonstração em 1885 usando o que hoje chamamos de transformações de Weierstrass. Mais tarde, Marshall Stone generalizou o teorema e apresentou uma versão simplificada da prova de Weierstrass. Assim, o teorema é também conhecido como Teorema de Stone-Weierstrass. Hoje, podemos encontrar diversas provas deste resultado. Eu, pelo menos, conheço cinco versões essencialmente distintas: uma versão utilizando as transformações de Weierstras [2]; outra usando o teorema de Fejér [3]; outra usando os núcleos de Landau [4]; uma totalmente elementar [5]; e uma usando argumentos probabilísticos (que pode ser encontrada em [1]) , que é a que será dada aqui (e a que dentre as cinco citadas, é a minha preferida).
Provaremos o teorema para [a,b] = [0,1]. O leitor não deverá ter dificuldade em verificar que isto é suficiente, i.e., uma vez provado para [0,1], não há resistência alguma em garantir o resultado para qualquer intervalo fechado e limitado.
Demonstração do Teorema. Seja \epsilon > 0 dado. Como f é contínua sobre um conjunto compacto, segue que f é uniformemente contínua. Portanto, existe um \delta >0 (que depende de \epsilon) tal que se |x-y| < \delta, então |f(x) - f(y)| < \frac{\epsilon}{2}. E ainda devido ao fato de f ser contínua sobre um compacto, segue que f é limitada, i.e., existe M>0 tal que |f(x)| < M, para todo x\in [0,1].
Agora escolhemos n suficientemente grande tal que
n^{-1/3} < \displaystyle{\min \left\{ \delta, \frac{\epsilon}{4M}\right\}}.
O que assegura que para todo x\in[0,1] e para X \sim \mathbf{Bin}(x,n), temos que
\mathbf{Pr}[| X - nx | \geq n^{2/3}] \leq n^{-1/3} < \displaystyle{\min \left\{ \delta, \frac{\epsilon}{4M}\right\}},
como foi comentado no parágrafo subsequente à desigualdade de Chebyshev.
Seja p(x) o seguinte polinômio
p(x) = \sum_{k=0}^{n} x^k (1-x)^{(n-k)} f\left(\frac{k}{n}\right).
Observe que
\sum_{k=0}^{n} x^k (1-x)^{(n-k)} = 1.
De modo que
f(x) = \sum_{k=0}^{n} x^k (1-x)^{(n-k)}f(x).
Agora, obtemos o seguinte
\begin{array}{rcl} |f(x)-p(x)| & = & \displaystyle{ \left| \sum_{k=0}^{n} x^k (1-x)^{(n-k)}\left( f(x) - f\left(\frac{k}{n}\right) \right) \right|} \\ & \leq & \displaystyle{ \sum_{k=0}^{n} x^k (1-x)^{(n-k)}\left| f(x) - f\left(\frac{k}{n}\right) \right|} \\ & = & \displaystyle{ \sum_{|k -nx| < n^{2/3}} (\ldots)} + \displaystyle{ \sum_{|k -nx| \geq n^{2/3}} (\ldots)} \\ & = & A + B. \end{array}
Analisemos os somatórios A e B separadamente. Para A, temos
\begin{array}{rcl} A & = & \displaystyle{ \sum_{|k -nx| < n^{2/3}} x^k (1-x)^{(n-k)}\left| f(x) - f\left(\frac{k}{n}\right) \right|}\\ & = & \displaystyle{ \sum_{|\frac{k}{n} - x| < n^{-1/3} < \delta} x^k (1-x)^{(n-k)}\left| f(x) - f\left(\frac{k}{n}\right) \right|}\\ & < & \displaystyle{ \sum_{|\frac{k}{n} - x| < n^{-1/3}} x^k (1-x)^{(n-k)}\frac{\epsilon}{2}}\\ & \leq & \displaystyle{ \sum_{k=0}^{n} x^k (1-x)^{(n-k)} \frac{\epsilon}{2}} = \frac{\epsilon}{2}, \end{array}
onde, na primeira desigualdade, usamos a continuidade uniforme de f.
Já para B. temos
\begin{array}{rcl} B & = & \displaystyle{ \sum_{|k - nx| \geq n^{2/3} } x^k (1-x)^{(n-k)}\left| f(x) - f\left(\frac{k}{n}\right) \right|} \\ & \leq & \displaystyle{ \sum_{|k - nx| \geq n^{2/3} } x^k (1-x)^{(n-k)} 2M}\\ & = & 2M \displaystyle{ \mathbf{Pr}[| X - nx | \geq n^{2/3}]} \\ & < & 2M \frac{\epsilon}{4M} = \frac{\epsilon}{2}, \end{array}
onde, na primeira desigualdade, usamos o fato de f ser limitada por M.
O que resulta
|f(x) - p(x)| < \frac{\epsilon}{2} + \frac{\epsilon}{2} = \epsilon, \quad \forall x \in [0,1],
como queríamos. \square
O polinômio p(x) definido durante a prova acima, apesar de parecer muito artificial, é um polinômio conhecido. Trata-se do n-ésimo polinômio de Bernstein associado a f. Este polinômio possui algumas propriedades estocásticas interessantes; veja, por exemplo, [6], onde encontramos uma generalização do teorema da aproximação de Weierstrass para funções contínuas f:[0,1]^d\rightarrow \mathbb{C}.
Agora demonstraremos a desigualdade de Chebyshev.
Agora demonstraremos a desigualdade de Chebyshev.
Demonstração do lema. Primeiro provamos o seguinte fato conhecido como desigualdade de Markov. Sejam Y uma variável aleatória positiva e \mu_Y = \mathbf{E}[Y]. Afirmo que
\mathbf{Pr}[Y\geq \lambda] \leq \frac{\mu_Y}{\lambda}.
Isto segue do seguinte fato:
\lambda \mathbf{1}_{\{Y\geq \lambda\}} \leq Y.
Tomando o valor esperado em ambos os lados, temos
\lambda \mathbf{E}[ \mathbf{1}_{\{Y\geq \lambda\}}] \leq \mathbf{E}[Y] = \mu_Y.
Como \mathbf{Pr}[Y\geq \lambda] = \mathbf{E}[ \mathbf{1}_{\{Y\geq \lambda\}}], segue a veracidade da afirmação.
Agora, para provar a desigualdade de Chebyshev é suficiente tomar Y = (X - \mu)^2 na desigualdade de Markov. De fato, com Y escolhido desta maneira, temos \mathbf{E}[Y] = \mathbf{E}[(X - \mu)^2] = \mathbf{Var}[X] = \sigma^2. Pela desigualdade de Markov, temos
\mathbf{Pr}[|X-\mu| \geq \lambda] = \mathbf{Pr}[Y \geq \lambda ^2] \leq \frac{\sigma^2}{\lambda^2}. \square
Até a próxima!
Até a próxima!
Referências.
[1] Noga Alon and Joel H. Spencer. The Probabilistic Method, Third edition. Wiley Series in Discrete Mathematics and Optimization, 2008. (Google Books)
[2] Anton R. Schep. Weierstrass' proof of the Weierstras approximation theorem. (link: http://www.math.sc.edu/~schep/weierstrass.pdf )
[3] Richard Wheeden and Antoni Zygmund. Measure and Integral: an Itroduction to Real Analysis. Chapman & Hall, Pure and Applied Mathematics, 1977.
[4] Djairo Guedes. Análise de Fourier e equações diferenciais parciais. IMPA, 2000.
[5] Proof of Weierstrass Approximation Theorem.
(link: http://planetmath.org/proofofweierstrassapproximationtheorem )
[6] Emmanuel Kowalski. Bernstein polynomials and Brownian motion.
Nenhum comentário:
Postar um comentário
Use cifrões para inserir um comando TeX. Por exemplo: "Afirmo que \$ \sqrt {2} \$ é irracional".