Neste post, apresentarei uma prova do Teorema da Aproximação de Weierstrass usando um argumento probabilístico. Mais precisamente, tal argumento será embasado no seguinte
Lema. (Desigualdade de Chebyshev) Sejam $X$ uma variável aleatória, $\mu = \mathbf{E}[X]$ o valor esperado de $X$ e $\sigma^2 = \mathbf{Var}[X]$ a variância de $X$. Então, para $\lambda > 0$,
$$ \mathbf{Pr}[| X - \mu | \geq \lambda] \leq \frac{\sigma^2}{\lambda^2}.$$
Observe que se $X$ possui distribuição binomial $\mathbf{Bin}(n,p)$, então $\mu = np$ e $\sigma = np(1-p)$. Se tomarmos $\lambda = n^{2/3}$ na desigualdade de Chebyshev, obtemos
$$ \mathbf{Pr}[| X - np | \geq n^{2/3}] \leq \frac{np(1-p)}{n^{4/3}} \leq n^{-1/3},$$
que tende para zero, quando $n \to \infty$. Esta observação será crucial para a prova do
Teorema da aproximação de Weierstrass. Seja $f:[a,b] \rightarrow \mathbb{R}$ uma função contínua. Para todo $\epsilon >0$, existe um polinômio $p(x)$ tal que $$|f(x) - p(x)|<\epsilon, \quad \forall x \in [a,b].$$
Outra maneira de enunciar o teorema acima é a seguinte: para qualquer função contínua $f:[a,b] \rightarrow \mathbb{R}$, existe uma sequência de polinômios $(p_n)$ que convergem uniformemente para $f$.
O teorema é originalmente atribuído a Karl Weierstrass (imagem abaixo), quem deu uma primeira demonstração em 1885 usando o que hoje chamamos de transformações de Weierstrass. Mais tarde, Marshall Stone generalizou o teorema e apresentou uma versão simplificada da prova de Weierstrass. Assim, o teorema é também conhecido como Teorema de Stone-Weierstrass. Hoje, podemos encontrar diversas provas deste resultado. Eu, pelo menos, conheço cinco versões essencialmente distintas: uma versão utilizando as transformações de Weierstras [2]; outra usando o teorema de Fejér [3]; outra usando os núcleos de Landau [4]; uma totalmente elementar [5]; e uma usando argumentos probabilísticos (que pode ser encontrada em [1]) , que é a que será dada aqui (e a que dentre as cinco citadas, é a minha preferida).
Provaremos o teorema para $[a,b] = [0,1]$. O leitor não deverá ter dificuldade em verificar que isto é suficiente, i.e., uma vez provado para $[0,1]$, não há resistência alguma em garantir o resultado para qualquer intervalo fechado e limitado.
Demonstração do Teorema. Seja $\epsilon > 0$ dado. Como $f$ é contínua sobre um conjunto compacto, segue que $f$ é uniformemente contínua. Portanto, existe um $\delta >0$ (que depende de $\epsilon$) tal que se $|x-y| < \delta$, então $|f(x) - f(y)| < \frac{\epsilon}{2}$. E ainda devido ao fato de $f$ ser contínua sobre um compacto, segue que $f$ é limitada, i.e., existe $M>0$ tal que $|f(x)| < M$, para todo $x\in [0,1]$.
Agora escolhemos $n$ suficientemente grande tal que
$$n^{-1/3} < \displaystyle{\min \left\{ \delta, \frac{\epsilon}{4M}\right\}}.$$
O que assegura que para todo $x\in[0,1]$ e para $X \sim \mathbf{Bin}(x,n)$, temos que
$$ \mathbf{Pr}[| X - nx | \geq n^{2/3}] \leq n^{-1/3} < \displaystyle{\min \left\{ \delta, \frac{\epsilon}{4M}\right\}},$$
como foi comentado no parágrafo subsequente à desigualdade de Chebyshev.
Seja $p(x)$ o seguinte polinômio
$$p(x) = \sum_{k=0}^{n} x^k (1-x)^{(n-k)} f\left(\frac{k}{n}\right).$$
Observe que
$$\sum_{k=0}^{n} x^k (1-x)^{(n-k)} = 1.$$
De modo que
$$f(x) = \sum_{k=0}^{n} x^k (1-x)^{(n-k)}f(x).$$
Agora, obtemos o seguinte
$$ \begin{array}{rcl} |f(x)-p(x)| & = & \displaystyle{ \left| \sum_{k=0}^{n} x^k (1-x)^{(n-k)}\left( f(x) - f\left(\frac{k}{n}\right) \right) \right|} \\ & \leq & \displaystyle{ \sum_{k=0}^{n} x^k (1-x)^{(n-k)}\left| f(x) - f\left(\frac{k}{n}\right) \right|} \\ & = & \displaystyle{ \sum_{|k -nx| < n^{2/3}} (\ldots)} + \displaystyle{ \sum_{|k -nx| \geq n^{2/3}} (\ldots)} \\ & = & A + B. \end{array}$$
Analisemos os somatórios $A$ e $B$ separadamente. Para $A$, temos
$$ \begin{array}{rcl} A & = & \displaystyle{ \sum_{|k -nx| < n^{2/3}} x^k (1-x)^{(n-k)}\left| f(x) - f\left(\frac{k}{n}\right) \right|}\\ & = & \displaystyle{ \sum_{|\frac{k}{n} - x| < n^{-1/3} < \delta} x^k (1-x)^{(n-k)}\left| f(x) - f\left(\frac{k}{n}\right) \right|}\\ & < & \displaystyle{ \sum_{|\frac{k}{n} - x| < n^{-1/3}} x^k (1-x)^{(n-k)}\frac{\epsilon}{2}}\\ & \leq & \displaystyle{ \sum_{k=0}^{n} x^k (1-x)^{(n-k)} \frac{\epsilon}{2}} = \frac{\epsilon}{2}, \end{array} $$
onde, na primeira desigualdade, usamos a continuidade uniforme de $f$.
Já para $B$. temos
$$ \begin{array}{rcl} B & = & \displaystyle{ \sum_{|k - nx| \geq n^{2/3} } x^k (1-x)^{(n-k)}\left| f(x) - f\left(\frac{k}{n}\right) \right|} \\ & \leq & \displaystyle{ \sum_{|k - nx| \geq n^{2/3} } x^k (1-x)^{(n-k)} 2M}\\ & = & 2M \displaystyle{ \mathbf{Pr}[| X - nx | \geq n^{2/3}]} \\ & < & 2M \frac{\epsilon}{4M} = \frac{\epsilon}{2}, \end{array} $$
onde, na primeira desigualdade, usamos o fato de $f$ ser limitada por $M$.
O que resulta
$$|f(x) - p(x)| < \frac{\epsilon}{2} + \frac{\epsilon}{2} = \epsilon, \quad \forall x \in [0,1],$$
como queríamos. $\square$
O polinômio $p(x)$ definido durante a prova acima, apesar de parecer muito artificial, é um polinômio conhecido. Trata-se do $n$-ésimo polinômio de Bernstein associado a $f$. Este polinômio possui algumas propriedades estocásticas interessantes; veja, por exemplo, [6], onde encontramos uma generalização do teorema da aproximação de Weierstrass para funções contínuas $f:[0,1]^d\rightarrow \mathbb{C}$.
Agora demonstraremos a desigualdade de Chebyshev.
Agora demonstraremos a desigualdade de Chebyshev.
Demonstração do lema. Primeiro provamos o seguinte fato conhecido como desigualdade de Markov. Sejam $Y$ uma variável aleatória positiva e $\mu_Y = \mathbf{E}[Y]$. Afirmo que
$$\mathbf{Pr}[Y\geq \lambda] \leq \frac{\mu_Y}{\lambda}.$$
Isto segue do seguinte fato:
$$\lambda \mathbf{1}_{\{Y\geq \lambda\}} \leq Y.$$
Tomando o valor esperado em ambos os lados, temos
$$\lambda \mathbf{E}[ \mathbf{1}_{\{Y\geq \lambda\}}] \leq \mathbf{E}[Y] = \mu_Y.$$
Como $\mathbf{Pr}[Y\geq \lambda] = \mathbf{E}[ \mathbf{1}_{\{Y\geq \lambda\}}]$, segue a veracidade da afirmação.
Agora, para provar a desigualdade de Chebyshev é suficiente tomar $Y = (X - \mu)^2$ na desigualdade de Markov. De fato, com $Y$ escolhido desta maneira, temos $\mathbf{E}[Y] = \mathbf{E}[(X - \mu)^2] = \mathbf{Var}[X] = \sigma^2$. Pela desigualdade de Markov, temos
$$ \mathbf{Pr}[|X-\mu| \geq \lambda] = \mathbf{Pr}[Y \geq \lambda ^2] \leq \frac{\sigma^2}{\lambda^2}.$$ $\square$
Até a próxima!
Até a próxima!
Referências.
[1] Noga Alon and Joel H. Spencer. The Probabilistic Method, Third edition. Wiley Series in Discrete Mathematics and Optimization, 2008. (Google Books)
[2] Anton R. Schep. Weierstrass' proof of the Weierstras approximation theorem. (link: http://www.math.sc.edu/~schep/weierstrass.pdf )
[3] Richard Wheeden and Antoni Zygmund. Measure and Integral: an Itroduction to Real Analysis. Chapman & Hall, Pure and Applied Mathematics, 1977.
[4] Djairo Guedes. Análise de Fourier e equações diferenciais parciais. IMPA, 2000.
[5] Proof of Weierstrass Approximation Theorem.
(link: http://planetmath.org/proofofweierstrassapproximationtheorem )
[6] Emmanuel Kowalski. Bernstein polynomials and Brownian motion.
Nenhum comentário:
Postar um comentário
Use cifrões para inserir um comando TeX. Por exemplo: "Afirmo que $\$ $\sqrt {2} $\$ $ é irracional".