O valor médio de uma variável aleatória
"E (X)" redireciona aqui. Para a função, consulte
Função exponencial .
Em teoria de probabilidade , o valor esperado de uma variável aleatória , frequentemente indicada , ou , é uma generalização da média , e é intuitivamente a média aritmética de um grande número de independentes realizações de . O operador de expectativa também é comumente estilizado como ou . O valor esperado também é conhecido como expectativa , expectativa matemática , média , média ou primeiro momento . O valor esperado é um conceito-chave em economia , finanças e muitos outros assuntos.
Por definição, o valor esperado de uma variável aleatória constante é . O valor esperado de uma variável aleatória com resultados equiprováveis é definido como a média aritmética dos termos. Se algumas das probabilidades de um resultado individual forem desiguais, o valor esperado é definido como a média ponderada da probabilidade de s, ou seja , a soma dos produtos . O valor esperado de uma variável aleatória geral envolve integração no sentido de Lebesgue .
História
A ideia do valor esperado teve origem em meados do século XVII a partir do estudo do chamado problema da pontuação , que visa dividir a aposta de forma justa entre dois jogadores, que têm de encerrar o jogo antes que esteja devidamente finalizado. Esse problema foi debatido por séculos. Muitas propostas e soluções conflitantes foram sugeridas ao longo dos anos, quando foi apresentado a Blaise Pascal pelo escritor francês e matemático amador Chevalier de Méré em 1654. Méré afirmou que esse problema não poderia ser resolvido e que mostrava o quão falha a matemática era quando veio para sua aplicação ao mundo real. Pascal, sendo um matemático, foi provocado e determinado a resolver o problema de uma vez por todas.
Ele começou a discutir o problema na famosa série de cartas a Pierre de Fermat . Logo, os dois, independentemente, encontraram uma solução. Eles resolveram o problema de maneiras computacionais diferentes, mas seus resultados foram idênticos porque seus cálculos foram baseados no mesmo princípio fundamental. O princípio é que o valor de um ganho futuro deve ser diretamente proporcional à chance de obtê-lo. Esse princípio parecia ter surgido naturalmente para ambos. Eles ficaram muito satisfeitos com o fato de terem encontrado essencialmente a mesma solução, e isso, por sua vez, os deixou absolutamente convencidos de que haviam resolvido o problema de forma conclusiva; no entanto, eles não publicaram suas descobertas. Eles informaram apenas um pequeno círculo de amigos científicos em comum em Paris.
No livro do matemático holandês Christiaan Huygen , ele considerou o problema dos pontos e apresentou uma solução baseada no mesmo princípio das soluções de Pascal e Fermat. Huygens publicou seu tratado em 1657 (ver Huygens (1657) ) " De ratiociniis in ludo aleæ " sobre a teoria da probabilidade logo após visitar Paris. O livro estendeu o conceito de expectativa ao adicionar regras para calcular as expectativas em situações mais complicadas do que o problema original (por exemplo, para três ou mais jogadores) e pode ser visto como a primeira tentativa bem-sucedida de estabelecer as bases da teoria de probabilidade .
No prefácio de seu tratado, Huygens escreveu:
Deve-se dizer, também, que por algum tempo alguns dos melhores matemáticos da França se ocuparam com esse tipo de cálculo, para que ninguém me atribuísse a honra da primeira invenção. Isso não pertence a mim. Mas esses sábios, embora se ponham à prova propondo uns aos outros muitas questões difíceis de resolver, esconderam seus métodos. Tive, portanto, que examinar e aprofundar por mim mesmo neste assunto, começando com os elementos, e é impossível para mim, por isso, afirmar que comecei do mesmo princípio. Mas, finalmente, descobri que minhas respostas em muitos casos não diferem das deles.
- Edwards (2002)
Durante sua visita à França em 1655, Huygens aprendeu sobre o Problema de de Méré . A partir de sua correspondência com Carcavine um ano depois (em 1656), ele percebeu que seu método era essencialmente o mesmo que o de Pascal. Portanto, ele sabia sobre a prioridade de Pascal neste assunto antes de seu livro ir para a impressão em 1657.
Em meados do século XIX, Pafnuty Chebyshev se tornou a primeira pessoa a pensar sistematicamente em termos das expectativas de variáveis aleatórias .
Etimologia
Nem Pascal nem Huygens usaram o termo "expectativa" em seu sentido moderno. Em particular, Huygens escreve:
Que qualquer chance ou expectativa de ganhar qualquer coisa vale exatamente essa soma, que obteríamos na mesma chance e expectativa em uma aposta justa. ... Se eu espero a ou b, e tenho chances iguais de ganhá-los, minha Expectativa vale (a + b) / 2.
Mais de cem anos depois, em 1814, Pierre-Simon Laplace publicou seu tratado " Théorie analytique des probabilités ", onde o conceito de valor esperado foi definido explicitamente:
... essa vantagem na teoria do acaso é o produto da soma esperada pela probabilidade de obtê-la; é a soma parcial que deve resultar quando não queremos correr os riscos do evento ao supor que a divisão é feita proporcional às probabilidades. Essa divisão é a única eqüitativa quando todas as circunstâncias estranhas são eliminadas; porque um grau igual de probabilidade dá um direito igual para a soma esperada. Chamaremos essa vantagem de esperança matemática .
Notações
O uso da letra para denotar o valor esperado remonta a WA Whitworth em 1901. O símbolo se tornou popular desde então para os escritores ingleses. Em alemão, significa "Erwartungswert", em espanhol significa "Esperanza matemática" e em francês "Espérance mathématique".
Quando E é usado para denotar o valor esperado, os autores usam uma variedade de notações: o operador de expectativa pode ser estilizado como (vertical), (itálico) ou (em negrito no quadro-negro ), enquanto os colchetes ( ), colchetes ( ) ou nenhum colchete ( ) é usado.
Outra notação popular é , enquanto é comumente usada na física e na literatura de língua russa.
Definição
Caso finito
Let Ser uma variável aleatória (discreta) com um número finito de resultados finitos ocorrendo com probabilidades respectivamente. A expectativa de é definida como
Já o valor esperado é a soma ponderada dos valores, com as probabilidades como os pesos.
Se todos os resultados forem equiprováveis (ou seja, ), a média ponderada se transforma em média simples . Por outro lado, se os resultados não forem equiprováveis, a média simples deve ser substituída pela média ponderada, que leva em consideração o fato de que alguns resultados são mais prováveis do que outros.
Uma ilustração da convergência das médias de sequência de lançamentos de um
dado para o valor esperado de 3,5 conforme o número de lançamentos (tentativas) aumenta.
Exemplos
- Vamos representar o resultado de um rolo de uma feira de seis lados morrem . Mais especificamente, será o número de sementes exibidas na face superior do dado após o lançamento. Os valores possíveis para são 1, 2, 3, 4, 5 e 6, todos os quais são igualmente prováveis com uma probabilidade de
1/6. A expectativa de é
- Se um rola o die vezes e calcula a média ( média aritmética ) dos resultados, em seguida, como cresce, a média será quase certamente convergir para o valor esperado, fato conhecido como o forte lei dos grandes números .
- O jogo de roleta consiste em uma pequena bola e uma roda com 38 bolsos numerados ao redor da borda. Conforme a roda é girada, a bola salta aleatoriamente até se acomodar em um dos bolsos. Suponha que a variável aleatória represente o resultado (monetário) de uma aposta de $ 1 em um único número (aposta "direta"). Se a aposta ganhar (o que acontece com probabilidade1/38na roleta americana), a recompensa é de $ 35; caso contrário, o jogador perde a aposta. O lucro esperado dessa aposta será
- Ou seja, a aposta de $ 1 pode perder , então seu valor esperado é
Caso infinito
Intuitivamente, a expectativa de uma variável aleatória assumindo valores em um conjunto contável de resultados é definida analogamente como a soma ponderada dos valores de resultado, onde os pesos correspondem às probabilidades de realização desse valor. No entanto, as questões de convergência associadas à soma infinita requerem uma definição mais cuidadosa. Uma definição rigorosa primeiro define a expectativa de uma variável aleatória não negativa e, em seguida, a adapta às variáveis aleatórias gerais.
Let Ser uma variável aleatória não negativa com um conjunto contável de resultados ocorrendo com probabilidades respectivamente. Análogo ao caso discreto, o valor esperado de é então definido como a série
Observe que , uma vez que , a soma infinita é bem definida e não depende da ordem em que é calculada. Ao contrário do caso finito, a expectativa aqui pode ser igual ao infinito, se a soma infinita acima aumentar sem limite.
Para uma variável aleatória geral (não necessariamente não negativa) com um número contável de resultados, defina e . Por definição,
Como as variáveis aleatórias não negativas, podem, mais uma vez, ser finitas ou infinitas. A terceira opção aqui é que não há mais garantia de que seja bem definida. O último acontece sempre .
Exemplos
- Suponha que e para , onde ( sendo o logaritmo natural ) é o fator de escala tal que as probabilidades somam 1. Então, usando a definição direta para variáveis aleatórias não negativas, temos
- Um exemplo em que a expectativa é infinita surge no contexto do paradoxo de São Petersburgo . Deixe e por . Mais uma vez, uma vez que a variável aleatória não é negativa, o cálculo do valor esperado dá
- Para um exemplo em que a expectativa não está bem definida, suponha que a variável aleatória assuma valores com as respectivas probabilidades , ..., onde é uma constante de normalização que garante a soma das probabilidades em um.
- Então, segue-se que assume valor com probabilidade para e assume valor com probabilidade restante. Da mesma forma, assume valor com probabilidade para e assume valor com probabilidade restante. Usando a definição de variáveis aleatórias não negativas, pode-se mostrar que ambos e (ver Série Harmônica ). Portanto, a expectativa de não está bem definida.
Caso absolutamente contínuo
Se for uma variável aleatória com uma função de densidade de probabilidade de , então o valor esperado é definido como a integral de Lebesgue
onde os valores em ambos os lados são bem definidos ou não bem definidos simultaneamente.
Exemplo. Uma variável aleatória que possui a distribuição de Cauchy possui uma função de densidade, mas o valor esperado é indefinido, pois a distribuição possui grandes "caudas" .
Caso Geral
Em geral, se for uma variável aleatória definida em um espaço de probabilidade , então o valor esperado de , denotado por , é definido como a integral de Lebesgue
Para variáveis aleatórias multidimensionais, seu valor esperado é definido por componente. Isso é,
e, para uma matriz aleatória com elementos ,
Propriedades básicas
As propriedades básicas abaixo (e seus nomes em negrito) replicam ou seguem imediatamente daquelas da integral de Lebesgue . Observe que as letras "como" representam " quase com certeza " - uma propriedade central da integral de Lebesgue. Basicamente, diz-se que uma desigualdade como é quase certa, quando a medida de probabilidade atribui massa zero ao evento complementar .
- Para uma variável aleatória geral , defina como antes e , e observe que , com ambos e não negativo, então:
- Vamos denotar a função de indicador de um evento , então
-
Fórmulas em termos de CDF: Se for a função de distribuição cumulativa da medida de probabilidade e for uma variável aleatória, então
- onde os valores em ambos os lados são bem definidos ou não bem definidos simultaneamente, e a integral é tomada no sentido de Lebesgue-Stieltjes . Aqui está a linha real estendida.
- Adicionalmente,
- com as integrais tomadas no sentido de Lebesgue.
- A prova da segunda fórmula segue.
Prova.
|
Para um arbitrário
A última igualdade é válida porque a desigualdade onde implica isso e, portanto , por outro lado, se então
e
O integrando na expressão para é não negativo, então o teorema de Tonelli se aplica, e a ordem de integração pode ser trocada:
Argumentando como acima,
e
Lembrar disso completa a prova.
|
-
Não negatividade: Se (as), então .
-
Linearidade da expectativa: O operador de valor esperado (ou operador de expectativa ) é linear no sentido de que, para quaisquer variáveis aleatórias e , e uma constante ,
- sempre que o lado direito estiver bem definido. Isso significa que o valor esperado da soma de qualquer número finito de variáveis aleatórias é a soma dos valores esperados das variáveis aleatórias individuais e o valor esperado escala linearmente com uma constante multiplicativa. Simbolicamente, para variáveis e constantes aleatórias , temos .
-
Monotonicidade: Se (as) , e ambos e existem, então .
- A prova segue da linearidade e da propriedade de não negatividade para , uma vez que (as).
-
Não multiplicatividade: Em geral, o valor esperado não é multiplicativo, ou seja, não é necessariamente igual a . Se e for independente , pode-se mostrar isso . Se as variáveis aleatórias são dependentes , então geralmente , embora em casos especiais de dependência, a igualdade pode ser mantida.
-
Lei do estatístico inconsciente : O valor esperado de uma função mensurável de,, dado quetem uma função de densidade de probabilidade, é dada pelo produto interior dee:
-
- Esta fórmula também é válida no caso multidimensional, quando é função de várias variáveis aleatórias, e é sua densidade conjunta .
-
Não degenerescência: Se , então (as).
- Para uma variável aleatória com expectativa bem definida: .
- As seguintes afirmações sobre uma variável aleatória são equivalentes:
-
existe e é finito.
- Ambos e são finitos.
-
é finito.
- Pelas razões acima, as expressões " é integrável" e "o valor esperado de é finito" são usadas alternadamente ao longo deste artigo.
- Se então (como) . Da mesma forma, se então (como) .
- Se e então
- Se (como) , então . Em outras palavras, se X e Y forem variáveis aleatórias que assumem valores diferentes com probabilidade zero, então a expectativa de X será igual à expectativa de Y.
- Se (as) para alguma constante , então . Em particular, para uma variável aleatória com expectativa bem definida ,. Uma expectativa bem definida implica que existe um número, ou melhor, uma constante que define o valor esperado. Portanto, segue-se que a expectativa dessa constante é apenas o valor esperado original.
- Para uma variável aleatória de valor inteiro não negativa
Prova.
|
Se então, por outro lado,
então a série à direita diverge e a igualdade se mantém.
Se então
Defina a matriz triangular superior infinita
A série dupla é a soma dos elementos de se a soma for feita linha por linha. Uma vez que todo somatório é não negativo, a série converge absolutamente ou diverge para. Em ambos os casos, mudar a ordem de somatório não afeta a soma. Alterar a ordem da soma, de linha por linha para coluna por coluna, nos dá
|
Usos e aplicações
A expectativa de uma variável aleatória desempenha um papel importante em uma variedade de contextos. Por exemplo, na teoria da decisão , supõe-se que um agente que faz uma escolha ótima no contexto de informações incompletas maximiza o valor esperado de sua função de utilidade . Para um exemplo diferente, em estatísticas , em que se busca estimativas para parâmetros desconhecidos com base nos dados disponíveis, a própria estimativa é uma variável aleatória. Em tais configurações, um critério desejável para um estimador "bom" é que ele seja imparcial ; ou seja, o valor esperado da estimativa é igual ao valor verdadeiro do parâmetro subjacente.
É possível construir um valor esperado igual à probabilidade de um evento, tomando a expectativa de uma função indicadora que é um se o evento ocorreu e zero caso contrário. Essa relação pode ser usada para traduzir propriedades de valores esperados em propriedades de probabilidades, por exemplo, usando a lei dos grandes números para justificar a estimativa de probabilidades por frequências .
Os valores esperados das potências de X são chamados de momentos de X ; os momentos sobre a média de X são valores esperados das potências de X - E [ X ]. Os momentos de algumas variáveis aleatórias podem ser usados para especificar suas distribuições, por meio de suas funções geradoras de momento .
Para estimar empiricamente o valor esperado de uma variável aleatória, mede-se repetidamente as observações da variável e calcula a média aritmética dos resultados. Se o valor esperado existe, este procedimento estima o valor esperado verdadeiro de maneira não enviesada e tem a propriedade de minimizar a soma dos quadrados dos resíduos (a soma das diferenças quadradas entre as observações e a estimativa ). A lei dos grandes números demonstra (em condições bastante brandas) que, à medida que o tamanho da amostra aumenta, a variância dessa estimativa fica menor.
Esta propriedade é frequentemente explorada em uma ampla variedade de aplicações, incluindo problemas gerais de estimativa estatística e aprendizado de máquina , para estimar quantidades (probabilísticas) de interesse por meio de métodos de Monte Carlo , uma vez que a maioria das quantidades de interesse pode ser escrita em termos de expectativa, por exemplo , onde está a função de indicador do conjunto .
A massa da distribuição de probabilidade é balanceada no valor esperado, aqui uma distribuição Beta (α, β) com valor esperado α / (α + β).
Na mecânica clássica , o centro de massa é um conceito análogo à expectativa. Por exemplo, suponha que X seja uma variável aleatória discreta com valores x i e probabilidades correspondentes p i . Agora considere uma barra sem peso na qual são colocados pesos, nos locais x i ao longo da barra e tendo massas p i (cuja soma é um). O ponto em que a barra se equilibra é E [ X ].
Os valores esperados também podem ser usados para calcular a variância , por meio da fórmula computacional para a variância
Uma aplicação muito importante do valor esperado está no campo da mecânica quântica . O valor esperado de um operador mecânico quântico operando em um vetor de estado quântico é escrito como . A incerteza em pode ser calculada usando a fórmula .
Intercambiando limites e expectativas
Em geral, não é o caso que, apesar de pontual. Assim, não se pode intercambiar limites e expectativas, sem condições adicionais sobre as variáveis aleatórias. Para ver isso, deixe ser uma variável aleatória distribuída uniformemente . Para definir uma sequência de variáveis aleatórias
com sendo a função de indicador do evento . Então, segue-se que (as). Mas, para cada um . Portanto,
Analogamente, para a sequência geral de variáveis aleatórias , o operador de valor esperado não é -aditivo, ou seja,
Um exemplo é facilmente obtido definindo e para , onde está como no exemplo anterior.
Vários resultados de convergência especificam condições exatas que permitem intercambiar limites e expectativas, conforme especificado abaixo.
-
Teorema da convergência monótona : Let Ser uma seqüência de variáveis aleatórias, com (as) para cada . Além disso, deixe pontualmente. Então, o teorema de convergência monótona afirma que
- Usando o teorema da convergência monótona, pode-se mostrar que a expectativa de fato satisfaz a aditividade contável para variáveis aleatórias não negativas. Em particular, sejam variáveis aleatórias não negativas. Segue-se do teorema de convergência monótona que
-
Lema de Fatou : Let Ser uma seqüência de variáveis aleatórias não negativas. O lema de Fatou afirma que
-
Corolário. Deixe com tudo . Se (como), então
-
A prova é observando esse (as) e aplicando o lema de Fatou.
-
Teorema da convergência dominada : Let Ser uma seqüência de variáveis aleatórias. Se pontualmente (as), (as) e . Então, de acordo com o teorema da convergência dominada,
-
;
-
Integrabilidade uniforme : em alguns casos, a igualdade é mantida quando a sequência é uniformemente integrável .
Desigualdades
Existem várias desigualdades envolvendo os valores esperados de funções de variáveis aleatórias. A lista a seguir inclui algumas das mais básicas.
-
Desigualdade de Markov : Para uma variável aleatória não negativa e , a desigualdade de Markov afirma que
-
Desigualdade de Bienaymé-Chebyshev : Let Ser uma variável aleatória arbitrária com valor esperado finito e variância finita . A desigualdade Bienaymé-Chebyshev afirma que, para qualquer número real ,
-
Desigualdade de Jensen : Seja uma função convexa de Borel e uma variável aleatória tal que . Então
- O lado direito é bem definido, mesmo se assumir valores não finitos. De fato, como observado acima, a finitude de implica que é finito como; portanto, é definido como.
- Desigualdade de Lyapunov: Let . A desigualdade de Lyapunov afirma que
-
Prova. Aplicando a desigualdade de Jensen para e , obtenha . Tirar a raiz de cada lado completa a prova.
-
A desigualdade de Hölder : Deixe e satisfazer , e . A desigualdade de Hölder afirma que
-
Desigualdade de Minkowski : Seja um número real positivo que satisfaça . Deixe, além disso, e . Então, de acordo com a desigualdade de Minkowski, e
Valores esperados de distribuições comuns
Distribuição
|
Notação
|
Média E (X)
|
Bernoulli
|
|
|
Binomial
|
|
|
Poisson
|
|
|
Geométrico
|
|
|
Uniforme
|
|
|
Exponencial
|
|
|
Normal
|
|
|
Normal Padrão
|
|
|
Pareto
|
|
para ; para 0 a 1
|
Cauchy
|
|
Indefinido
|
Relação com função característica
A função de densidade de probabilidade de uma variável aleatória escalar está relacionada à sua função característica pela fórmula de inversão:
Para o valor esperado de (onde é uma função de Borel ), podemos usar esta fórmula de inversão para obter
Se for finito, mudando a ordem de integração, obtemos, de acordo com o teorema de Fubini-Tonelli ,
Onde
é a transformada de Fourier de A expressão para também segue diretamente do teorema de Plancherel .
Veja também
Referências
Literatura
-
Edwards, AWF (2002). Triângulo aritmético de Pascal: a história de uma ideia matemática (2ª ed.). JHU Press. ISBN 0-8018-6946-3.
-
Huygens, Christiaan (1657). De ratiociniis in ludo aleæ (tradução inglesa, publicada em 1714) .