Valor esperado - Expected value

Em teoria de probabilidade , o valor esperado de uma variável aleatória , frequentemente indicada , ou , é uma generalização da média , e é intuitivamente a média aritmética de um grande número de independentes realizações de . O operador de expectativa também é comumente estilizado como ou . O valor esperado também é conhecido como expectativa , expectativa matemática , média , média ou primeiro momento . O valor esperado é um conceito-chave em economia , finanças e muitos outros assuntos.

Por definição, o valor esperado de uma variável aleatória constante é . O valor esperado de uma variável aleatória com resultados equiprováveis é definido como a média aritmética dos termos. Se algumas das probabilidades de um resultado individual forem desiguais, o valor esperado é definido como a média ponderada da probabilidade de s, ou seja , a soma dos produtos . O valor esperado de uma variável aleatória geral envolve integração no sentido de Lebesgue .

História

A ideia do valor esperado teve origem em meados do século XVII a partir do estudo do chamado problema da pontuação , que visa dividir a aposta de forma justa entre dois jogadores, que têm de encerrar o jogo antes que esteja devidamente finalizado. Esse problema foi debatido por séculos. Muitas propostas e soluções conflitantes foram sugeridas ao longo dos anos, quando foi apresentado a Blaise Pascal pelo escritor francês e matemático amador Chevalier de Méré em 1654. Méré afirmou que esse problema não poderia ser resolvido e que mostrava o quão falha a matemática era quando veio para sua aplicação ao mundo real. Pascal, sendo um matemático, foi provocado e determinado a resolver o problema de uma vez por todas.

Ele começou a discutir o problema na famosa série de cartas a Pierre de Fermat . Logo, os dois, independentemente, encontraram uma solução. Eles resolveram o problema de maneiras computacionais diferentes, mas seus resultados foram idênticos porque seus cálculos foram baseados no mesmo princípio fundamental. O princípio é que o valor de um ganho futuro deve ser diretamente proporcional à chance de obtê-lo. Esse princípio parecia ter surgido naturalmente para ambos. Eles ficaram muito satisfeitos com o fato de terem encontrado essencialmente a mesma solução, e isso, por sua vez, os deixou absolutamente convencidos de que haviam resolvido o problema de forma conclusiva; no entanto, eles não publicaram suas descobertas. Eles informaram apenas um pequeno círculo de amigos científicos em comum em Paris.

No livro do matemático holandês Christiaan Huygen , ele considerou o problema dos pontos e apresentou uma solução baseada no mesmo princípio das soluções de Pascal e Fermat. Huygens publicou seu tratado em 1657 (ver Huygens (1657) ) " De ratiociniis in ludo aleæ " sobre a teoria da probabilidade logo após visitar Paris. O livro estendeu o conceito de expectativa ao adicionar regras para calcular as expectativas em situações mais complicadas do que o problema original (por exemplo, para três ou mais jogadores) e pode ser visto como a primeira tentativa bem-sucedida de estabelecer as bases da teoria de probabilidade .

No prefácio de seu tratado, Huygens escreveu:

Deve-se dizer, também, que por algum tempo alguns dos melhores matemáticos da França se ocuparam com esse tipo de cálculo, para que ninguém me atribuísse a honra da primeira invenção. Isso não pertence a mim. Mas esses sábios, embora se ponham à prova propondo uns aos outros muitas questões difíceis de resolver, esconderam seus métodos. Tive, portanto, que examinar e aprofundar por mim mesmo neste assunto, começando com os elementos, e é impossível para mim, por isso, afirmar que comecei do mesmo princípio. Mas, finalmente, descobri que minhas respostas em muitos casos não diferem das deles.

-  Edwards (2002)

Durante sua visita à França em 1655, Huygens aprendeu sobre o Problema de de Méré . A partir de sua correspondência com Carcavine um ano depois (em 1656), ele percebeu que seu método era essencialmente o mesmo que o de Pascal. Portanto, ele sabia sobre a prioridade de Pascal neste assunto antes de seu livro ir para a impressão em 1657.

Em meados do século XIX, Pafnuty Chebyshev se tornou a primeira pessoa a pensar sistematicamente em termos das expectativas de variáveis ​​aleatórias .

Etimologia

Nem Pascal nem Huygens usaram o termo "expectativa" em seu sentido moderno. Em particular, Huygens escreve:

Que qualquer chance ou expectativa de ganhar qualquer coisa vale exatamente essa soma, que obteríamos na mesma chance e expectativa em uma aposta justa. ... Se eu espero a ou b, e tenho chances iguais de ganhá-los, minha Expectativa vale (a + b) / 2.

Mais de cem anos depois, em 1814, Pierre-Simon Laplace publicou seu tratado " Théorie analytique des probabilités ", onde o conceito de valor esperado foi definido explicitamente:

... essa vantagem na teoria do acaso é o produto da soma esperada pela probabilidade de obtê-la; é a soma parcial que deve resultar quando não queremos correr os riscos do evento ao supor que a divisão é feita proporcional às probabilidades. Essa divisão é a única eqüitativa quando todas as circunstâncias estranhas são eliminadas; porque um grau igual de probabilidade dá um direito igual para a soma esperada. Chamaremos essa vantagem de esperança matemática .

Notações

O uso da letra para denotar o valor esperado remonta a WA Whitworth em 1901. O símbolo se tornou popular desde então para os escritores ingleses. Em alemão, significa "Erwartungswert", em espanhol significa "Esperanza matemática" e em francês "Espérance mathématique".

Quando E é usado para denotar o valor esperado, os autores usam uma variedade de notações: o operador de expectativa pode ser estilizado como (vertical), (itálico) ou (em negrito no quadro-negro ), enquanto os colchetes ( ), colchetes ( ) ou nenhum colchete ( ) é usado.

Outra notação popular é , enquanto é comumente usada na física e na literatura de língua russa.

Definição

Caso finito

Let Ser uma variável aleatória (discreta) com um número finito de resultados finitos ocorrendo com probabilidades respectivamente. A expectativa de é definida como

Já o valor esperado é a soma ponderada dos valores, com as probabilidades como os pesos.

Se todos os resultados forem equiprováveis (ou seja, ), a média ponderada se transforma em média simples . Por outro lado, se os resultados não forem equiprováveis, a média simples deve ser substituída pela média ponderada, que leva em consideração o fato de que alguns resultados são mais prováveis ​​do que outros.

Uma ilustração da convergência das médias de sequência de lançamentos de um dado para o valor esperado de 3,5 conforme o número de lançamentos (tentativas) aumenta.

Exemplos

  • Vamos representar o resultado de um rolo de uma feira de seis lados morrem . Mais especificamente, será o número de sementes exibidas na face superior do dado após o lançamento. Os valores possíveis para são 1, 2, 3, 4, 5 e 6, todos os quais são igualmente prováveis ​​com uma probabilidade de 1/6. A expectativa de é
Se um rola o die vezes e calcula a média ( média aritmética ) dos resultados, em seguida, como cresce, a média será quase certamente convergir para o valor esperado, fato conhecido como o forte lei dos grandes números .
  • O jogo de roleta consiste em uma pequena bola e uma roda com 38 bolsos numerados ao redor da borda. Conforme a roda é girada, a bola salta aleatoriamente até se acomodar em um dos bolsos. Suponha que a variável aleatória represente o resultado (monetário) de uma aposta de $ 1 em um único número (aposta "direta"). Se a aposta ganhar (o que acontece com probabilidade1/38na roleta americana), a recompensa é de $ 35; caso contrário, o jogador perde a aposta. O lucro esperado dessa aposta será
Ou seja, a aposta de $ 1 pode perder , então seu valor esperado é

Caso infinito

Intuitivamente, a expectativa de uma variável aleatória assumindo valores em um conjunto contável de resultados é definida analogamente como a soma ponderada dos valores de resultado, onde os pesos correspondem às probabilidades de realização desse valor. No entanto, as questões de convergência associadas à soma infinita requerem uma definição mais cuidadosa. Uma definição rigorosa primeiro define a expectativa de uma variável aleatória não negativa e, em seguida, a adapta às variáveis ​​aleatórias gerais.

Let Ser uma variável aleatória não negativa com um conjunto contável de resultados ocorrendo com probabilidades respectivamente. Análogo ao caso discreto, o valor esperado de é então definido como a série

Observe que , uma vez que , a soma infinita é bem definida e não depende da ordem em que é calculada. Ao contrário do caso finito, a expectativa aqui pode ser igual ao infinito, se a soma infinita acima aumentar sem limite.

Para uma variável aleatória geral (não necessariamente não negativa) com um número contável de resultados, defina e . Por definição,

Como as variáveis ​​aleatórias não negativas, podem, mais uma vez, ser finitas ou infinitas. A terceira opção aqui é que não há mais garantia de que seja bem definida. O último acontece sempre .

Exemplos

  • Suponha que e para , onde ( sendo o logaritmo natural ) é o fator de escala tal que as probabilidades somam 1. Então, usando a definição direta para variáveis ​​aleatórias não negativas, temos
  • Um exemplo em que a expectativa é infinita surge no contexto do paradoxo de São Petersburgo . Deixe e por . Mais uma vez, uma vez que a variável aleatória não é negativa, o cálculo do valor esperado dá
  • Para um exemplo em que a expectativa não está bem definida, suponha que a variável aleatória assuma valores com as respectivas probabilidades , ..., onde é uma constante de normalização que garante a soma das probabilidades em um.
Então, segue-se que assume valor com probabilidade para e assume valor com probabilidade restante. Da mesma forma, assume valor com probabilidade para e assume valor com probabilidade restante. Usando a definição de variáveis ​​aleatórias não negativas, pode-se mostrar que ambos e (ver Série Harmônica ). Portanto, a expectativa de não está bem definida.

Caso absolutamente contínuo

Se for uma variável aleatória com uma função de densidade de probabilidade de , então o valor esperado é definido como a integral de Lebesgue

onde os valores em ambos os lados são bem definidos ou não bem definidos simultaneamente.

Exemplo. Uma variável aleatória que possui a distribuição de Cauchy possui uma função de densidade, mas o valor esperado é indefinido, pois a distribuição possui grandes "caudas" .

Caso Geral

Em geral, se for uma variável aleatória definida em um espaço de probabilidade , então o valor esperado de , denotado por , é definido como a integral de Lebesgue

Para variáveis ​​aleatórias multidimensionais, seu valor esperado é definido por componente. Isso é,

e, para uma matriz aleatória com elementos ,

Propriedades básicas

As propriedades básicas abaixo (e seus nomes em negrito) replicam ou seguem imediatamente daquelas da integral de Lebesgue . Observe que as letras "como" representam " quase com certeza " - uma propriedade central da integral de Lebesgue. Basicamente, diz-se que uma desigualdade como é quase certa, quando a medida de probabilidade atribui massa zero ao evento complementar .

  • Para uma variável aleatória geral , defina como antes e , e observe que , com ambos e não negativo, então:
  • Vamos denotar a função de indicador de um evento , então
  • Fórmulas em termos de CDF: Se for a função de distribuição cumulativa da medida de probabilidade e for uma variável aleatória, então
onde os valores em ambos os lados são bem definidos ou não bem definidos simultaneamente, e a integral é tomada no sentido de Lebesgue-Stieltjes . Aqui está a linha real estendida.
Adicionalmente,
com as integrais tomadas no sentido de Lebesgue.
A prova da segunda fórmula segue.
  • Não negatividade: Se (as), então .
  • Linearidade da expectativa: O operador de valor esperado (ou operador de expectativa ) é linear no sentido de que, para quaisquer variáveis ​​aleatórias e , e uma constante ,
sempre que o lado direito estiver bem definido. Isso significa que o valor esperado da soma de qualquer número finito de variáveis ​​aleatórias é a soma dos valores esperados das variáveis ​​aleatórias individuais e o valor esperado escala linearmente com uma constante multiplicativa. Simbolicamente, para variáveis e constantes aleatórias , temos .
  • Monotonicidade: Se (as) , e ambos e existem, então .
A prova segue da linearidade e da propriedade de não negatividade para , uma vez que (as).
  • Não multiplicatividade: Em geral, o valor esperado não é multiplicativo, ou seja, não é necessariamente igual a . Se e for independente , pode-se mostrar isso . Se as variáveis ​​aleatórias são dependentes , então geralmente , embora em casos especiais de dependência, a igualdade pode ser mantida.
  • Lei do estatístico inconsciente : O valor esperado de uma função mensurável de,, dado quetem uma função de densidade de probabilidade, é dada pelo produto interior dee:
Esta fórmula também é válida no caso multidimensional, quando é função de várias variáveis ​​aleatórias, e é sua densidade conjunta .
  • Não degenerescência: Se , então (as).
  • Para uma variável aleatória com expectativa bem definida: .
  • As seguintes afirmações sobre uma variável aleatória são equivalentes:
    • existe e é finito.
    • Ambos e são finitos.
    • é finito.
Pelas razões acima, as expressões " é integrável" e "o valor esperado de é finito" são usadas alternadamente ao longo deste artigo.
  • Se então (como) . Da mesma forma, se então (como) .
  • Se e então
  • Se (como) , então . Em outras palavras, se X e Y forem variáveis ​​aleatórias que assumem valores diferentes com probabilidade zero, então a expectativa de X será igual à expectativa de Y.
  • Se (as) para alguma constante , então . Em particular, para uma variável aleatória com expectativa bem definida ,. Uma expectativa bem definida implica que existe um número, ou melhor, uma constante que define o valor esperado. Portanto, segue-se que a expectativa dessa constante é apenas o valor esperado original.
  • Para uma variável aleatória de valor inteiro não negativa

Usos e aplicações

A expectativa de uma variável aleatória desempenha um papel importante em uma variedade de contextos. Por exemplo, na teoria da decisão , supõe-se que um agente que faz uma escolha ótima no contexto de informações incompletas maximiza o valor esperado de sua função de utilidade . Para um exemplo diferente, em estatísticas , em que se busca estimativas para parâmetros desconhecidos com base nos dados disponíveis, a própria estimativa é uma variável aleatória. Em tais configurações, um critério desejável para um estimador "bom" é que ele seja imparcial ; ou seja, o valor esperado da estimativa é igual ao valor verdadeiro do parâmetro subjacente.

É possível construir um valor esperado igual à probabilidade de um evento, tomando a expectativa de uma função indicadora que é um se o evento ocorreu e zero caso contrário. Essa relação pode ser usada para traduzir propriedades de valores esperados em propriedades de probabilidades, por exemplo, usando a lei dos grandes números para justificar a estimativa de probabilidades por frequências .

Os valores esperados das potências de X são chamados de momentos de X ; os momentos sobre a média de X são valores esperados das potências de X - E [ X ]. Os momentos de algumas variáveis ​​aleatórias podem ser usados ​​para especificar suas distribuições, por meio de suas funções geradoras de momento .

Para estimar empiricamente o valor esperado de uma variável aleatória, mede-se repetidamente as observações da variável e calcula a média aritmética dos resultados. Se o valor esperado existe, este procedimento estima o valor esperado verdadeiro de maneira não enviesada e tem a propriedade de minimizar a soma dos quadrados dos resíduos (a soma das diferenças quadradas entre as observações e a estimativa ). A lei dos grandes números demonstra (em condições bastante brandas) que, à medida que o tamanho da amostra aumenta, a variância dessa estimativa fica menor.

Esta propriedade é frequentemente explorada em uma ampla variedade de aplicações, incluindo problemas gerais de estimativa estatística e aprendizado de máquina , para estimar quantidades (probabilísticas) de interesse por meio de métodos de Monte Carlo , uma vez que a maioria das quantidades de interesse pode ser escrita em termos de expectativa, por exemplo , onde está a função de indicador do conjunto .

A massa da distribuição de probabilidade é balanceada no valor esperado, aqui uma distribuição Beta (α, β) com valor esperado α / (α + β).

Na mecânica clássica , o centro de massa é um conceito análogo à expectativa. Por exemplo, suponha que X seja uma variável aleatória discreta com valores x i e probabilidades correspondentes p i . Agora considere uma barra sem peso na qual são colocados pesos, nos locais x i ao longo da barra e tendo massas p i (cuja soma é um). O ponto em que a barra se equilibra é E [ X ].

Os valores esperados também podem ser usados ​​para calcular a variância , por meio da fórmula computacional para a variância

Uma aplicação muito importante do valor esperado está no campo da mecânica quântica . O valor esperado de um operador mecânico quântico operando em um vetor de estado quântico é escrito como . A incerteza em pode ser calculada usando a fórmula .

Intercambiando limites e expectativas

Em geral, não é o caso que, apesar de pontual. Assim, não se pode intercambiar limites e expectativas, sem condições adicionais sobre as variáveis ​​aleatórias. Para ver isso, deixe ser uma variável aleatória distribuída uniformemente . Para definir uma sequência de variáveis ​​aleatórias

com sendo a função de indicador do evento . Então, segue-se que (as). Mas, para cada um . Portanto,

Analogamente, para a sequência geral de variáveis ​​aleatórias , o operador de valor esperado não é -aditivo, ou seja,

Um exemplo é facilmente obtido definindo e para , onde está como no exemplo anterior.

Vários resultados de convergência especificam condições exatas que permitem intercambiar limites e expectativas, conforme especificado abaixo.

  • Teorema da convergência monótona : Let Ser uma seqüência de variáveis ​​aleatórias, com (as) para cada . Além disso, deixe pontualmente. Então, o teorema de convergência monótona afirma que
Usando o teorema da convergência monótona, pode-se mostrar que a expectativa de fato satisfaz a aditividade contável para variáveis ​​aleatórias não negativas. Em particular, sejam variáveis ​​aleatórias não negativas. Segue-se do teorema de convergência monótona que
  • Lema de Fatou : Let Ser uma seqüência de variáveis ​​aleatórias não negativas. O lema de Fatou afirma que
Corolário. Deixe com tudo . Se (como), então
A prova é observando esse (as) e aplicando o lema de Fatou.
  • Teorema da convergência dominada : Let Ser uma seqüência de variáveis ​​aleatórias. Se pontualmente (as), (as) e . Então, de acordo com o teorema da convergência dominada,
    • ;
  • Integrabilidade uniforme : em alguns casos, a igualdade é mantida quando a sequência é uniformemente integrável .

Desigualdades

Existem várias desigualdades envolvendo os valores esperados de funções de variáveis ​​aleatórias. A lista a seguir inclui algumas das mais básicas.

  • Desigualdade de Markov : Para uma variável aleatória não negativa e , a desigualdade de Markov afirma que
  • Desigualdade de Bienaymé-Chebyshev : Let Ser uma variável aleatória arbitrária com valor esperado finito e variância finita . A desigualdade Bienaymé-Chebyshev afirma que, para qualquer número real ,
  • Desigualdade de Jensen : Seja uma função convexa de Borel e uma variável aleatória tal que . Então
O lado direito é bem definido, mesmo se assumir valores não finitos. De fato, como observado acima, a finitude de implica que é finito como; portanto, é definido como.
  • Desigualdade de Lyapunov: Let . A desigualdade de Lyapunov afirma que
Prova. Aplicando a desigualdade de Jensen para e , obtenha . Tirar a raiz de cada lado completa a prova.
  • A desigualdade de Hölder : Deixe e satisfazer , e . A desigualdade de Hölder afirma que
  • Desigualdade de Minkowski : Seja um número real positivo que satisfaça . Deixe, além disso, e . Então, de acordo com a desigualdade de Minkowski, e

Valores esperados de distribuições comuns

Distribuição Notação Média E (X)
Bernoulli
Binomial
Poisson
Geométrico
Uniforme
Exponencial
Normal
Normal Padrão
Pareto para ; para 0 a 1
Cauchy Indefinido

Relação com função característica

A função de densidade de probabilidade de uma variável aleatória escalar está relacionada à sua função característica pela fórmula de inversão:

Para o valor esperado de (onde é uma função de Borel ), podemos usar esta fórmula de inversão para obter

Se for finito, mudando a ordem de integração, obtemos, de acordo com o teorema de Fubini-Tonelli ,

Onde

é a transformada de Fourier de A expressão para também segue diretamente do teorema de Plancherel .

Veja também

Referências

Literatura

  • Edwards, AWF (2002). Triângulo aritmético de Pascal: a história de uma ideia matemática (2ª ed.). JHU Press. ISBN 0-8018-6946-3.
  • Huygens, Christiaan (1657). De ratiociniis in ludo aleæ (tradução inglesa, publicada em 1714) .