Saltar para o conteúdo

Probabilidade

Origem: Wikipédia, a enciclopédia livre.
Modelo para aferir níveis de probabilidade.

A palavraprobabilidadederiva doLatimprobare(provar ou testar). Informalmente, provável é uma das muitas palavras utilizadas para eventos incertos ou desconhecidos, sendo também substituída por algumas palavras como “sorte”, “risco”, “azar”, "chance", “incerteza”, “duvidoso”, dependendo do contexto inseridas à língua portuguesa e na linguagem matemática.

Tal como acontece com ateoria da mecânica,onde encontramos definições precisas que atribuímos em termos de uso diário que praticamos em nosso dia a dia, como otrabalhoe aforça,também ateoria das probabilidadestenta quantificar a noção deprovávelem determinados eventos em que surgem possibilidades com probabilidades.

Em essência, existe um conjunto de regras matemáticas onde pode-se prever a probabilidade de acertos, número de vezes, número de ocasiões entre outras situações que conseguimos calcular através de fórmulas e regras matemáticas, listado no tópico "Formalização da probabilidade"abaixo. Existem outras regras para quantificar a incerteza, como ateoria de Dempster-Shafere alógica difusa(eminglês,fuzzy logic), diferentes e compatíveis com as leis da probabilidade tal como são geralmente entendidas. No entanto, seguem com a metodologia matemática de Probabilidade, como são aplicadas as regras.


Conceitos de probabilidade

[editar|editar código-fonte]

A ideia geral da probabilidade é frequentemente dividida em dois conceitos relacionados:

  • Probabilidade de frequência ou probabilidade aleatória,que representa uma série de eventos futuros cuja ocorrência é definida por alguns fenômenos físicos aleatórios. Este conceito pode ser dividido em fenômenos físicos que são previsíveis através de informação suficiente e fenômenos que são essencialmente imprevisíveis. Um exemplo para o primeiro tipo é uma roleta, e um exemplo para o segundo tipo é umdecaimento radioativo.
  • Probabilidade epistemológica ou probabilidade Bayesiana,que representa nossas incertezas sobre proposições quando não se tem conhecimento completo das circunstâncias causativas. Tais proposições podem ser sobre eventos passados ou futuros, mas não precisam ser. Alguns exemplos de probabilidade epistemológica são designar uma probabilidade à proposição de que uma lei da Física proposta seja verdadeira, e determinar o quão "provável" é que um suspeito cometeu um crime, baseado nas provas apresentadas.

É uma questão aberta se a probabilidade aleatória é redutível à probabilidade epistemológica baseado na nossa inabilidade de predizer com precisão cada força que poderia afetar o rolar de um dado, ou se tais incertezas existem na natureza da própria realidade, particularmente em fenômenosquânticosgovernados peloprincípio da incertezade Heisenberg. Embora as mesmas regras matemáticas se apliquem não importando qual interpretação seja escolhida, a escolha tem grandes implicações pelo modo em que a probabilidade é usada para modelar o mundo real.

Marcos históricos

[editar|editar código-fonte]

O estudo científico da probabilidade é um desenvolvimento moderno. Os jogos de apostas mostram que o interesse em quantificar as ideias da probabilidade tem existido por milênios, mas as descrições matemáticas de uso nesses problemas só apareceram muito mais tarde.

Christiaan Huygens (1671), publicou um dos primeiros livros sobre probabilidade.

Girolamo Cardano,no livroLiber de Ludo Aleae,estudou as probabilidades associadas ao arremesso de dados, concluindo que a distribuição de 2 dados deve ser obtida dos 36 pares ordenados de resultados, e não apenas dos 21 pares (não-ordenados).[1]

A doutrina das probabilidades vêm desde a correspondência entrePierre de FermateBlaise Pascal(1654).Christiaan Huygens(1657) deu o primeiro tratamento científico ao assunto. AArte da ConjecturadeJakob Bernoulli(póstumo, 1713) e aDoutrina da ProbabilidadedeAbraham de Moivre(1718) trataram o assunto como um ramo da matemática.

A teoria dos erros pode ser originada doOpera MiscellaneadeRoger Cotes(póstumo, 1722), mas um ensaio preparado porThomas Simpsonem 1755 (impresso em 1756) foi o primeiro a aplicar a teoria na discussão deerros de observação.A reimpressão (1757) desse ensaio estabelece os axiomas que erros positivos e negativos são igualmente prováveis, e que há certos limites que se podem associar em que pode se supor que todos os erros vão cair; erros contínuos são discutidos e uma curva de probabilidade é dada.

Pierre-Simon Laplace(1774) fez a primeira tentativa de deduzir uma regra para a combinação de observações dos princípios da teoria das probabilidades. Ele apresentou a lei da probabilidade dos erros por uma curva,sendo qualquer erro esua probabilidades, e estabeleceu três propriedades dessa curva: (1) Ela é simétrica no eixo;(2) ao eixo,é assintótico; a probabilidade do erro quandoé 0; (3) a área abaixo da curva da função é 1, sendo certo de que um erro existe. Ele deduziu uma fórmula para o significado das três observações. Ele também deu (1781) uma fórmula para a lei da facilidade de erros (um termo devido a Lagrange, 1774), mas que levava a equações não gerenciáveis.Daniel Bernoulli(1778) introduziu o princípio do produto máximo das probabilidades de um sistema de erros concorrentes.

Carl Friedrich Gauss (1828), grande expoente da matemática.

Ométodo dos mínimos quadradosdeve-se aomatemáticoalemãoJohann Carl Friedrich Gauss(1777-1855). Gauss descreveu o método aos dezoito anos (1795), que hoje é indispensável nas mais diversas pesquisas.Adrien-Marie Legendre(1805), introduziu contribuições ao método em seuNouvelles méthodes pour la détermination des orbites des comètes.Por ignorar o trabalho de Legendre, um escritor Americano-Irlandês,Robert Adrain,editor de "The Analyst" (1808), primeiro deduziu a lei da facilidade do erro,

esendo constantes dependendo da precisão da observação. Ele deu duas provas, sendo a segunda essencialmente a mesma deJohn Herschel(1850).Carl Friedrich Gaußdeu a primeira prova que parece ser conhecida naEuropa(a terceira após a de Adrain) em 1809. Provas posteriores foram dadas por Laplace (1810, 1812), Gauß (1823),James Ivory(1825, 1826), Hagen (1837),Friedrich Bessel(1838), Donkin (1844, 1856), eMorgan Crofton(1870). Outros que contribuíram foram Ellis (1844),De Morgan(1864),Glaisher(1872), eGiovanni Schiaparelli(1875). A fórmula de Peters (1856) para,o erro provável de uma observação simples, é bem conhecida.

Noséculo XIX,os autores da teoria geral incluíam Laplace,Sylvestre Lacroix(1816), Littrow (1833),Adolphe Quetelet(1853),Richard Dedekind(1860), Helmert (1872),Hermann Laurent(1873), Liagre, Didion, eKarl Pearson.Augustus De MorganeGeorge Boolemelhoraram a exibição da teoria.

No lado geométricos, (vejageometria integral), os contribuidores daThe Educational Timesforam influentes (Miller, Crofton, McColl, Wolstenholme, Watson, e Artemas Martin).

Formalização da probabilidade

[editar|editar código-fonte]
Dados, símbolos da probabilidade.

Como outrasteorias,ateoria das probabilidadesé uma representação dos conceitos probabilísticos em termos formais – isso é, em termos que podem ser considerados separadamente de seus significados. Esses termos formais são manipulados pelas regras da matemática e da lógica, e quaisquer resultados são então interpretados ou traduzidos de volta ao domínio do problema.

Houve pelo menos duas tentativas com sucesso de formalizar a probabilidade, que foram as formulações deKolmogorove a deCox. Na formulação de Kolmogorov,conjuntossão interpretados como eventos e a probabilidade propriamente dita como umamedidanuma classe de conjuntos. Na de Cox, a probabilidade é entendida como uma primitiva (isto é, não analisada posteriormente) e a ênfase está em construir uma associação consistente de valores de probabilidade a proposições. Em ambos os casos, as leis da probabilidade são as mesmas, exceto por detalhes técnicos:

  1. uma probabilidade é um número entre 0 e 1;
  2. a probabilidade de um evento ou proposição e seu complemento, se somados, valem até 1;
  3. aprobabilidade condicionada ou conjuntade dois eventos ou proposições é o produto da probabilidade de um deles e a probabilidade do segundo,condicionadona primeira.

O leitor vai encontrar uma exposição da formulação de Kolmogorov no artigo sobreteoria das probabilidades,e no artigo sobre oteorema de Coxa formulação de Cox. Veja também o artigo sobre os axiomas da probabilidade.

Representação e interpretação de valores de probabilidade

[editar|editar código-fonte]

A probabilidade de um evento geralmente é representada como umnúmero realentre 0 e 1. um eventoimpossíveltem uma probabilidade de exatamente 0, e um eventocerto de acontecertem uma probabilidade de 1, mas a recíproca não é sempre verdadeira: eventos de probabilidade 0 não são sempre impossíveis, nem os de probabilidade 1 certos. A distinção bastante sutil entre "evento certo" e "probabilidade 1" é tratado em maior detalhe no artigo sobre "quase-verdade".

A maior parte das probabilidades que ocorrem na prática são números entre 0 e 1, que indica a posição do evento no contínuo entre impossibilidade e certeza. Quanto mais próxima de 1 seja a probabilidade de um evento, mais provável é que o evento ocorra. Por exemplo, se dois eventos forem ditos igualmente prováveis, como por exemplo em um jogo de cara ou coroa, podemos exprimir a probabilidade de cada evento - cara ou coroa - como "1 em 2", ou, de forma equivalente, "50%", ou ainda "1/2".

Probabilidades também podem ser expressas como chances (odds). Chance é a razão entre a probabilidade de um evento e à probabilidade de todos os demais eventos. A chance de obtermos cara, ao lançarmos uma moeda, é dada por (1/2)/(1 - 1/2), que é igual a 1/1. Isto é expresso como uma "chance de 1 para 1" e é frequentemente escrito como "1:1". Assim, a chancea:bpara um certo evento é equivalente à probabilidadea/(a+b).

Por exemplo, a chance 1:1 é equivalente à probabilidade 1/2 e 3:2 é equivalente à probabilidade 3/5.

Ainda fica a questão de a quê exatamente pode ser atribuído uma probabilidade, e como os números atribuídos podem ser usados; isto é uma questão deinterpretações de probabilidade.

Há alguns que alegam que pode-se atribuir uma probabilidade a qualquer tipo de proposição lógica incerta; esta é a interpretaçãobayesiana.Há outros que argumentam que a probabilidade só é aplicada apropriadamente a proposições que relacionam-se com sequências de experimentos repetidos, ou da amostragem de uma população grande; esta é a interpretaçãofrequentista.Há ainda diversas outras interpretações que são variações de um ou de outro tipo.

Distribuições

[editar|editar código-fonte]

Adistribuição de probabilidadeé uma função que determina probabilidades para eventos ou proposições. Para qualquer conjunto de eventos ou proposições existem muitas maneiras de determinar probabilidades, de forma que a escolha de uma ou outra distribuição é equivalente a criar diferentes hipóteses sobre os eventos ou proposições em questão.

Há várias formas equivalentes de se especificar uma distribuição de probabilidade. Talvez a mais comum é especificar umafunção densidade da probabilidade.Daí, a probabilidade de um evento ou proposição é obtida pela integração da função densidade.

A função distribuição pode ser também especificada diretamente. Em uma dimensão, a função distribuição é chamada defunção distribuição cumulativa.As distribuições de probabilidade também podem ser especificadas viamomentosou porfunções características,ou por outras formas.

Uma distribuição é chamada dedistribuição discretase for definida em um conjunto contável e discreto, tal como o subconjunto dos números inteiros; ou é chamada dedistribuição contínuase tiver uma função distribuição contínua, tal como uma função polinomial ou exponencial. A maior parte das distribuições de importância prática são ou discretas ou contínuas, porém há exemplos de distribuições que não são de nenhum desses tipos.

Dentre as distribuições discretas importantes, pode-se citar adistribuição uniformediscreta, adistribuição de Poisson,adistribuição binomial,adistribuição binomial negativae adistribuição de Maxwell-Boltzmann.Dentre as distribuições contínuas, adistribuição normal,adistribuição gama,adistribuição t de Studente adistribuição exponencial.

Probabilidade na matemática

[editar|editar código-fonte]

Os axiomas da probabilidade formam a base para ateoria da probabilidade matemática.O cálculo de probabilidades pode ser frequentemente determinado pelo uso daanálise combinatóriaou pela aplicação direta dos axiomas. As aplicações da probabilidade vão muito além daestatística,que é geralmente baseada na ideia de distribuições de probabilidade e doteorema do limite central.

Para dar um significado matemático à probabilidade, considere um jogo de cara ou coroa. Intuitivamente, a probabilidade de dar cara, qualquer que seja a moeda, é "obviamente 50%"; porém, esta afirmação por si só deixa a desejar quanto ao rigor matemático - certamente, enquanto se podeesperarque, ao jogar essa moeda 10 vezes, teremos 5 caras e 5 coroas, não hágarantiasde que isso ocorrerá; é possível, por exemplo, conseguir 10 caras sucessivas. O que então o número "50%" significaria nesse contexto?

Uma proposta é usar alei dos grandes números.Neste caso, assumimos que é exequível fazer qualquer número de arremessos da moeda, com cada resultado sendo independente - isto é, o resultado de cada jogada não é afetado pelas jogadas anteriores. Se executarmosNjogadas, e sejaNHo número de vezes que a moeda deu cara, então pode-se considerar, para qualquerN,a razãoNH/N.

QuandoNse tornar cada vez maior, pode-se esperar que, em nosso exemplo, a razãoNH/Nchegará cada vez mais perto de 1/2. Isto nos permite "definir" a probabilidade Pr(H) das caras como o limite matemático, comNtendendo ao infinito, desta sequência de quocientes:

Na prática, obviamente, não se pode arremessar uma moeda uma infinidade de vezes; por isso, em geral, esta fórmula se aplica melhor a situações nas quais já se tem fixada uma probabilidadea prioripara um resultado particular (no nosso caso, nossaconvençãoé a de que a moeda é uma moeda "honesta" ). A lei dos grandes números diz que, dado Pr(H) e qualquer número arbitrariamente pequeno ε, existe um númerontal que para todoN>n,

Em outras palavras, ao dizer que "a probabilidade de caras é 1/2", queremos dizer que, se jogarmos nossa moeda tantas vezes o bastante,eventualmenteo número de caras em relação ao número total de jogadas tornar-se-á arbitrariamente próximo de 1/2; e permaneceráao menostão próximo de 1/2 enquanto se continuar a arremessar a moeda.

Observe que uma definição apropriada requer ateoria da medida,que provê meios de cancelar aqueles casos nos quais o limite superior não dá o resultado "certo", ou é indefinido pelo fato de terem uma medida zero.

O aspectoa prioridesta proposta à probabilidade é algumas vezes problemática quando aplicado a situações do mundo real. Por exemplo, na peçaRosencrantz e Guildenstern estão mortos,deTom Stoppard,uma personagem arremessa uma moeda que sempre dá caras, uma centena de vezes. Ele não pode decidir se isto é apenas um evento aleatório - além do mais, é possível, porém improvável, que uma moeda honesta pudesse dar tal resultado - ou se a hipótese de que a moeda é honesta seja falsa.

Notas sobre cálculos de probabilidade

[editar|editar código-fonte]

A dificuldade nos cálculos de probabilidade se relacionam com determinar o número de eventos possíveis, contar as ocorrências de cada evento, contar o número total de eventos. O que é especialmente difícil é chegar a conclusões que tenham algum significado, a partir das probabilidades calculadas. Uma piada sobre probabilidade, oproblema de Monty Hall,demonstra as armadilhas muito bem.

Aplicações da Teoria da Probabilidade no cotidiano

[editar|editar código-fonte]

Um efeito maior da teoria da probabilidade no cotidiano está na avaliação deriscose no comércio nosmercado de matérias-primas.Governos geralmente aplicam métodos de probabilidade naregulação ambientalonde é chamada de "análise de caminho",e estão frequentemente medindo o bem-estar usando métodos que são estocásticos por natureza, e escolhendo projectos com os quais se comprometer baseados no seu efeito provável na população como um todo, estatisticamente. De fato, não é correto dizer queestatísticasestejam envolvidas na modelagem em si, dado que, normalmente, estimativas deriscosão únicas (one-time) e, portanto, necessitam de modelos mais fundamentais como, por exemplo, para determinar "a probabilidade de ocorrência de outro atentado terrorista como o de 11 de setembro em Nova York". Umalei de números pequenostende a se aplicar a todas estas situações e à percepção dos efeitos relacionados a tais situações, o que faz de medidas de probabilidade uma questão política.

Um bom exemplo é o efeito nos preços do petróleo da probabilidade percebida de qualquer conflito mais abrangente no Oriente Médio - o que contagia a economia como um todo. A estimativa feita por um comerciante de comodidades de que uma guerra é mais (ou menos) provável leva a um aumento (ou diminuição) de preços e sinaliza a outros comerciantes aquela opinião. Da mesma forma, as probabilidades não são estimadas de forma independente nem, necessariamente, racional. A teoria definança comportamentalsurgiu para descrever o efeito de talpensamento de grupo(groupthink) na definição de preços, política, paz e conflito.

Uma aplicação importante da teoria das probabilidades no dia a dia é a questão da confiabilidade. No desenvolvimento de muitos produtos de consumo, tais como automóveis e eletro - eletrônicos, a teoria da confiabilidade é utilizada com o intuito de se reduzir a probabilidade de falha que, por sua vez, está estritamente relacionada à garantia do produto. Outro bom exemplo é a aplicação dateoria dos jogos,uma teoria rigorosamente baseada na teoria das probabilidades, àGuerra Friae à doutrina dedestruição mútua assegurada.

Wikiquote
Wikiquote
OWikiquotepossui citações de ou sobre:Probabilidade
  • Damon Runyon,"It may be that the race is not always to the swift, nor the battle to the strong - but that is the way to bet."
- "pode ser que a corrida não seja sempre para o rápido nem a batalha para o forte - mas é assim que se deve apostar."
  • Pierre-Simon Laplace"It is remarkable that a science which began with the consideration of games of chance should have become the most important object of human knowledge."
- "É notável uma ciência que começou com jogos de azar tenha se tornado o mais importante objeto do conhecimento humano."
-Théorie Analytique des Probabilités,1812.
  • Richard von Mises"The unlimited extension of the validity of the exact sciences was a characteristic feature of the exaggerated rationalism of the eighteenth century" (in reference to Laplace)
- "A extensão ilimitada da validade das ciências exatas era característica do racionalismo exagerado do século XVIII." - sobre Laplace).
-Probability, Statistics, and Truth,p 9. Dover edition, 1981 (republicação da segunda edição em inglês, 1957).

Referências

  1. Introduction to Probability, por Charles Miller Grinstead e James Laurie SnellISBN 0-821-89414-5

Ligações externas

[editar|editar código-fonte]
Wikilivros
Wikilivros